Il 22 ottobre più di settecento persone tra scienziati, politici, imprenditori e celebrità hanno chiesto di fermare lo sviluppo di un’intelligenza artificiale (ia) in grado di superare le capacità umane, denunciando conseguenze potenzialmente devastanti per l’umanità.

“Chiediamo di sospendere lo sviluppo di una superintelligenza finché non sarà stato raggiunto un consenso scientifico sul fatto che possa avvenire in modo controllato e sicuro, e finché non avrà ricevuto l’appoggio della popolazione mondiale”, si legge nel testo promosso dal Future of life institute, un’organizzazione non a scopo di lucro con sede negli Stati Uniti.

Tra i firmatari ci sono vari pionieri dell’ia, tra cui Geoffrey Hinton, premio Nobel per la fisica nel 2024, Stuart Russell, professore d’informatica all’università della California a Berkeley, e Yoshua Bengio, professore all’università di Montréal.

L’elenco comprende anche imprenditori del settore tecnologico come Richard Branson, fondatore del gruppo Virgin, e Steve Wozniak, cofondatore della Apple; politici come Steve Bannon, ex consigliere del presidente statunitense Donald Trump, e Susan Rice, consigliera per la sicurezza nazionale dell’ex presidente Barack Obama; personalità religiose come Paolo Benanti, che è stato consigliere di papa Francesco sui temi dell’intelligenza artificiale, e celebrità come il rapper will.i.am e il principe Harry con la moglie Meghan Markle.

Attualmente la maggior parte delle grandi aziende del settore punta a sviluppare l’intelligenza artificiale generale (agi), uno stadio in cui l’ia eguaglierebbe le capacità intellettuali degli esseri umani, ma anche la superintelligenza, che le supererebbe.

Secondo Sam Altman, cofondatore e amministratore delegato della OpenAi, il traguardo della superintelligenza potrebbe essere raggiunto entro cinque anni.

“Non importa se sarà tra due o quindici anni. Sviluppare la superintelligenza è inaccettabile”, ha dichiarato all’Afp Max Tegmark, presidente del Future of life institute, secondo cui nessuna azienda dovrebbe essere autorizzata a lanciare progetti di questo tipo “al di fuori di qualunque quadro normativo”.

“Si può essere favorevoli allo sviluppo di strumenti d’intelligenza artificiale più potenti, per esempio per curare il cancro, senza arrivare alla superintelligenza”, ha aggiunto.

Durante la recente sessione annuale dell’assemblea generale delle Nazioni Unite, un gruppo di scienziati e imprenditori aveva lanciato un appello per la firma di “accordi internazionali sulle linee rosse per l’ia”.