Cos’hanno in comune Steve Bannon, Kate Bush, Steve Woznikak, il principe Harry, la duchessa Meghan, Geoffrey Hinton e Paolo Benanti?

Apparentemente nulla. Bannon, già stratega di Trump e conduttore del podcast War room, è anche un campione della creazione di caos nel già confuso ecosistema informativo. È stato anche condannato per aver rifiutato di collaborare con l’inchiesta parlamentare statunitense sull’assalto al congresso del 6 gennaio 2021. Benanti, francescano, è docente di etica delle tecnologie, bioetica e intelligenza artificiale alla Pontificia università gregoriana. Kate Bush è una cantante pop e con la sua musica “attraversa le generazioni”, anche grazie al fatto che la sua canzone Running up that hill è stata rilanciata dalla popolarissima serie tv Stranger things.

Steve Wozniak è il cofondatore della Apple. Geoffrey Hinton è stato definito a più riprese il padrino delle intelligenze artificiali – etichetta arbitraria, parziale e sensazionalista – e, più seriamente, ha vinto il premio Nobel per la fisica nel 2024 per le sue ricerche fondamentali proprio in ambito informatico, legate all’apprendimento profondo. Harry e Meghan sono una coppia e sono anche due membri della famiglia reale britannica con la quale hanno qualche problema relazionale (non di quei problemi che possono avere le famiglie ordinarie).

Apparentemente, queste persone sono molto lontane fra loro e anche da noi. Ma, dal 22 ottobre 2025, sono accomunate dal fatto di aver firmato una petizione sulle intelligenze artificiali, insieme a molte altre personalità di vari campi del sapere.

Il contesto della petizione è descritto così: “Gli strumenti di intelligenza artificiale innovativi potrebbero portare a un benessere e una prosperità senza precedenti. Tuttavia, oltre a questi strumenti, molte aziende leader nel settore dell’intelligenza artificiale hanno l’obiettivo dichiarato di costruire, nel prossimo decennio, una superintelligenza in grado di superare significativamente le prestazioni di tutti gli esseri umani in praticamente tutti i compiti cognitivi. Ciò ha sollevato preoccupazioni che vanno dall’obsolescenza economica e dalla perdita di potere dell‘umanità, alla perdita di libertà, diritti civili, dignità e controllo, ai rischi per la sicurezza nazionale e perfino alla potenziale estinzione umana. La breve dichiarazione che segue mira a creare consapevolezza del crescente numero di esperti e personaggi pubblici che si oppongono alla corsa alla superintelligenza”.

Poi c’è una breve dichiarazione:

“Chiediamo che sia vietato sviluppare superintelligenze e che il divieto non venga revocato prima che ci sia: 1) un ampio consenso scientifico sul fatto che ciò possa essere fatto in modo sicuro e controllabile; 2) un forte consenso dell’opinione pubblica”.

Conversazione inquinata

Una petizione molto simile era stata lanciata nel 2023 ed era stata firmata persino da Elon Musk, che nel frattempo sviluppava con le sue aziende strumenti di intelligenza artificiale, e in qualche modo avallata anche da Sam Altman, l’amministratore delegato della OpenAi, che in quel momento era molto in vista perché aveva appena lanciato ChatGpt

Si fa molta fatica a fare ordine quando l’ecosistema dell’informazione viene invaso da dichiarazioni simili. Come si fa a dare torto a premi Nobel, docenti, royal family, cantanti pop e imprenditori che sviluppano ia? Chi oserebbe?

Il problema, però. è che qui siamo di fronte a un’operazione che inquina profondamente la conversazione. E non solo quella sulle intelligenze artificiali.

Prima di tutto, non abbiamo davvero idea di cosa si intenda per “sviluppare superintelligenze” e questo stesso concetto è messo in dubbio da ricercatori di tutto il mondo, anche se è molto in voga presso i reparti marketing delle aziende di ia per attirare investitori. Nel glossario di Artificiale c’è una definizione critica di questo termine.

In secondo luogo, anche se ci fosse consenso scientifico sul concetto di superintelligenza e si decidesse di vietarla, non è chiaro come questo divieto si possa mettere in pratica, se non accettando di paragonare le intelligenze artificiali alla bomba atomica e mettendo a sedere allo stesso tavolo tutti gli stati del mondo che dovrebbero prendersi questo impegno.

Il rischio di estinzione dell’umanirà a causa delle ia è clamorosamente sovrarappresentato rispetto, per esempio, al rischio legato alla crisi climatica o ai danni che guerre e genocidi fanno nel presente e non nel futuro. È un atteggiamento lungotermista (in effetti, entrambe le petizioni, quella del 2023 e quella del 2025, sono state promosse da un ambiguo istituto che si chiama Future of life).

Poi, il fatto che fra chi diffonde queste ondate di petizioni, panico e moralizzazione ci siano anche persone che hanno fortissimi interessi nello sviluppo delle ia è quantomeno sospetto, visto che potrebbero tranquillamente, con le loro aziende, proseguire nella ricerca e nello sviluppo anche in presenza di un divieto.

Inoltre, questo tipo di allarme che sembra concentrarsi solo sulle presunte conseguenze a lungo termine di un ipotetico sviluppo tecnologico al momento imprevedibile, e altamente improbabile, perde completamente di vista i problemi dell’oggi, che non bisogna stancarsi di ribadire e che vanno affrontati: intelligenze artificiali già incorporate nelle armi, usate per il controllo sociale, inserite in strumenti di uso massivo senza tanti complimenti e senza che le persone ne siano consapevoli; intelligenze artificiali usate per prendere decisioni sull’accesso al credito o su temi legati alla pubblica amministrazione in maniera non trasparente e socialmente inavvertibile; strumenti costosissimi con varie barriere all’accesso (economiche, culturali, materiali); ristrettissimo oligopolio privato della produzione, della ricerca e dello sviluppo di questi strumenti.

E per finire, gli allarmi distruggono tutto ciò che di buono questi strumenti, con le loro funzioni abilitanti e di assistenza, possono già fare oggi, non in un futuro ipotetico e distopico.

Cos’hanno in comune Steve Bannon, Kate Bush, Steve Woznikak, il principe Harry, la duchessa Meghan, Geoffrey Hinton e Paolo Benanti? Per quanto alcuni di loro siano probabilmente animati dalle migliori intenzioni, contribuiscono a fare un sacco di confusione sulle intelligenze artificiali.

Questo articolo è tratto dalla newsletter Artificiale.

Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti
Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it