14 aprile 2024 09:01

Margrethe Vestager è la commissaria europea per la concorrenza dal 2014 e, dal 2023, la commissaria europea ad interim per l’innovazione e la ricerca. Il 9 aprile 2024 era all’Institute for advanced study di Princeton, in New Jersey. L’istituto è stato diretto, fra gli altri, anche da Julius Robert Oppenheimer, considerato il padre della bomba atomica. In una sala del Fuld hall, l’edificio principale dell’istituto, Vestager ha tenuto un lungo discorso sulle nuove tecnologie che si può leggere integralmente sul sito ufficiale della commissione europea.

La prima parte del discorso era dedicata alle piattaforme digitali e alla necessità di regolamentarle: “Sia offline sia online, la paura e l’avidità portano aziende grandi e potenti a desiderare più potere”, ha detto la commissaria. “Con il tempo, le grandi piattaforme digitali hanno superato il loro ruolo di semplici intermediari che collegano domanda e offerta. Hanno iniziato a fornire i propri servizi sulle piattaforme che controllano. Sono diventati il giocatore e l’arbitro”.

È la concentrazione del potere che si ripercuote anche sul mondo delle intelligenze artificiali, visto che le aziende che se ne occupano sono le medesime.

Ma proprio su questo tema, nella seconda parte del discorso, si possono trovare alcuni contenuti sorprendenti, anche se allineati con un certo modo di raccontare le ia. “Proprio come al tempo di Oppenheimer”, ha detto Vestager, “ci stiamo confrontando con quello che i ricercatori delle ia chiamano problema di allineamento: quando la tecnologia ha il potere di servirci e distruggerci, come possiamo incanalare il suo sviluppo? Come possiamo garantire che questa tecnologia rifletta le società che vogliamo avere, invece di amplificare i difetti e le ingiustizie di quelle che già abbiamo?”.

Se l’importanza di evitare l’amplificazione di ingiustizie è più che condivisibile, il rischio esistenziale della distruzione lascia perplessi perché si tratta di uno scenario altamente speculativo. Perché accada bisognerebbe creare una superintelligenza, far sì che questa intelligenza sia disallineata agli obiettivi di sopravvivenza dell’umanità, darle autonomia e controllo; inoltre questa ipotetica superintelligenza dovrebbe per forza essere malevola, desiderare eliminarci e raggiungere l’autonomia fisica per farlo. E poi, farlo.

Neanche quando si parla di crisi climatica i discorsi ufficiali sottolineano così spesso che è a rischio l’esistenza stessa dell’umanità. E forse dovrebbero dire esplicitamente che il problema delle intelligenze artificiali è rappresentato semmai dall’uso che ne facciamo, ad esempio per scopi bellici, come a Gaza. Mettere in guardia dagli sviluppi incontrollati delle ia insistendo sul “rischio esistenziale” è purtroppo un’argomentazione che può far perdere forza alle altre, anziché rafforzarle. Certo, serve a fare dei titoli a effetto, rimane impressa. Ma soffoca la complessità. E invece il discorso di Vestager è molto più complesso. Ha parlato anche dei rischi insiti nella possibilità che le macchine decidano, per volontà umana, “se tu possa o meno ottenere un mutuo, accedere all’università, ricevere cure mediche adeguate a te”.

“Abbiamo visto intelligenze artificiali sviluppate e utilizzate per la sorveglianza di massa”, ha aggiunto, “per i sistemi di credito sociale, per opprimere le minoranze, per censurare e controllare le informazioni. Siamo di fronte all’avvento della polizia predittiva basata sull’intelligenza artificiale: gli esseri umani verrebbero presi di mira non per ciò che hanno fatto, ma per ciò che un algoritmo riterrà che probabilmente faranno”.

“Questa non è una nuova arma, è un nuovo mondo”, ha detto ancora Vestager citando una frase che viene attribuita a Niels Bohr nel film su Oppenheimer: è un bel colpo ad effetto, soprattutto nell’istituto diretto dallo scienziato.

Il paragone fra il nucleare e le intelligenze artificiali è sicuramente efficace e probabilmente funziona per veicolare il messaggio dei rischi che vanno presi in considerazione, che poi è l’obiettivo della terza parte del discorso: incanalare le decisioni politiche globali da prendere per far diventare queste macchine “una formidabile fonte di progresso umano”.

Ma l’allarme per il rischio esistenziale è pericolosamente allineato proprio alle visioni degli imprenditori della Silicon Valley che, mentre sviluppano le tecnologie, lo sventolano come spauracchio, firmano petizioni, chiedono moratorie (magari per scopi di marketing, per continuare ricerca e sviluppo in maniera poco trasparente, per avvantaggiarsi o anche perché ci credono davvero).

È vero che questo è un mondo nuovo, ma le intelligenze artificiali non sono armi e non hanno una voglia matta di distruggerci: se mai sono gli esseri umani a usarle per fare la guerra o per fare più profitto.

Questo testo è tratto dalla newsletter Artificiale.

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it