“In futuro non dovremo mai più essere lenti come ora”, ha avvertito il segretario generale delle Nazioni Unite António Guterres parlando dell’urgenza di regolare l’uso dell’intelligenza artificiale (ia). La velocità del progresso tecnologico (e delle turbolenze geopolitiche) sta cancellando la distinzione tra la teoria e gli eventi. Lo scontro politico in corso negli Stati Uniti sulle capacità militari legate all’ia coincide con il suo uso senza precedenti nella guerra contro l’Iran.
L’azienda d’intelligenza artificiale Anthropic ha ribadito di non poter rimuovere le misure di sicurezza che impediscono al dipartimento della difesa statunitense di usare la sua tecnologia per la sorveglianza di massa o per le armi letali autonome. Il Pentagono ha dichiarato che la decisione non spetta alle aziende private. L’amministrazione Trump non solo ha cancellato il contratto con la Anthropic, ma l’ha inserita nella lista nera dei rischi per le catene di approvvigionamento.
Come ha sottolineato Nicole van Rooijen dell’organizzazione Stop killer robots, che si batte per mantenere l’uso della forza sotto il controllo esclusivo degli esseri umani, “il problema non è se un giorno useremo le armi autonome, ma il fatto che i sistemi attuali stiano già trasformando il modo in cui si combatte. Il controllo umano rischia di diventare una formalità”. Oggi l’ia è capace di identificare i bersagli, stabilire l’ordine di priorità, raccomandare le armi più efficaci e valutare le basi giuridiche per un attacco. Ma le uccisioni di civili, gli errori militari e l’impunità non dipendono dall’uso dell’ia. Sono esseri umani quelli che al Pentagono evitano le domande sulle 165 bambine iraniane uccise in una scuola da un missile statunitense il 28 febbraio. La tecnologia però facilita gli omicidi di massa con un ulteriore distanziamento morale ed emotivo dalle tragedie e una ridotta possibilità di individuare i responsabili.
Invece di lasciare le decisioni agli imprenditori o ai ministri, è essenziale mantenere il controllo democratico e i vincoli multilaterali. Mentre le bombe piovevano sull’Iran, alcuni governi a Ginevra discutevano delle armi autonome letali. La bozza di testo che hanno esaminato potrebbe essere una base solida per un trattato assolutamente necessario. Come gli esperti di tecnologia e i militari stanno già capendo, i pericoli di uno sviluppo incontrollato delle armi autonome sono spaventosi. ◆ as
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it
Questo articolo è uscito sul numero 1656 di Internazionale, a pagina 17. Compra questo numero | Abbonati