Delle macchine non ci si può fidare, ma non è colpa loro. Nel dibattito sull’intelligenza artificiale sono gli esseri umani a decidere oggi se domani ci saranno problemi con i software che imparano e agiscono da soli. Le autorità di polizia e sicurezza vogliono tecnologie in grado di individuare i sospetti. Gli imprenditori vogliono delegare alle macchine seccature come parlare con clienti arrabbiati o vagliare le candidature per le offerte di lavoro. Altre aziende vogliono vendere la tecnologia necessaria agli imprenditori: l’etichetta “intelligenza artificiale” è ancora più efficace di quella “blockchain” per rifilare software mediocri. A molte di queste aziende non interessa se alla fine qualcuno sarà penalizzato perché un algoritmo è stato scritto male o la banca dati da cui ha imparato discrimina alcuni gruppi di persone.

In questo contesto, la Commissione europea ha presentato la sua proposta di regolamento sull’intelligenza artificiale. La bozza porta la firma dei commissari Margrethe Vestager e Thierry Breton e punta a definire il rapporto tra esseri umani e macchine a favore dei primi. L’intelligenza artificiale è un tipo di supertecnologia che nei prossimi decenni determinerà in modo invisibile molti aspetti della nostra vita. Spesso nemmeno gli esperti riescono a capire cos’ha imparato una macchina e come. Una società caratterizzata dall’automation bias, un’eccessiva fiducia nelle macchine, sembra sempre più probabile.

Vestager e Breton hanno giustamente messo al centro la questione della fiducia. Le multe previste per chi viola le regole sono così alte da scoraggiare anche le multinazionali, e l’idea di stabilire diverse classi di rischio appare sensata: molte applicazioni sono innocue, per esempio i filtri antispam della posta elettronica.

Le cose si fanno più complicate quando si tratta di stabilire i criteri in base ai quali le persone ricevono sussidi e decidere se i cittadini possono muoversi liberamente senza che lo stato sappia sempre dove si trovano. La proposta di Breton e Vestager è stata annacquata prima ancora di essere sottoposta al parlamento europeo e agli stati dell’Unione. Le agenzie di sicurezza sono già riuscite a facilitare l’applicazione di tecnologie di sorveglianza come il riconoscimento facciale alle telecamere nei luoghi pubblici per prevenire il terrorismo o trovare bambini scomparsi. La bozza di regolamento dimostra che a volte l’Unione europea è in grado di mettere da parte le considerazioni commerciali e geostrategiche e chiedersi seriamente cosa è meglio per i cittadini. Ma non è ancora il momento di festeggiare: ora la Commissione deve impedire che le lobby diluiscano le regole e portare le sue idee al livello successivo, quello globale.

Da sapere
Un piano ambizioso

◆ Il 21 aprile 2021 la **Commissione europea **ha presentato una proposta di regolamento sull’intelligenza artificiale. L’obiettivo è vietare i sistemi che costituiscono “una minaccia per la sicurezza, i redditi e i diritti dei cittadini”. La proposta prevede multe fino al 6 per cento del fatturato per le aziende che violeranno le norme. Se sarà approvato dal parlamento europeo e dal consiglio, il regolamento non si applicherà solo ai sistemi sviluppati in Europa, ma a tutti quelli disponibili negli stati dell’Unione.


Perché la vera partita è quella che si gioca tra le superpotenze dell’intelligenza artificiale, gli Stati Uniti e la Cina. I cinesi hanno recentemente preso il comando nell’importante categoria delle citazioni nelle riviste scientifiche, mentre il presidente statunitense Joe Biden ha appena ricevuto un rapporto di 756 pagine su come recuperare il vantaggio tecnologico cinese. L’Unione dovrebbe formulare le sue norme in modo abbastanza sensato e comprensibile perché almeno Washington le prenda a modello, e la svolta europeista dell’amministrazione Biden rappresenta un’opportunità. Avere un contrappeso alle pressioni delle potenze dell’intelligenza artificiale come Facebook, Google e Microsoft nel loro stesso paese può essere utile per dare forma al lato invisibile del futuro. ◆ mp

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1407 di Internazionale, a pagina 26. Compra questo numero | Abbonati