L’8 maggio 2025, la professoressa Kate Crawford è stata ospite a Venezia del centro digitale ARCHiVe della Fondazione Giorgio Cini. Crawford è una studiosa delle intelligenze artificiali ed è l’autrice di un libro che è già un classico sul tema. Il titolo originale del libro è Atlas of AI. Power, politics and the planetary costs of artificial intelligence (letteralmente: “Atlante dell’ia. Potere, politica e i costi planetari dell’intelligenza artificiale”). In italiano il titolo è stato trasformato in Né intelligente né artificiale. Il lato oscuro dell’ia (Il Mulino, 2021).
Per quanto efficace e a effetto, la versione italiana sacrifica la complessità del progetto di Crawford e in qualche modo tradisce un po’ il senso del suo lavoro, che parla dell’intersezione fra tecnologia e potere e non è certo una critica all’ia fine a sé stessa. Insieme all’artista Vladan Joler, Crawford ha presentato a Venezia Calculating empires, una genealogia di questa intersezione dal cinquecento a oggi. Chi non può vederla dal vivo ha la possibilità di navigare in questa mappa sul sito ufficiale.
Ed è proprio questa intersezione fra tecnologia e potere il cuore del lavoro di Crawford. Ho avuto la possibilità di chiacchierare un po’ con lei di questo. “Insieme a Joler”, dice Crawford, “abbiamo sviluppato una metodologia per mappare l’intelligenza artificiale su scala planetaria e tracciarne l’impatto materiale, sociale e politico”. Questo tracciamento ha anche una dimensione meno artistica: si chiama Knowing machines.
“È un laboratorio di ricerca, internazionale e multidisciplinare. Abbiamo ricercatrici e ricercatori dagli Stati Uniti, dall’Europa e dall’Australia. Stiamo cercando di capire”, spiega Crawford, “in che modo i sistemi di intelligenza artificiale ricostruiscono il nostro modo di conoscere: noi stessi, le altre persone e il mondo in cui viviamo. È un lavoro epistemologico: cerchiamo di comprendere i sistemi di conoscenza che queste tecnologie producono, e come li stanno ridefinendo attraverso infrastrutture enormi”.
Per farlo, serve un approccio multidisciplinare, anzi – come suggerisce Crawford – quasi post-disciplinare. “Abbiamo gruppi di lavoro molto diversi tra loro, che portano metodologie diverse. Da chi lavora sul machine learning, indagando i dataset alla base dei modelli generativi, a chi studia lo strato algoritmico e quello infrastrutturale. Ma ci sono anche avvocate e avvocati che si occupano delle cause legate alla proprietà intellettuale, storiche e storici della tecnologia che analizzano le radici di questi sistemi, e giornaliste e giornalisti investigativi che contribuiscono a far luce sui meccanismi opachi di funzionamento dell’ia”.
Tra loro anche Christo Busche, vincitore del premio Pulitzer. “Con lui”, racconta Crawford, “abbiamo anche realizzato guide e studi pensati per chi vuole imparare a studiare i sistemi di intelligenza artificiale su larga scala”.
La ricchezza del progetto sta proprio in questa alleanza tra mondi apparentemente distanti. “È un lavoro radicalmente interdisciplinare, dove le competenze di chi si occupa di machine learning si intrecciano con quelle delle scienze umane, del giornalismo e dell’arte. È anche questo che rende il progetto potente e diverso”.
Ma quanto incide la presenza di pochissimi attori che esercitano un monopolio sullo sviluppo di queste tecnologie? “Abbiamo visto alcuni dei più potenti leader del mondo tecnologico all’insediamento di Trump. Elon Musk ha avuto un accesso straordinario alle leve di governo negli ultimi tre mesi senza alcun mandato elettorale. Non è solo una questione di potere tecnologico, ma proprio di concentrazione del potere, che non abbiamo mai visto prima a questo livello. Oggi, nel campo delle ia, c’è una divisione fra gli accelerazionisti che vogliono espansione pura, più soldi e consumo energetico, più controllo privato e nessuna regola e chi, invece, vuole sostenibilità, regole, sicurezza e attenzione all’interesse pubblico”.
In Europa stiamo aspettando di vedere se il piano di finanziamenti privati e – molto parzialmente – pubblici promesso all’Artificial intelligence action summit si concretizzerà. “Penso sia molto pericoloso”, dice Crawford, “andare verso un duopolio degli Stati Uniti e della Cina. Ma allo stesso tempo, oltre a pensare a una sorta di sovranità tecnologica, è importante occuparci di come rendere questi sistemi più sostenibili. Le ia sono già nella vita di tutti i giorni, anche in quella di chi non usa le ia generative. È già nei nostri telefoni, c’è tutte le volte che cerchi su internet, se usi Google ottieni indicazioni dell’ia”.
Ma allora ha ragione chi sostiene che dovremmo boicottare questi strumenti? “Non credo che le persone possano individualmente rimuovere le ia dalle loro vite. Abbiamo bisogno di essere più realisti. Ok, questi strumenti sono molto utili per la ricerca medica e la ricerca sul cambiamento climatico, ma davvero dovrebbero essere coinvolti in ogni singola azione che facciamo online? Devono davvero essere presenti in tutte le piattaforme? Credo che di questo avremo bisogno nei prossimi anni: occuparci dell’uso delle ia dove sono veramente utili. Ci sono tanti aspetti da affrontare: i pregiudizi nei dataset, la tracciabilità dei dati usati per l’addestramento, la sostenibilità ambientale. Uno dei miei studi recenti riguarda proprio il paradosso della generatività e i suoi costi. Ma già nel libro Né intelligente né artificiale ho provato a mostrare come l’ia sia fondata su tre sistemi estrattivi: dati, lavoro e risorse. E sono questi i nodi da affrontare”.
È anche il senso profondo di Calculating empires: una mappa lunga 24 metri che attraversa secoli di storia per mostrare come il potere abbia sempre usato la tecnologia per rafforzarsi e centralizzare. “Il mio grande obiettivo con questo lavoro”, dice Crawford, “è far capire che non stiamo vivendo qualcosa di completamente nuovo. Le tecnologie finiscono regolarmente nelle mani di pochi che le usano per accrescere il proprio potere. Ma anche questi imperi, prima o poi, cadono”.
E allora, cosa possiamo fare, qui e ora? “Credo che oggi sia urgente introdurre dei meccanismi più forti: limiti chiari, più partecipazione pubblica, più trasparenza. Per evitare che l’ia diventi uno strumento nelle mani di dieci persone nel mondo. Sarebbe una deriva inquietante per qualsiasi democrazia. Se vogliamo che l’ia operi davvero nell’interesse pubblico, dobbiamo agire adesso”.
Questo testo è tratto dalla newsletter Artificiale.
Iscriviti a Artificiale |
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Iscriviti a Artificiale
|
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it