Il giornalista Andrea Daniele Signorelli mi ha proposto di fare una chiacchierata per Crash, il podcast in cui si occupa di nuove tecnologie digitali e delle conseguenze che hanno sulle nostre vite. Il tema che mi ha proposto è complesso e Signorelli lo riassume così: “È giusto che le grandi aziende tecnologiche si approprino gratuitamente (ma a fini di lucro) dei contenuti generati dall’essere umano per addestrare i loro large language model? È uno sfruttamento da combattere per ottenere un equo compenso o questa battaglia rischia di essere un rimedio peggiore del male? E se così fosse, quale può essere il rimedio definitivo, in grado di proteggerci dallo sfruttamento senza bloccare le intelligenze artificiali?”.
Rispondere a queste domande è un compito davvero arduo perché entrano in gioco idee politiche e posizioni personali nei confronti delle tecnologie e dei loro produttori; si rischia di fare troppe semplificazioni, di perdere l’orientamento, di applicare giudizi diversi a situazioni simili o di trovare similitudini dove non ce ne sono.
Nel dibattito pubblico sulle intelligenze artificiali si tende anche a estremizzare. Da una parte c’è chi grida al furto sistematico e vorrebbe bloccare tutto. Dall’altra c’è chi crede che ogni forma di resistenza alle nuove tecnologie sia una forma di luddismo retrogrado. Eppure, in mezzo, esiste una posizione più ragionata, che rifiuta tanto l’estrazione predatoria quanto la chiusura totale. In questa posizione, che provo a rappresentare, l’addestramento delle intelligenze artificiali su opere dell’ingegno umano non è di per sé un problema.
Anzi, può essere uno strumento fondamentale per la costruzione di tecnologie utili, inclusive, aperte. Il principio del fair use – l’uso equo di opere per scopi trasformativi e non distruttivi – può e deve essere alla base di un ecosistema di intelligenze artificiali al servizio del pubblico. Il problema, se mai, sorge quando l’addestramento diventa estrazione di valore per il profitto di pochi soggetti. Cioè, quando libri, articoli, immagini, video vengono rastrellati in massa per addestrare modelli chiusi, proprietari, messi poi sul mercato come prodotti esclusivi e con la promessa di rivoluzionare il mondo, ma nel frattempo fanno incassare dividendi miliardari a pochi azionisti restituendo benefici solo a chi può permettersi di usare i modelli a pagamento più costosi.
Per molti la soluzione è il copyright. Ma chi lavora nel mondo dei media sa bene che il copyright non garantisce affatto una distribuzione equa della ricchezza: spesso tutela più gli intermediari che gli autori. E in molti casi è stato usato per costruire recinti intorno alla conoscenza. La pirateria dei contenuti è una pratica stigmatizzata, paragonata al furto: in un vecchio spot che si trovava all’inizio di ogni dvd venduto in Italia si diceva chiaramente che “scaricare film piratati da internet è come rubare”. Sembra un’obiezione logica, ma allo stesso tempo l’accesso a pagamento alla cultura è un problema, una barriera che amplifica le disuguaglianze. Signorelli e io, pur partendo da posizioni opposte sull’addestramento delle ia, la vediamo allo stesso modo sulla pirateria, che difendiamo pur sapendo di trovarci in una posizione minoritaria.
Ma qui siamo di fronte a una pirateria diversa, perché viene fatta da grandi aziende – le pochissime che si possono permettere di sviluppare e addestrare ia – nei confronti di dati prodotti dagli umani tutti. Come la mettiamo, allora?
Credo che in generale ci sia un primo errore nell’equiparare l’opera dell’ingegno a un dato: quando scrivo qualcosa lo faccio perché sia letto quanto più possibile, non perché rimanga confinato dentro a un recinto. Lo dico consapevole di scriverlo per una newsletter riservata agli abbonati e alle abbonate di Internazionale: è una delle tante contraddizioni dei nostri tempi e di una società con un’economia di mercato. Il secondo errore è fare battaglie corporative per un equo compenso a categorie chiuse come i musicisti o gli illustratori o gli scrittori. Queste battaglie finiranno per alimentare sistemi piramidali in cui chi sta al vertice guadagna moltissimo a scapito di tutti gli altri.
E poi, perché dovrebbero essere compensati i musicisti e non – per esempio – i camionisti, che guidando forniscono dati utili a migliorare gli algoritmi dei navigatori gps? Perché non chiunque abbia pubblicato una foto o un video su Instagram?
Infine, se addestriamo le intelligenze artificiali con piccole porzioni della produzione umana ci saranno per forza di cose posizioni non rappresentate nei dataset; se non le addestriamo con il meglio di quel che sappiamo fare finiremo per avere tecnologie che funzionano peggio; se lasciamo che tutto sia regolato da accordi economici finirà che pochissimi si potranno permettere i modelli migliori, continuando a replicare e amplificare disuguaglianze.
Insomma, se allarghiamo il raggio dell’osservazione uscendo dal caso particolare e puntuale, alla ricerca di soluzioni generali, ci rendiamo presto conto che il problema non è circoscrivibile a chi lavora con l’ingegno e non si risolve con il copyright. Allora come si fa?
Signorelli e io partiamo da due posizioni radicalmente diverse sull’addestramento delle ia, ma alla fine arriviamo a convergere sulle questioni che sono molto più importanti: ripensare radicalmente i modelli di distribuzione della conoscenza e dell’informazione, immaginare soluzioni come il reddito di base universale, arricchire il dibattito pubblico sugli usi davvero desiderabili delle ia e su quali, invece, andrebbero evitati, uscire dagli schemi di quello che si è sempre fatto sembra un approccio più sensato al problema.
La questione è profonda e più politica. Il punto non è impedire che le ia siano addestrate ma garantire che ciò avvenga in modo equo, trasparente, redistributivo. Diversamente, il rischio è che i grandi modelli linguistici – prodotti da poche aziende statunitensi o cinesi – diventino i nuovi recinti della conoscenza, una nuova forma di di privatizzazione del sapere che passa attraverso contratti di licenze d’uso, brevetti, hardware costosi e dunque grande disponibilità economica.
Questo testo è tratto dalla newsletter Artificiale.
Iscriviti a Artificiale |
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Iscriviti a Artificiale
|
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it