Alla fine di giugno del 2025 ci sono state due importanti svolte in altrettante cause contro aziende che producono intelligenze artificiali.
Come spiega l’avvocata Laura Turini, in entrambi i casi si tratta di decisioni provvisorie, “ma questo non riduce l’importanza” delle loro affermazioni su quanto sia lecito usare dei dati protetti dal diritto d’autore per addestrare delle macchine.
In particolare, il 23 giugno 2025 un giudice federale di San Francisco ha scritto che l’uso di libri coperti da copyright per addestrare un’intelligenza artificiale non viola le leggi sul diritto d’autore in vigore negli Stati Uniti.
La decisione fa parte del procedimento che riguarda la causa di un gruppo di autori contro la Anthropic, azienda che produce il modello linguistico Claude. Nella sua difesa, la Anthropic si era appellata al fair use, che considera lecito, spiega ancora Turini, “usare materiale protetto da copyright, senza chiedere il consenso ai titolari dei diritti, quando ricorrono alcuni presupposti”. I presupposti sono: l’eventuale uso trasformativo della copia (cioè per produrre qualcosa di diverso o originale), la natura dell’opera copiata, la quantità di materiale copiato, l’impatto della copia sul mercato.
Il giudice William Alsup ha scritto che “come ogni lettore che aspira a diventare scrittore, i large language model della Anthropic si sono formati su opere non per anticiparle, replicarle o soppiantarle, ma per superare una difficoltà e creare qualcosa di diverso”. Queste copie, sostiene quindi il giudice, sono state usate “in un contesto trasformativo”.
La seconda sentenza, invece, riguarda la Meta. Anche in questo caso, il giudice che si occupa del caso, Vincent Chhabria, ha scritto che l’addestramento delle ia rientra nella dottrina del fair use.
Tuttavia, a differenza del collega che sembra parteggiare, in generale, per chi produce intelligenze artificiali, Chhabria ha dato ragione alla Meta quasi con dispiacere. Infatti, questo giudice “sostiene con forza”, scrive ancora Turini, “che l’intelligenza artificiale generativa può danneggiare gravemente il mercato producendo libri di qualità inferiore, ma comunque tali da potere sostituire una gran parte della produzione letteraria e non è giusto offrirgli il vantaggio di imparare gratuitamente dai libri scritti da autori famosi”.
La questione più importante, però, ai fini delle cause, è un’altra. E cioè: come hanno fatto, la Meta e la Anthropic a ottenere il materiale con cui hanno addestrato i loro strumenti? Su questo, sia Chhabria sia Alsup sono d’accordo: se si dimostrerà che qualche azienda ha usato materiale piratato, allora saremo di fronte a un illecito.
Che cosa significa questo, per chi è fuori dalle dinamiche legali? Tanto per cominciare significa che si sta facendo strada l’idea che un addestramento di una macchina non è poi tanto diverso dall’addestramento di un essere umano. Che se vogliamo strumenti migliori, questi strumenti devono essere addestrati con il meglio di quello che produciamo. Che imparare e poi creare qualcosa di nuovo non equivale a copiare.
Questo non cancella il problema degli atteggiamenti predatori delle grandi aziende della Silicon valley, e non cancella nemmeno il problema della sovrapproduzione dei contenuti e della fine che faranno ampi settori del mercato del lavoro creativo (e non solo) quando l’introduzione di questi strumenti avverrà in maniera eclatante.
È proprio di questo che dovremmo iniziare a occuparci molto seriamente. Le cause, comunque, sono appena cominciate, riguardano il mercato statunitense e faranno il bene di chi le vincerà: difficilmente si tradurranno in un bene comune. Nel frattempo, lo sviluppo tecnologico prosegue velocemente.
Questo testo è tratto dalla newsletter Artificiale.
Iscriviti a Artificiale |
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Iscriviti a Artificiale
|
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it