Il 2 agosto 2025 sono entrati in vigore, in tutta l’Unione europea, vari obblighi per i produttori dei modelli di intelligenze artificiali per scopi generali, in inglese general-purpose artificial intelligence (gpai) come ChatGpt, Gemini, Claude, Meta Ai, Grok. È una delle tappe fondamentali dell’applicazione dell’Ai act, il regolamento europeo per le intelligenze artificiali.
Nelle pieghe di queste imposizioni ci sono tutte le ambiguità del caso: la trasparenza richiesta non è completa, i produttori non sono tenuti a rendere semplicemente pubblico l’intero dataset di addestramento, né si chiede visibilità totale sul funzionamento del modello. Anche l’individuazione di eventuali contenuti protetti è un grosso punto interrogativo. Tra le righe di queste ambiguità si possono leggere, verosimilmente, tutti i compromessi che hanno portato alla stesura del regolamento e che non dovevano scontentare troppo le grandi aziende statunitensi pur mantenendo ferma la volontà regolatoria delle istituzioni europee.
L’Unione europea, nonostante le previsioni dei più scettici, ha incassato parecchie firme importanti del codice di buone pratiche integrato nell’Ai Act. È un insieme di raccomandazioni che i produttori di intelligenze artificiali si impegnano volontariamente a rispettare. Hanno dato la propria adesione: la OpenAi, la Anthropic, la Microsoft e Google fra le statunitensi e l’europea Mistral. Per il momento il codice è stato rifiutato dalla Meta, mentre Grok, l’intelligenza artificiale di Elon Musk “è la solita scatola nera”, scrive il giornalista Luca Bertuzzi. Che poi commenta: “In un contesto geopolitico teso, garantire un ampio allineamento del settore, soprattutto da parte dei giganti statunitensi, non è un’impresa da poco. È il segnale di una volontà condivisa di confrontarsi con le ambizioni normative dell’Unione europea piuttosto che sfidarle. Tuttavia, restano degli interrogativi. Tutti i firmatari si sono impegnati a rispettare ogni capitolo o alcuni si sono ritirati silenziosamente dalle disposizioni chiave? Quale posizione adotteranno i principali sviluppatori cinesi di ia, come DeepSeek e Tencent?”. Probabilmente in questi giorni avremo una maggior chiarezza in merito.
Sempre entro il 2 agosto 2025 gli stati membri dell’Unione europea dovevano indicare le proprie autorità di controllo previste dall’Ai Act.
La market surveillance authority (autorità di sorveglianza del mercato) è responsabile del controllo dei prodotti di intelligenza artificiale immessi sul mercato europeo. Basandosi su quanto previsto dal regolamento europeo già esistente, questa autorità verifica che vengano distribuiti solo sistemi di ia conformi alla normativa europea. La notifying authority (autorità di notifica), invece ha il compito di designare e supervisionare gli organismi che certificano la conformità dei prodotti di ia (conformity assessment bodies): sono enti indipendenti che effettuano controlli tecnici, test e ispezioni per certificare che i sistemi di ia soddisfino le regole europee. La notifying authority, dunque, deve garantire che gli organismi di certificazione siano competenti e imparziali. Queste due autorità nazionali devono operare in maniera autonoma e imparziale, senza conflitti di interessi, e avere risorse tecniche, umane e finanziarie sufficienti per svolgere i propri compiti.
Infine, ciascun paese europeo deve individuare una national public authority (autorità pubblica nazionale) incaricata di tutelare i diritti fondamentali in relazione ai sistemi di intelligenza artificiale ad alto rischio (cioè quelli che possono avere conseguenze dirette sui diritti fondamentali della cittadinanza).
La situazione non è ancora ben definita. Solo tre stati (Malta, la Lituania e il Lussemburgo) hanno già stabilito con chiarezza tutte le autorità nazionali che avranno competenza sulle ia nei loro territori. L’Italia e l’Ungheria, invece, sono gli unici due stati che non hanno ancora definito nemmeno l’autorità nazionale di protezione dei diritti fondamentali. Nel nostro paese c’è ancora in ballo la discussione del disegno legge: il 30 luglio 2025 le commissioni competenti hanno finito l’esame del testo modificato dalla camera, ma non ci sono i tempi tecnici per rispettare la scadenza.
Questo testo è tratto dalla newsletter Artificiale.
Iscriviti a Artificiale |
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Iscriviti a Artificiale
|
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it