Come si fa a vietare le interferenze nel dibattito democratico? Cosa vuol dire, esattamente, e perché c’entra con le intelligenze artificiali?

Non sono domande da filosofia del diritto né speculazioni teoriche. L’articolo 3 del disegno di legge sulle ia approvato dalla camera dei deputati ci costringe a ragionare su questi temi. Al comma 4, infatti, il ddl dice che l’uso delle ia non deve “pregiudicare la libertà del dibattito democratico da interferenze illecite, da chiunque provocate, tutelando gli interessi della sovranità dello Stato nonché i diritti fondamentali di ogni cittadino riconosciuti dagli ordinamenti nazionale ed europeo”.

È un principio apparentemente sacrosanto. Ma come si applica, esattamente? Come si misura? Chi lo valuta? Con quali strumenti e con quali sanzioni? E perché è inserito in una legge che riguarda una tecnologia?

La vaghezza con cui vengono usate queste parole ricorda molto da vicino quel che è successo negli ultimi anni con il cosiddetto contrasto alla disinformazione e con la lotta alle cosiddette fake news. L’etichetta fake news si è rivelata molto infelice: è stata usata a sproposito da chiunque volesse zittire critiche o inchieste o affermazioni sgradite. Nel 2015 avevo proposto di non chiamarle più fake news, con poco successo. Ora ci risiamo.

Il disegno di legge sull’intelligenza artificiale approvato dalla camera a fine giugno del 2025, comunque, è stato modificato rispetto al testo originale che aveva superato il voto in senato. Quindi, prima che venga trasformato definitivamente in legge, è richiesto un nuovo passaggio al senato dopo il lavoro delle commissioni. L’iter si può seguire sul sito ufficiale del senato.

Il concetto di sovranità tecnologica, che sembrava essere un principio irrinunciabile, è quasi scomparso. In un primo momento, infatti, il testo imponeva che le intelligenze artificiali usate dalla pubblica amministrazione si basassero su server installati sul territorio nazionale. La camera ha eliminato questa clausola, consentendo l’uso di sistemi esteri se conformi al regolamento europeo sulla privacy. Non sappiamo se sia stata un’operazione di realismo e concretezza o un favore alle grandi aziende che sviluppano questi sistemi.

Con il nuovo testo viene anche introdotto un comitato interministeriale coordinato dalla presidenza del consiglio dei ministri. Nonostante l’elenco puntuale dei ministri coinvolti, non c’è uno schema chiaro di attribuzione delle competenze. Anzi, questo schema, così come tutte le decisioni da prendere in concreto – alcuni esempi: la trasparenza algoritmica, la qualità dei dati, la promozione della ricerca – viene lasciato interamente al governo. L’esecutivo, infatti, dovrà scrivere il suo regolamento entro dodici mesi dall’approvazione della legge, e potrà farlo con una delega molto ampia e potenzialmente opaca, non sottoposta a dibattito parlamentare.

In generale, il ddl si presenta come un compendio di buoni propositi. Parla di tutela della democrazia, protezione dei dati, diritti fondamentali, sostenibilità ambientale, centralità della persona: tutto condivisibile, ma anche tutto sospeso a mezz’aria. I princìpi enunciati, infatti, non sono accompagnati da definizioni operative o da criteri certi.

Prendiamo proprio il caso dell’interferenza democratica. Quali sono, esattamente, i comportamenti vietati? Chi decide se un chatbot ha “pregiudicato il dibattito”? E in base a quali dati? Chi verrà ritenuto responsabile e di cosa? Senza indicazioni tecniche e giuridiche, si rischia che il principio resti simbolico o, peggio, che venga usato in modo discrezionale, magari per mettere a tacere voci sgradite.

Anche se ha i connotati del manifesto, più che della legge, questo ddl, una volta convertito, entrerà definitivamente nel corpus giuridico e potrà essere applicato con una discrezionalità preoccupante, avendo ampi margini di interpretazione.

Rimangono, poi, le questioni che avevamo già visto commentando la prima bozza del ddl, come, per esempio, il fatto che l’uso di “sistemi di intelligenza artificiale nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera”. Una tautologia, visto che le ia sono strumenti e si impone di usarli come strumenti. Ma anche un altro comma di legge molto vago: come si fa a dimostrare la prevalenza del lavoro intellettuale? Con quali strumenti, con quale carico burocratico? Il mio assistente ia che mi aiuta a fare le bozze di questa newsletter e che poi le controlla è conforme a questa legge? O devo rinunciarci?

In un contesto in cui l’ia è già parte integrante della vita pubblica e privata, affidarsi solo a promesse e dichiarazioni di principio, a obblighi e divieti vaghi e indeterminati, non basta. Anzi, sembra molto pericoloso.

Il dubbio finale è se questo testo sia davvero uno strumento utile, se sia solo un modo per dire “ci siamo anche noi” o se sia un segnaposto che consentirà, eventualmente, al governo di mettere le mani anche sulle intelligenze artificiali.

Questo testo è tratto dalla newsletter Artificiale.

Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti
Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it