Tra l’8 e il 16 settembre 2025 riaprono le scuole. C’è appena stata una riforma dell’esame di stato, la diciassettesima volta dal 1923 a oggi: è tornato a chiamarsi maturità, con quel gusto passatista e di recupero nostalgico che appartiene al percorso di egemonia culturale della destra al governo. La riforma prevede anche la bocciatura automatica per chi dovesse fare scena muta all’orale, anche in presenza di ottimi risultati allo scritto e nel curriculum scolastico: è una risposta autoritaria alle proteste estive. Arrivano anche nuovi divieti. O meglio, lo smartphone in classe era già vietato, ma per ovvie ragioni: mentre si fa lezione non si può fare altro. Quindi, non si può usare uno smartphone esattamente come non si può ascoltare la radio. Ora, però, il divieto rientra in un percorso di presunto detox digitale, avallato da ben pochi dati.

In questo contesto, arrivano anche le Linee guida per l’introduzione dell’intelligenza artificiale nelle istituzioni scolastiche. Il documento è lungo 34 pagine, indice incluso, e contiene indicazioni teoriche che dovrebbero guidare l’uso degli strumenti di ia per scopi didattici e organizzativi. In appendice si trovano un glossario piuttosto scarno di nove termini più o meno legati a queste nuove tecnologie e una dozzina di acronimi scritti per esteso.

Dopo una breve premessa, il documento descrive sinteticamente il ruolo delle intelligenze artificiali nella scuola: “Gli strumenti di ia, con le necessarie attenzioni e un’adeguata supervisione, possono svolgere una funzione strategica […] contribuendo a migliorare i processi organizzativi, gestionali, formativi e di apprendimento, a velocizzare compiti amministrativi ripetitivi, contribuendo a qualificare le esperienze formative in modo inclusivo e accessibile, anche in contesti complessi che richiedono un supporto specifico per incontrare i bisogni di ciascuno studente”. È una descrizione generica ma condivisibile: in effetti un uso consapevole dei large language model permette di fare anche parecchie cose in più di quelle descritte.

Il documento cita anche alcuni degli usi proibiti delle intelligenze artificiali, riprendendoli dall’Ai Act, la norma europea, e ribadisce che non si possono usare questi strumenti con tecniche manipolative; che sono vietate la valutazione e la classificazione delle persone sulla base del loro comportamento o delle loro caratteristiche (il cosiddetto social scoring); che è proibito l’uso di sistemi di classificazione delle persone sulla base di dati fisici o biometrici per trarne deduzioni in merito a opinioni politiche, convinzioni religiose o filosofiche, vita e orientamento sessuali.

Si passa, poi, ai principi di riferimento, per dire che l’adozione delle ia deve “essere guidata da un approccio antropocentrico che metta al centro il pieno sviluppo della persona umana”.

Questo principio astratto, fortemente condivisibile, è già stato ripetuto talmente tante volte, ovunque, da risultare quasi un cliché, soprattutto in assenza di esempi pratici che traducano il principio in qualcosa di applicabile.

Valutazioni e controlli

“L’ia, anzitutto nei contesti educativi, deve promuovere l’equità, garantendo che tutti abbiano pari accesso alle opportunità e ai benefici derivanti dalla tecnologia”, si legge nel documento. Ma cosa significa, esattamente? Oggi, per usare gli strumenti di intelligenza artificiale generativa più avanzati occorre pagare licenze, in alcuni casi anche molto costose: non è già questa barriera economica il primo, enorme ostacolo verso una presunta equità?

“Nell’introduzione dell’ia è fondamentale assicurarsi che i sistemi adottati siano sostenibili nel lungo termine”, proseguono le linee guida. Ma come potrebbe, la scuola, fare una valutazione così complessa? Con quali ricerche? Con che risorse?

Si richiede anche la spiegabilità dei risultati, sottolineando che “i modelli linguistici di grandi dimensioni producono output in modo apparentemente sicuro e autorevole, ma spesso mancano di rigore o sono basati su informazioni errate”. Il fenomeno delle allucinazioni, che abbiamo raccontato più volte su Artificiale, esiste. Ma, oltre a essere un fenomeno ridotto, è anche connaturato alla struttura statistica di questi modelli, spesso è dovuto a usi impropri o, semplicemente, al fatto che ci dimentichiamo di verificare le fonti.

Le scuole sono anche tenute a fare valutazioni d’impatto dell’uso di strumenti di ia; il dirigente scolastico diventa il primo responsabile dell’adozione di questi strumenti. E poi, secondo le linee guida, “è necessario controllare che i sistemi di ia non presentino pregiudizi o discriminazioni”.

La fine della scuola pubblica
Negli Stati Uniti molti governi locali assegnano i fondi dall’istruzione pubblica direttamente alle famiglie, che li spendono in servizi e istituti privati spesso improvvisati. Un processo che potrebbe stravolgere il sistema educativo.

Visto che grandi aziende che sviluppano i modelli linguistici non rendono disponibili in maniera aperta i dati di addestramento e i dati strutturali dei loro modelli, come si dovrebbe svolgere, esattamente, questo controllo? E chi dovrebbe farlo? E poi, non è ovvio che gli strumenti di ia contengano pregiudizi? Le tecnologie sono tutte storicamente, culturalmente e socialmente connotate. Le ia generative sono addestrate con materiale umano digitalizzato, in maggior parte proveniente della cultura occidentale statunitense oppure da quella cinese. E il materiale umano stesso contiene, in sé, pregiudizi.

Dopo varie pagine dedicate ai dati personali c’è una veloce descrizione di un metodo di adozione delle ia in cinque fasi: definizione, pianificazione, adozione, monitoraggio e conclusioni. Fasi, cioè, che dovrebbero riguardare qualsiasi processo decisionale: prima si capisce di cosa c’è bisogno, orientandosi, poi si fa un progetto, quindi si comincia a lavorarci, si fanno delle misurazioni per capire se sta andando bene o male e si traggono conclusioni, appunto.

Per concludere si arriva, finalmente, a una carrellata di casi d’uso per punti, molto generici, per il personale scolastico, i docenti e gli studenti. Si va dalla possibilità di creare materiali didattici personalizzati fino all’uso per velocizzare l’apprendimento degli studenti.

Il foglio del come

Tra frasi condivisibili ma un po’ scontate, buone pratiche trite e ritrite, responsabilità attribuite alle macchine e processi di controllo sostanzialmente inattuabili, le linee guida per l’uso delle ia a scuola riflettono tutti i problemi del dibattito che riguarda queste tecnologie. Dall’uso di intelligenza artificiale al singolare – è vero che è l’uso più diffuso, ma umanizza e confonde – fino all’attribuzione di capacità di iniziativa e autonomia agli strumenti, c’è davvero molto da fare per migliorare. E, soprattutto, mancano completamente veri esempi pratici.

Eppure se ne trovano. Alfonso D’Ambrosio, dirigente scolastico molto attivo sul suo profilo Facebook e in generale nel mondo della divulgazione, ha scritto un bel manuale, disponibile in ebook. Si intitola Intelligenza artificiale a scuola – Una guida operativa per insegnanti e per alunni dagli 8 ai 14 anni. D’Ambrosio spiega che il libro è per insegnanti, ma pensato per gli studenti. “Questa guida è dedicata a voi”, scrive, “insegnanti della scuola primaria e secondaria di primo grado, che ogni giorno vi confrontate con una sfida complessa ma appassionante: educare i bambini e i ragazzi a un futuro che ancora non conosciamo del tutto. Parliamo di algoritmi, dati, reti neurali, ma anche di arte, letteratura, emozioni e valori. Perché parlare di intelligenza artificiale a scuola non significa “insegnare informatica”, ma parlare di umanità”.

Anche con Artificiale, nel nostro piccolo, abbiamo proposto alcuni strumenti e esercizi da fare: li trovi tutti nella guida Giocare con le intelligenze artificiali.

Qualche anno fa, Maurizio Crozza metteva in scena l’imitazione dell’imprenditore Luca Cordero di Montezemolo pronto a entrare in politica con una serie di soluzioni perfette per l’Italia, raccontate con tante belle parole e ricette facili e di buon senso. Solo che poi, irrimediabilmente, la parodia di Montezemolo era incapace di offrire esempi pratici: “Non trovo il foglio del come”, diceva. Ecco, a queste linee guida manca proprio il foglio del come.

Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti
Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it