“ChatGpt entra nel nostro cervello”, “l’intelligenza artificiale ci rende più stupidi”, “uccide il pensiero critico”. Dai mormorii d’inquietudine alle grida d’allarme, l’ansia per l’ia cresce e le sue variazioni sul tema sono sempre più cupe. Un tempo si temeva che un’intelligenza fuori controllo avrebbe polverizzato l’umanità. Ora che i chatbot stanno seguendo la stessa traiettoria di Google, passando dal miracoloso a qualcosa che diamo per scontato, anche la nostra ansia è cambiata: dall’apocalisse all’atrofia. Gli insegnanti sono stati i primi a notare il pericolo. Il termine usato in inglese per definirlo è deskilling, perdita delle competenze. E la loro paura non è infondata. I ragazzi che usano Gemini (il modello di ia sviluppato da Google) per riassumere La dodicesima notte potrebbero non riuscire mai a confrontarsi con Shakespeare da soli. Gli aspiranti avvocati che usano Harvey Ai per analizzare questioni legali potrebbero non sviluppare mai le capacità interpretative acquisite da chi faceva il loro stesso lavoro anni fa. In un recente studio condotto nel Regno Unito, centinaia di persone sono state sottoposte a un test sul pensiero critico, rispondendo a domande su come usavano l’ia per trovare informazioni e prendere decisioni. I più giovani, che si affidavano di più alla tecnologia, hanno ottenuto un punteggio più basso, segno che se non si esercita il pensiero si finisce per perderlo. Un’altra indagine si è concentrata sui medici che eseguono colonscopie. Per tre mesi hanno usato l’ia per individuare più facilmente i polipi. Alla fine facevano più fatica a vederli senza l’aiuto della tecnologia. Il punto non è stabilire se il deskilling esista (è chiaro che esiste), ma capire cosa sia esattamente. Tutte le forme sono dannose? O ce ne sono alcune con cui potremmo convivere, perfino guadagnandoci? Deskilling è una parola generica che comprende perdite molto diverse: alcune con un costo alto, altre irrilevanti, altre produttive. Per capire la posta in gioco, dobbiamo analizzare il modo in cui una competenza si logora, svanisce o si trasforma con l’arrivo di nuove tecnologie. I chatbot che usiamo oggi sono un’invenzione recente. L’architettura su cui si basano, il modello di rete neurale chiamato transformer (trasformatore), è stata creata nel 2017, e appena cinque anni dopo è comparso ChatGpt, il sistema d’ia sviluppato da OpenAI. Ma la paura che una nuova tecnologia possa offuscare la mente è antica. Nel Fedro, dialogo scritto da Platone nel quarto secolo aC, Socrate racconta il mito del dio egizio Theuth, che offre al re Thamus il dono della scrittura, “farmaco della memoria e della sapienza”. Thamus non si lascia impressionare. Secondo lui la scrittura avrà l’effetto opposto: alimenterà l’oblio. Le persone rinunceranno allo sforzo di ricordare in cambio di segni su un papiro, e confonderanno l’apparenza della comprensione con la cosa in sé. Socrate prende le parti di Thamus. Le parole scritte, osserva, non rispondono mai a una domanda precisa. Offrono la stessa risposta a tutti, ai sapienti come agli stolti, e quando vengono fraintese, sono impotenti. Naturalmente il motivo per cui conosciamo questa storia è che Platone l’ha scritta. Eppure quelli che criticavano la scrittura non avevano tutti i torti. Nelle culture orali i bardi custodivano i poemi epici nella loro mente. I griot potevano snocciolare su richiesta secoli di genealogia. Con la scrittura, simili abilità diventavano inutili. Era possibile assimilare idee con molto meno sforzo. Il dialogo esige delle risposte: chiarimenti, obiezioni, revisioni. La lettura, invece, permette di crogiolarsi nell’intelligenza altrui, di annuire senza mettersi alla prova. Ma se si cambia prospettiva, quella che sembra una perdita può diventare una conquista. La scrittura ha spalancato nuovi territori mentali: l’analisi, la filosofia del diritto, la storiografia, la scienza. Per dirla con lo storico della cultura e della comunicazione Walter J. Ong, “la scrittura è una tecnologia che ristruttura il pensiero”. Ed è uno schema ricorrente. Quando i marinai cominciarono a usare il sestante, smisero di conoscere il cielo come i loro predecessori, che leggendo le stelle riuscivano a trovare la via di casa. In seguito la navigazione satellitare fece scomparire anche le conoscenze sui sestanti. Un tempo chi aveva una Ford T, una delle più celebri automobili dell’azienda statunitense, doveva essere anche un buon meccanico: saper riparare tubi, regolare a orecchio il tempo di accensione, resuscitare il motore. Gli affidabilissimi motori di oggi sono imperscrutabili. I regoli calcolatori hanno ceduto il posto alle calcolatrici, e le calcolatrici ai computer. A ogni passaggio l’abilità individuale è diminuita, ma le prestazioni complessive sono migliorate. È uno schema rassicurante: qualcosa si perde, qualcosa si guadagna. Alcune conquiste, però, hanno un prezzo più alto. Stravolgono non solo quello che le persone possono fare ma anche quello che sentono di essere. Negli anni ottanta la psicologa sociale Shoshana Zuboff passò molto tempo nelle cartiere del sud degli Stati Uniti. Era l’epoca in cui il controllo della produzione si stava computerizzando. Gli operai che un tempo valutavano la polpa di cellulosa toccandola ora se ne stavano seduti in stanze con l’aria condizionata e guardavano dei numeri scorrere sugli schermi. Le loro vecchie competenze non erano più usate né apprezzate. “Fare il mio lavoro attraverso il computer… è diverso”, disse uno di loro a Zuboff. “È come cavalcare un cavallo grande e possente, ma con qualcuno seduto dietro di te che tiene le redini”. Il nuovo sistema era più rapido, pulito e sicuro, ma toglieva senso al lavoro. Il sociologo Richard Sennett osservò un cambiamento simile in una panetteria di Boston. Negli anni settanta i fornai erano uomini e donne di origine greca che usavano il naso e gli occhi per capire se il pane era pronto. Erano fieri della loro abilità. Negli anni novanta lo stesso lavoro veniva fatto attraverso un touch screen, con un sistema simile a Windows. Il pane era diventato un’icona su uno schermo: il colore era dedotto dai dati, la varietà era scelta da un menù digitale. Lo svuotamento delle competenze portò a uno svuotamento dell’identità. Il pane era ancora buono, ma quei lavoratori sapevano di non essere più dei veri panettieri. Scherzando solo in parte, una di loro disse a Sennett: “Pane, scarpe, stampe: dì una cosa e io ho le competenze per farla”. In altre parole: la sua abilità non le serviva più. Questo è vero da molto tempo per il mondo dell’arte. Nell’ottocento amare la musica spesso voleva dire saperla suonare. Non era uno stereo a portare le sinfonie nei salotti, ma le trasposizioni per pianoforte: con quattro mani e una tastiera si poteva dar vita, in casa, alla sinfonia numero 1 di Brahms. Bisognava essere abili: saper leggere la musica, avere una buona tecnica, riuscire a evocare un’orchestra con le dita. Poi arrivò il grammofono, e i pianoforti cominciarono a prendere polvere. I vantaggi erano ovvi: si poteva far risuonare un’orchestra vera in casa, allargare il campo dell’ascolto passando dalle romanze da salotto a Debussy, Strauss e Sibelius. Gli appassionati di musica suonavano meno ma ascoltavano di più. Una possibilità che era stata raggiunta a scapito della profondità: studiare un pezzo permetteva di esplorarlo fino a sentirlo proprio. Si poteva provare la stessa cosa usando un Victrola? Come si fa una matita L’emergere di uno strumento nuovo e potente genera sempre questo senso di straniamento. A partire dal seicento, il regolo calcolatore rese meno essenziale la capacità di calcolo mentale. Secoli dopo, la calcolatrice suscitava perplessità tra alcuni ingegneri, che temevano la scomparsa del senso dei numeri. Avevano le loro ragioni. Premere il tasto “cos” dava un risultato, ma il senso di quel risultato poteva sfuggire. Anche in ambiti più specializzati c’era chi condivideva queste preoccupazioni. Victor Weisskopf, fisico dell’Mit era turbato dalla crescente dipendenza dei suoi colleghi dalle simulazioni al computer. “Il computer capisce la risposta”, diceva quando gli consegnavano le stampate, “ma non sono sicuro che voi la capiate”. Era l’inquietudine del re egizio trasposta nell’era digitale: il timore che il risultato venisse scambiato per comprensione. In quella che Zuboff chiamava “l’età della macchina intelligente”, l’automazione riguardava principalmente il luogo di lavoro: il mulino, il forno industriale, la cabina di pilotaggio. Nell’era del pc e poi di internet, la tecnologia si è infilata nelle case, diventando multiuso, intrecciandosi alla vita di tutti i giorni. Già nei primi anni duemila, i ricercatori si chiedevano quale fosse l’impatto dei motori di ricerca sulle persone. Circolavano titoli come “Cosa fa Google al cervello”. L’allarme era esagerato, ma alcuni effetti erano reali. Secondo uno studio molto noto, in alcune circostanze le persone ricordavano dove avevano trovato una certa informazione più che l’informazione stessa. La verità è che la conoscenza è sempre uscita dal cervello delle persone per riversarsi dentro strumenti, simboli e nel cervello degli altri. Le nostre conoscenze si accumulano sotto forma di cultura. Le ereditiamo, le espandiamo e ci costruiamo sopra, affinché ogni generazione possa arrivare più in alto della precedente: siamo passati dalle lame ottenute per scheggiatura agli aghi d’osso, dalla stampa al calcolo quantistico. Questa miscela di sapere è ciò che contraddistingue l’Homo sapiens. I bonobo vivono nel presente ecologico. Noi viviamo nella storia. L’accumulo ha però una conseguenza importante: spinge alla specializzazione. Più la conoscenza si espande, meno equamente è distribuita tra le persone. Nei piccoli gruppi, chiunque sapeva andare a caccia, raccogliere piante e accendere un fuoco. Dopo la rivoluzione agricola, con lo sviluppo di società più grandi, i mestieri e le corporazioni si sono moltiplicati: artigiani capaci di fabbricare lame resistenti, muratori che sapevano come non far crollare una volta, soffiatori di vetro che perfezionavano composti e tecniche custoditi gelosamente. Con il tempo, la divisione del lavoro è inevitabilmente diventata divisione del lavoro cognitivo. Il filosofo Hilary Putnam una volta osservò che poteva usare la parola olmo pur non sapendo distinguere un olmo da un faggio. Il riferimento è sociale: possiamo parlare di olmi perché altri nella nostra comunità linguistica – botanici, giardinieri, guardie forestali – sono in grado di riconoscerli. Ciò che è vero per la lingua vale anche per la conoscenza. L’ingegno umano risiede non solo negli individui, ma nelle reti che formano: ognuno di noi dipende dagli altri per colmare le proprie lacune. Espandendosi, gli scambi sociali si sono trasformati in interdipendenza sistematica. Il risultato è un mondo in cui, per citare un esempio classico, nessuno sa costruire una matita. Per farlo dovremmo avere le competenze di un silvicoltore, dell’operaio di una segheria, di un minatore, di un chimico e di un laccatore: c’è una rete invisibile di mestieri dietro il più semplice degli oggetti. Nel romanzo Uno yankee alla corte di re Artù, del 1889, Mark Twain immagina un ingegnere dell’ottocento che si ritrova a Camelot, e lì stupisce i suoi ospiti con moderne meraviglie. I lettori del tempo trovavano la cosa credibile. Ma se calassimo nella stessa cornice una persona del nostro secolo, sarebbe un inetto. Fabbricare del filo elettrico? Preparare una miscela per dinamite? Costruire un telegrafo? Senza un collegamento a internet, la maggior parte di noi non saprebbe da dove cominciare. Un’estensione della memoria La divisione cognitiva del lavoro è arrivata al punto che due fisici – uno esperto di materia oscura, l’altro di sensori quantistici – potrebbero capirsi a malapena. Oggi eccellere in un campo scientifico vuol dire saperne sempre di più su un settore sempre più ristretto. Questa concentrazione permette progressi incredibili, ma si basa su saperi circoscritti: gli esperti ereditano strumenti intellettuali che possono usare ma che non sono più in grado di creare. Perfino la matematica, a lungo esaltata come il regno dei geni solitari, oggi funziona così. Per dimostrare l’ultimo teorema di Fermat, Andrew Wiles non ha dovuto ricavare da capo ogni lemma. Ha messo insieme dei risultati che considerava affidabili ma che non aveva ottenuto personalmente, riuscendo a vedere una struttura di cui non aveva costruito ogni singolo elemento. L’espandersi della collaborazione ha trasformato il senso della conoscenza: un tempo considerata qualcosa che si possiede, oggi è diventata una questione di relazione, di come riusciamo a localizzare, interpretare e sintetizzare ciò che gli altri sanno. Viviamo in una rete d’intelligenza distribuita e dipendiamo da esperti, banche dati e strumenti per allargare la nostra portata. I numeri lo confermano. Nel 1953 l’articolo di Nature che presentava la struttura del dna aveva due autori. Oggi un articolo sulla stessa rivista sulla genomica potrebbe averne quaranta. I due articoli che hanno annunciato la scoperta del bosone di Higgs? Migliaia. La “big science” è grande per un motivo. Era solo una questione di tempo prima che la rete acquisisse un nuovo partecipante, in grado non solo di archiviare informazioni ma anche di imitare la comprensione. Nell’era dei modelli linguistici di grandi dimensioni, la vecchia distinzione tra informazione e capacità, tra “sapere che” e “sapere come” è diventata meno netta. Da un certo punto di vista, questi modelli sono statici: una matrice congelata di pesi che potremmo scaricare sul nostro portatile. Ma sono anche dinamici: una volta attivati, generano risposte senza interruzione. Fanno quello che secondo Socrate la scrittura non poteva fare: rispondono alle domande, si adattano al loro interlocutore, sostengono conversazioni. Se Goo­gle ci sembrava un’estensione della memoria, oggi un modello linguistico di grandi dimensioni può sembrare a molti un sostituto della mente. Sfruttare nuove forme di ia farà espandere la nostra intelligenza? O è l’ia che, silenziosamente, prenderà il sopravvento? Ormai non possiamo più tornare indietro, ma possiamo decidere che impatto avrà questo cambiamento. Quando parliamo di deskilling, di solito immaginiamo qualcuno che ha perso un’abilità: il pilota che ha difficoltà con la guida manuale, il dottore che non vede più i tumori senza l’assistenza dell’ia. Ma il lavoro moderno è in gran parte basato sulla collaborazione, e questo elemento non cambia con l’ia. Non bisogna paragonare gli esseri umani ai bot, ma gli esseri umani che usano i bot a chi invece non li usa. C’è chi teme che affidarsi troppo all’intelligenza artificiale avrà effetti negativi molto più grandi dei vantaggi promessi. Se Dario Amodei, amministratore delegato di Anthropic, immagina con ottimismo un “paese di geni”, altri prevedono un paese di idioti. È il vecchio dibattito sulla “compensazione del rischio”: qualche decennio fa gli esperti di scienze sociali sostenevano che introdurre le cinture di sicurezza o il sistema antibloccaggio sulle automobili avrebbe favorito una guida più spericolata. Sentendosi più sicure grazie alla tecnologia, le persone avrebbero corso più rischi. Ma la ricerca ha mostrato effetti più incoraggianti: le persone si adattano, ma solo in parte, per cui i vantaggi rimangono sostanziali. Risultati simili sono stati osservati negli ospedali, dove l’uso clinico dell’ia è diffuso da più di dieci anni. Torniamo allo studio sulla colonscopia: usare l’ia per gli esami clinici riduceva del 6 per cento la capacità dei gastroenterologi di individuare un polipo senza assistenza. Ma da un’altra indagine che ha coinvolto 24mila pazienti, è emerso un quadro diverso: l’uso dell’ia aveva aumentato del 20 per cento il tasso di rilevamento. Poiché un tasso più alto significava meno tumori sfuggiti ai controlli, questo approccio, chiamato “centauro”, era chiaramente vantaggioso, anche se i medici erano diventati meno perspicaci. Se questa collaborazione può salvare delle vite, sarebbe irresponsabile per i gastroenterologi ostinarsi a lavorare da soli per orgoglio. Intuito umano In altri ambiti, più la persona è abile e più la collaborazione sarà efficace, o almeno questo suggeriscono alcuni studi recenti. In uno gli esseri umani hanno superato i bot nel classificare immagini di due tipi di scriccioli e due tipi di picchi. Ma quando si trattava di riconoscere false recensioni di alberghi, i bot se la sono cavata meglio. Poi i ricercatori hanno abbinato i bot alle persone, lasciandogli esprimere giudizi sulla base dei suggerimenti della macchina. Il risultato dipendeva dal compito. Dove mostravano scarso intuito, come nel caso delle recensioni degli alberghi, le persone tendevano a non dare credito ai bot, peggiorando i risultati. Dove invece le loro intuizioni erano buone, collaboravano meglio con la macchina, fidandosi del proprio giudizio e notando se il sistema coglieva qualcosa che a loro era sfuggito. Nel compito sugli uccelli, la coppia persona-bot ha battuto i singoli. La stessa logica si applica anche altrove: quando la macchina entra nel flusso di lavoro, l’abilità può spostarsi dalla produzione alla valutazione. Secondo una ricerca del 2024 sui programmatori che si servono di GitHub (una piattaforma online per collaborare allo sviluppo di codice), l’uso dell’ia non ha reso superflua la loro competenza ma l’ha riorientata: ora passavano meno tempo a generare codice e più tempo a rivederlo. La competenza era passata dalla composizione alla supervisione. Sarà questo, sempre di più, il ruolo degli esseri umani: l’abilità si sta spostando dalla produzione della prima bozza alla sua revisione. L’ia generativa è un sistema probabilistico, non deterministico. Fornisce risposte verosimili, non la verità. Quando la posta in gioco è reale, la responsabilità delle decisioni deve restare in mano a persone qualificate. Sono loro che devono accorgersi se il modello si sta allontanando dalla realtà, che devono trattare i risultati prodotti dalla macchina come ipotesi da mettere alla prova, e non risposte a cui obbedire. Si tratta di una capacità nuova e decisiva. Il futuro del nostro sapere dipenderà non solo da quanto efficaci sono i nostri strumenti, ma anche da quanto saremo bravi a pensare insieme a loro. La collaborazione, però, presuppone competenza. Un centauro gira a vuoto se la metà umana non sa cosa sta facendo. Ed è qui che scatta il panico legato all’istruzione. Non si possono perdere competenze che non sono mai state acquisite. E come si fa a inculcare competenze di base in un’epoca in cui la migliore macchina per fare i compiti entra comodamente in una tasca? Anche noi insegnanti abbiamo parecchi compiti da fare. Dobbiamo rivedere le nostre certezze. Negli ultimi due anni, troppi studenti delle università statunitensi si sono “diplomati in ChatGpt”. Ma è presto per dire con sicurezza quale sarà l’impatto complessivo dell’ia sull’apprendimento. Di certo l’intelligenza artificiale può intorpidire alcune capacità. Ma, se usata bene, può anche affinarle. Prendiamo un esperimento fatto in un corso di fisica a Harvard. Metà dei ragazzi ha svolto due moduli usando il metodo tradizionalmente considerato migliore: lezioni dinamiche fatte da un docente molto competente. L’altra metà è stata seguita da un tutor personalizzato basato sull’ia. Poi hanno invertito i metodi. Entrambe le volte gli studenti seguiti dall’ia hanno avuto risultati di gran lunga migliori. Non avevano solo imparato di più: lavoravano più in fretta e dicevano di sentirsi più motivati e coinvolti. Il tutor era stato progettato per comportarsi come un bravo allenatore: mostrava come suddividere i problemi grandi in problemi più piccoli, dava indizi invece di fornire subito le risposte, commentava i risultati e si adattava al ritmo di ognuno. Era proprio questo che rendeva potente anche il vecchio sistema di tutoraggio: l’attenzione. Ricordo le mie prime settimane all’università di Cambridge, quando mi ritrovavo a tu per tu con il mio tutor di biochimica. Se dicevo “credo di aver capito”, lui insisteva finché non eravamo entrambi sicuri che avessi capito. Se personalizzati nel modo giusto, i modelli linguistici di grandi dimensioni dovrebbero riuscire a produrre quel tipo di attenzione su larga scala: senza i cardigan, le pipe lucide e l’espressione pensosa, ma offrendo un incitamento costante e puntuale in grado di trasformare la confusione in competenza. Cose più importanti Le macchine non sostituiranno i mentori. Quello che promettono di fare è gestire le parti più ripetitive della supervisione: verificare i problemi di algebra, fare esercizi sui lemmi, ricordare agli studenti di scrivere le unità di misura e assicurarsi che capiscano come funzionano i canali ionici delle cellule. Questo, in teoria, dovrebbe permettere ai docenti di dedicarsi a cose più importanti: spiegare le grandi idee, stimolare la ricerca di soluzioni semplici ed efficaci, parlare di sbocchi professionali, notare segni di difficoltà. Ma dobbiamo stare attenti a non trarre conclusioni generali da un’unica ricerca (uno studio sui liceali turchi non ha rilevato benefici legati all’uso di tutor-chatbot). E non dobbiamo dimenticare che quegli studenti di fisica hanno fatto un buon uso del loro tutor-bot perché sapevano di dover passare degli esami in aula: sorvegliati, cronometrati, valutati dallo sguardo severo di un docente. Dobbiamo anche tenere a mente che quello che funziona per i corsi di scienza e tecnologia potrebbe non funzionare per le discipline umanistiche. La tesina di fine corso, per quanto seccante, insegna un sapere difficile da rendere all’orale: costruire un’argomentazione passo dopo passo, valutare le prove, perfezionare lo stile. Alcuni che, come me, insegnano a studenti del primo anno hanno cominciato a dire ai più ambiziosi che, se scrivono una tesina, gliela leggeranno e potranno discuterne insieme, ma non conterà per il voto finale. È un palliativo, non una soluzione. In una sorprendente marcia indietro culturale, l’oralità potrebbe dover sostenere lo sforzo maggiore. E se Socrate, il grande difensore del dialogo, finisse per avere l’ultima parola? Bobine e bande sonore La graduale perdita di abilità è una prospettiva che non possiamo semplicemente ignorare: l’eccessiva dipendenza dalla tecnologia rischia di alimentare un’atrofia cognitiva o percettiva, senza offrire vantaggi in cambio. E queste lacune possono prosciugare le riserve del sistema, cioè le capacità che non usiamo spesso ma che dobbiamo avere per quando le cose vanno storto. Senza queste riserve, diventiamo più fragili e meno bravi a reagire. Un esempio: il comandante che per migliaia di ore si limita a sorvegliare il pilota automatico, potrebbe non sapere cosa fare se il sistema si blocca. Alcuni teorici dell’automazione distinguono tra humans in the loop, persone che restano coinvolte in modo attivo, e humans on the loop, quando invece si limitano ad approvare il lavoro svolto dalla macchina. Il secondo caso, se gestito male, produce quello che la psicologa del lavoro Lisanne Bainbridge denunciava già decenni fa: confusione dei ruoli, perdita di consapevolezza, capacità di reazione sempre più debole. I supervisori umani devono essere come i bagnini, che raramente intervengono ma quando lo fanno devono essere rapidi e capaci. Ogni tipo di lavoro d’ufficio è minacciato da questo meccanismo. È il paradosso dell’automazione parziale: più il sistema è efficace, meno le persone saranno pronte per i rari momenti in cui il sistema sbaglia. Probabilmente servono apposite strutture e procedure organizzative. Le aziende potrebbero organizzare esercitazioni regolari, simili alle simulazioni di volo per i piloti, in cui i dipendenti devono sfidare la macchina e dimostrare che la loro capacità di giudizio è rimasta intatta nonostante i lunghi periodi senza turbolenze. Le capacità di riserva, comunque, non devono essere universali, devono semplicemente esserci da qualche parte nel sistema, un po’ come ci sono gli esperti di olmi. Per questo l’Accademia navale statunitense, allarmata dal rischio di interferenze nei ricevitori gps, ha reintrodotto dopo anni i corsi di navigazione astronomica. La maggior parte dei marinai non toccherà mai un sestante in alto mare, ma se alcuni di loro lo sanno usare potrebbero guidare una flotta nel caso in cui i satelliti smettessero di funzionare. Lo scopo è conservare una qualche forma di competenza, in modo tale che, se un sistema s’inceppa, gli esseri umani possano farcela. La prospettiva più inquietante è quella che potremmo chiamare “deskilling costitutivo”: l’erosione delle abilità che ci rendono umani. Il giudizio, l’immaginazione, l’empatia, la capacità di cogliere il senso e la proporzione: non sono qualità di riserva ma pratiche quotidiane. Se, per dirla con Jean-Paul Sartre, diventassimo “la macchina della macchina”, le conseguenze si farebbero sentire nella vita di tutti i giorni. Potrebbe sparire la conoscenza che sta alla base della nostra capacità di discernimento. Se le persone imparassero a formulare domande come vuole il sistema, a scegliere dal suo menù di risposte plausibili, il danno non si manifesterebbe in plateali errori di giudizio, ma più in un graduale indebolimento della nostra natura: conversazioni più superficiali, meno interesse per l’ambiguità, uno slittamento verso frasi automatiche dove un tempo avremmo cercato la parola giusta, una silenziosa sostituzione della comprensione con la scorrevolezza. Privarci di queste facoltà vorrebbe dire sbarazzarci di noi stessi. Perderle non cambierebbe solo il modo in cui lavoriamo. Cambierebbe chi siamo. La maggior parte delle forme di deskilling, sul lungo periodo, è innocua. In passato alcune competenze sono diventate obsolete insieme all’infrastruttura che le sosteneva: il telegrafo richiedeva la conoscenza approfondita di punti e linee; per la linotype bisognava saper usare una tastiera speciale; per il montaggio di una pellicola serviva essere bravi con matite grasse e giuntatrici, oltre ad avere una mappa mentale delle scene sparse tra bobine e bande sonore. Quando sono sparite le linee telegrafiche, le macchine per la stampa a caldo e le pellicole di celluloide, sono scomparsi anche quei mestieri. Un altro tipo di deskilling porta alla fine dei lavori più noiosi. Un neuroscienziato che conosco si affida completamente ai modelli linguistici di grandi dimensioni per velocizzare la fastidiosissima stesura delle domande per ricevere finanziamenti. La responsabilità del contenuto rimane sua, e non gli importa se il livello delle domande cala. Per lui quella non è scienza ma una prestazione imposta dall’economia della ricerca. Sbarazzandosi di una parte di quel carico, ha più tempo da dedicare allo studio. Il deskilling professionale può democratizzare, perché consente a più persone di svolgere un lavoro. Per gli scienziati che non parlano bene l’inglese, i chatbot possono semplificare la stesura dei testi indirizzati ai comitati etici, rimuovendo ostacoli linguistici che poco hanno a che fare con la qualità della loro ricerca. In questo caso il deskilling amplia l’accesso. Torniamo all’esempio dei fornai di Sennett. Si ustionavano le braccia con i forni, si strappavano i muscoli usando le vecchie impastatrici, si spezzavano la schiena trasportando teglie cariche di pagnotte. Negli anni novanta, quando ormai il sistema era gestito da un software, questa manodopera era cambiata: un miscuglio multietnico di donne e uomini davanti a degli schermi. Il mestiere si era ridotto, mentre le persone idonee a svolgerlo erano aumentate ed erano pagate meno (più forza lavoro vuol dire remunerazioni più basse). Spesso perdiamo competenze perché la tecnologia ci permette di usare meglio il nostro tempo, sviluppando abilità a cui è assegnato più valore. In una delle cartiere osservate da Zuboff, gli operai che non dovevano più svolgere attività manuali potevano dedicare tempo alla prevenzione dei problemi. “Starmene seduto in questa stanza a pensare è diventato parte del mio lavoro”, spiegava uno di loro. Zuboff lo chiama reskilling: le competenze manuali cedono il posto all’astrazione e al ragionamento procedurale, cioè a “competenze intellettive”. I contabili hanno vissuto un cambiamento simile con l’arrivo dei programmi per i fogli di calcolo: non essendo più costretti a sommare colonne intere di numeri, potevano concentrarsi sulla strategia fiscale e sull’analisi di rischi. Non solo: le nuove tecnologie possono portare nuove competenze. Prima dell’invenzione del microscopio esistevano i naturalisti ma non i microscopisti: Robert Hooke e Antonie van Leeuwenhoek hanno dovuto inventare la pratica di osservare e interpretare l’invisibile. Il cinema non si è semplicemente ispirato al teatro: ha fatto emergere figure come il cineoperatore e il montatore, professioni che prima non c’erano. Ogni balzo in avanti ha allargato il campo del possibile. Lo stesso potrebbe succedere oggi. Ancora senza un nome I miei colleghi più giovani mi assicurano che lavorare con i modelli linguistici di grandi dimensioni significa già insegnare un nuovo tipo di competenze: saper suggerire, esplorare, cogliere pregiudizi e allucinazioni e sì, imparare a pensare insieme alla macchina. Si tratta di abilità emergenti, nate dall’intreccio con un’architettura digitale che è destinata a cambiare le nostre vite. Le tecnologie importanti, per definizione, generano competenze e lavori per i quali non abbiamo ancora un nome. La cosa più difficile è capire, senza cedere alla nostalgia o all’inerzia, quali competenze vanno mantenute e quali scartate. A nessuno piace veder liquidare perché obsolete delle capacità sviluppate con fatica. Per questo dobbiamo resistere alla tentazione del sentimentalismo. Ogni progresso ha un costo. L’alfabetizzazione ha indebolito le promesse della memoria, ma ha creato nuove capacità di analisi. Le calcolatrici hanno azzerato il calcolo mentale, ma hanno permesso a più persone di fare i conti. La musica registrata ha ridotto le competenze musicali, ma ha cambiato il nostro modo di ascoltare. E oggi? Sta a noi capire se i modelli linguistici di grandi dimensioni espandono la nostra mente o la restringono. Nella storia dell’umanità, le nostre capacità non sono mai rimaste immutate. Si sono sempre dirette verso l’esterno: dalla mano allo strumento al sistema. L’acume individuale si è diffuso sotto forma di intelligenza collettiva e coordinata spinta dalla nostra abitudine a esternalizzare il pensiero. Abbiamo riposto la memoria nei segni, la logica nelle macchine, il giudizio nelle istituzioni e, più di recente, le previsioni negli algoritmi. La specializzazione che un tempo produceva le corporazioni oggi produce i consorzi di ricerca. Quello che prima veniva trasmesso dai maestri agli apprendisti oggi circola attraverso reti e matrici digitali. L’ia generativa – un condensato statistico dello scibile umano – non è altro che l’ultimo capitolo nel lungo apprendistato delle nostre invenzioni. Ecco la sfida più urgente: riuscire a mantenere intatta la nostra capacità di incidere sulla realtà, rimanendo gli autori di sistemi pronti a farsi carico di gran parte del nostro pensiero. Ogni generazione ha dovuto imparare a lavorare con le sue nuove protesi cognitive, dallo stilo al rotolo di pergamena fino allo smartphone. La novità sta nella velocità e nell’intimità dello scambio: gli strumenti imparano da noi mentre noi impariamo da loro. Una gestione etica della tecnologia, oggi, vuol dire assicurarsi che le capacità che ci rendono umani – il giudizio, l’immaginazione, la comprensione – restino vive dentro di noi. Se c’è una competenza che non possiamo permetterci di perdere, è capire quali contano davvero. ◆ fs

Dan Saelinger, Trunk archive
Bartholomew Cooke, Trunk archive

Il futuro del sapere dipenderà non solo da quanto efficaci sono i nostri strumenti, ma anche da quanto saremo bravi a pensare insieme a loro

David Arky, Trunk Archive

Lo scopo è conservare una qualche forma di competenza, in modo che, se un sistema s’inceppa, gli esseri umani possano salvarsi

Aiuto intelligente
Risposta alla domanda: “In quali compiti specifici l’ia è più utile?”. Sondaggio condotto nel 2024 negli Stati Uniti, % di risposte (a. bick, a. blandin, d. deming, cepr)

I lavori del futuro
Le disparità aumenteranno

◆ I dirigenti delle aziende di intelligenza artificiale (ia) promettono una rivoluzione che renderà tutti più produttivi e darà più opportunità ai lavoratori meno qualificati. “Ma i primi dati sull’introduzione dell’ia raccontano una storia diversa”, spiega l’Economist. Negli impieghi che prevedono compiti complessi, questa tecnologia è destinata ad amplificare le disparità. Per sfruttare davvero l’ia servono grandi competenze di valutazione, possedute di solito da chi ha già un livello di preparazione alto. Le mansioni ripetitive svolte dai lavoratori meno qualificati rischiano di essere automatizzate, mentre per un uso avanzato l’ia premia soprattutto chi sa interpretarla criticamente. Un esempio arriva dal Kenya: in un esperimento, gli imprenditori più affermati hanno aumentato i profitti grazie ai consigli dell’ia, mentre quelli alle prime armi li hanno visti diminuire perché applicavano in modo acritico suggerimenti generici. Questa dinamica riguarda anche altri settori: nella finanza solo gli investitori esperti traggono reali vantaggi dall’analisi assistita dall’ia; negli studi legali l’automazione delle mansioni di routine spinge i giovani avvocati a svolgere compiti articolati, ma solo i più abili riescono davvero a orientarsi tra i suggerimenti della macchina.


l’autore Kwame Anthony Appiah è uno scrittore angloghaneano. Insegna legge e filosofia alla New York university ed è un opinionista del New York Times. Il suo ultimo libro pubblicato in Italia è La menzogna dell’identità (Feltrinelli 2019).

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1642 di Internazionale, a pagina 44. Compra questo numero | Abbonati