Nel 1965 Herbert Simon, uno dei fondatori della nuova scienza dell’intelligenza artificiale (Ai), scrisse: “Nel giro di vent’anni le macchine saranno in grado di svolgere qual­siasi lavoro oggi svolto dall’uomo”. Ovviamente si sbagliava, ma forse era solo una questione di tempi.

Se oggi, a distanza di cinquantacinque anni dalla sua osservazione, Simon riuscisse a vedere di cosa sono capaci le macchine informatiche, certamente anche lui ne rimarrebbe sbalordito. Un singolo smart­phone contiene più potenza di calcolo di tutti i computer del 1965 messi insieme. Molte delle argomentazioni filosofiche che negli anni sessanta e settanta mettevano in dubbio la possibilità dell’Ai si sono frantumate davanti al progresso tecnologico. Nel 1965 il filosofo Hubert Dreyfus sentenziò: “Nessun programma di scacchi è capace di giocare a scacchi, nemmeno a livello amatoriale”; all’epoca era vero, ma poco dopo si sarebbe rivelato falso. Quando nel 1997 il programma dell’Ibm Deep Blue ha battuto il campione di scacchi Garry Kasparov, l’idea che il gioco degli scacchi a livello mondiale fosse al di là delle capacità dei computer è definitivamente tramontata. Recentemente Kasparov ha osservato: “Oggi chiunque può acquistare un programma di scacchi per computer portatile e battere Deep Blue abbastanza facilmente”. Anche la convinzione diffusa secondo cui i computer non sarebbero mai riusciti a utilizzare le loro conoscenze acquisite come gli esseri umani è stata smentita nel 2011 dal programma Watson, dell’Ibm, che ha vinto il premio da un milione di dollari del quiz tv statunitense Jeopardy! battendo i migliori concorrenti umani.

Nel nostro modo di pensare c’è un pieno coinvolgimento emotivo e di valore verso il mondo stesso. I computer non hanno nulla di tutto questo

Gli scettici sostenevano che i computer non sarebbero mai stati in grado di riconoscere i volti umani o il linguaggio, di tradurre il parlato in testo o di convertire la scrittura manuale in testo stampato. I telefoni di oggi possono fare tutte queste cose. Dreyfus si era preso bonariamente gioco dell’intelligenza artificiale citando un fantasioso articolo di giornale del 1968 su “una nuova idea regalo, un vero computer (anche se piccolo) del costo di circa 20 dollari. Funziona a batteria, sembra una macchina da scrivere portatile. Ma può essere programmato come qualsiasi computer per tradurre lingue straniere, diagnosticare malattie, perfino fare previsioni meteorologiche”. Quella che sembrava una previsione fantascientifica è diventata la nostra realtà quotidiana.

L’affermazione di Simon si è rivelata sbagliata, ma solo di qualche decennio. I progressi dell’intelligenza artificiale, cioè della tecnologia che fa funzionare i nostri smartphone, sono stati incredibili. Questi progressi sono stati resi possibili in parte dagli sviluppi dell’hardware (in particolare dalla maggiore velocità e miniaturizzazione dei microprocessori) e in parte dall’accesso a grandi quantità di dati su internet, due fattori che né Simon né Dreyfus potevano prevedere. Ecco perché c’è ancora un ottimismo diffuso sulle prospettive dell’Ai. Molti ritengono che l’intelligenza artificiale sia in grado di produrre non solo i dispositivi “smart” che già dominano le nostre vite, ma vere e proprie macchine pensanti. Nessuno dice che queste macchine esistono già, ovviamente, ma molti filosofi e scienziati sostengono che ci siamo vicini.

Per arrivarci bisognerà sviluppare quella che i ricercatori chiamano “intelligenza artificiale generale” (artificial general intelligence, Agi). A differenza di una capacità specifica – come quella di Deep Blue di giocare a scacchi – l’Agi è la capacità generale di applicare l’intelligenza a una gamma illimitata di problemi nel mondo reale: qualcosa di simile all’intelligenza umana. Il filosofo David Chalmers assicura che “l’intelligenza artificiale generale è possibile, anche se ci sono molte montagne che dobbiamo scalare prima di arrivare a un’Agi al livello di quella umana”. I filosofi John Basl ed Eric Schwitzgebel, ancora più ottimisti, sostengono che “probabilmente presto avremo un’intelligenza artificiale cognitivamente paragonabile a quella dei cani”.

L’entusiasmo intellettuale per la possibilità dell’Agi si accompagna alle enormi somme investite per farla diventare una realtà. A luglio del 2019, la Micro­soft ha investito un miliardo di dollari nella Open­Ai di Sam Altman, una società a scopo di lucro che mira a utilizzare l’intelligenza artificiale a “beneficio dell’umanità nel suo insieme”. Nel 2014 l’azienda britannica Deep Mind, guidata dallo scienziato informatico e neuroscienziato Demis Hassabis, è stata acquistata da Google per 500 milioni di dollari. Il software più famoso prodotto dalla Deep Mind fino a oggi è il programma AlphaGo, che nel 2016 ha sconfitto Lee Sedol, campione mondiale dell’antico gioco del go. Il go è molto più complesso degli scacchi – secondo qualcuno è il gioco più complesso che sia mai stato inventato – e non è stato mai possibile applicare al go i metodi standard d’intelligenza artificiale usati per gli scacchi. I metodi di calcolo usati da AlphaGo vengono spesso pubblicizzati come una delle chiavi per “risolvere l’intelligenza”, come dice la stessa pubblicità di Deep Mind.

Brian Cantwell Smith è un affermato professionista del settore, e il suo nuovo, provocatorio libro _The promise of artificial intelligence _è una dichiarazione di scetticismo verso le più recenti previsioni sull’intelligenza artificiale. La tesi generale di Smith si basa su una distinzione tra il “calcolo” e il “giudizio”. Il calcolo è inteso nel suo senso etimologico originale: la capacità di svolgere operazioni aritmetiche come la somma e la sottrazione. Il giudizio, invece, è qualcosa di più. È descritto da Smith come “una capacità o un impegno sistemico e globale, che coinvolge l’intero impegno dell’intero sistema verso il mondo intero”. Nel nostro modo di pensare c’è non solo una sorta di rappresentazione una tantum delle cose che ci circondano, ma un pieno coinvolgimento emotivo e di valore verso il mondo stesso. I computer non hanno nulla di tutto questo. Come diceva il filosofo John Haugeland (che ha avuto una grande influenza su Smith), “ai computer non gliene frega niente”. Che gliene freghi qualcosa è una precondizione del “giudizio” nel senso in cui lo intende Smith, e qualsiasi cosa che somigli a una vera Agi dovrebbe esercitare il giudizio, e non il mero calcolo.

davide bonazzi

Smith parte da una breve e chiara panoramica delle due fasi principali della storia dell’intelligenza artificiale. La prima fase, cominciata negli anni sessanta, è caratterizzata da quella che Haugeland chiamava intelligenza artificiale vecchia maniera (good old-fashion­ed Ai, Gofai), che risolveva problemi computazionali usando esplicite rappresentazioni di princìpi generali e applicandole a situazioni particolari come una dimostrazione matematica o l’esposizione di un’argomentazione logica. La seconda ondata dell’Ai, che cominciò a emergere negli anni ottanta, partiva per così dire dall’estremo opposto, traendo conclusioni generali da una grande quantità di dati. Questo tipo di approccio, chiamato apprendimento automatico, machine learning o deep learn­ing, ha avuto molto successo in una serie di aspetti sui quali la Gofai lasciava molto a desiderare, come il riconoscimento di modelli o l’aggiornamento delle conoscenze sulla base di nuovi input.

La prima intelligenza artificiale, com’è stato più volte sostenuto, parte da un fraintendimento sulla natura del pensiero. In realtà, è l’obiezione, solo una piccola parte del pensiero è assimilabile al calcolo o alla dimostrazione di teoremi. Smith si spinge ancora più in là: “Il problema più profondo”, spiega, “è che il fraintendimento è sul funzionamento del mondo”. La Gofai presuppone che “il mondo sia suddiviso in oggetti discreti”, cioè costituito da elementi isolati, dunque analizza il ragionamento nei suoi singoli componenti usando la logica formale (il concetto fondamentale su cui si basa l’informatica moderna). Secondo Smith, la teoria della cosiddetta prima ondata parte dal presupposto che il mondo sia strutturato nel modo in cui la logica struttura il linguaggio: gli oggetti corrispondono ai nomi, le proprietà corrispondono ai predicati o ai complementi. Le cose s’incastrano nel mondo come i simboli s’incastrano in un linguaggio logico. Smith sostiene che questo è uno dei motivi principali per cui il progetto Gofai ha fallito: non ha tenuto conto del “mondo meravigliosamente ricco e disordinato in cui abitiamo”, che non si presenta in una forma prestabilita, suddivisa in oggetti.

L’intelligenza artificiale della seconda ondata, secondo Smith, non commette questo errore. Poiché non parte da una struttura predeterminata del mondo, dice Smith, è riuscita a fare progressi dove la Gofai ha fallito: in particolare, nel riconoscimento facciale, nell’elaborazione del testo e (soprattutto) nel gioco del go. La caratteristica distintiva delle macchine per l’apprendimento automatico è la loro capacità di rilevare modelli da grandi (a volte enormi) quantità di dati. Le macchine “apprendono” ricevendo un’indicazione dal programmatore su quali sono i modelli importanti e dopo un po’ riescono a produrre risultati sorprendenti. I programmi d’intelligenza artificiale di prima generazione, invece, tentavano di anticipare quale dovesse essere la risposta agli input del mondo reale in ogni situazione immaginabile. La loro operatività era circoscritta ad ambienti precostituiti e molto limitati, a volte chiamati “micromondi”.

Secondo Smith, però, non dobbiamo farci troppe illusioni sulla capacità dell’Ai di seconda generazione di arrivare all’Agi. È vero che l’apprendimento automatico non si basa su regole generali che formulano ipotesi ontologiche, ma parte comunque da dati già elaborati dall’uomo (per esempio cose che classifichiamo come volti o come traffico stradale a un incrocio). Buona parte dell’apprendimento automatico, osserva Smith, “consiste nel classificare gli input secondo categorie di origine e utilità umana”. Quindi, anche se sono più sensibili al mondo disordinato, i sistemi d’intelligenza artificiale di seconda generazione sono ancora legati alle classificazioni della realtà fatte dai programmatori.

Smith ha sicuramente ragione sul fatto che i recenti progressi dell’Ai ci danno ben pochi motivi per credere nella possibilità di vere e proprie macchine pensanti. La sua distinzione tra calcolo e giudizio è un tentativo importante d’individuare quel che manca nei modelli d’intelligenza artificiale. Per molti versi (anche se lui sostiene il contrario) Smith fa eco alle critiche di Dreyfus e altri sul fatto che l’intelligenza artificiale non potrà mai sviluppare un pensiero autentico a meno che non riesca in qualche modo ad afferrare quello che noi chiamiamo il “buonsenso”. E se il buonsenso sfugge alle “regole e rappresentazioni” della Gofai, non può neanche essere capito attraverso grandi calcoli paralleli che ricavano modelli a partire dai dati. Per sostenere questo punto, Smith in realtà non ha bisogno di ricorrere alle affermazioni ontologiche più ambiziose, per esempio che il mondo non ha divisioni naturali, che ogni classificazione è il frutto di un interesse umano e così via. Queste affermazioni forse sono vere e forse no; i filosofi ci si accapigliano da secoli e sicuramente vale la pena di discuterne. Ma non c’è bisogno di farlo per constatare l’implausibilità di fondo dell’idea che l’Agi sia all’orizzonte.

Questa implausibilità deriva da un elemento intrinseco al progresso stesso dell’intelligenza artificiale. Perché nonostante la raffinatezza dell’apprendimento automatico, resta il fatto che, come gli scacchi, il go è pur sempre un gioco. Ha una serie di regole e un esito chiaro, che è l’obiettivo dei giocatori. I sistemi di apprendimento automatico sono usati per raggiungere un obiettivo ben definito (vincere la partita) il cui significato può essere spiegato prima ancora di accendere la macchina. Lo stesso vale per i software di riconoscimento vocale e facciale. C’è uno scopo o un obiettivo chiaro – riconoscere le parole e i volti – e la capacità o meno di raggiungere questo obiettivo è l’input che aiuta ad addestrare la macchina.

davide bonazzi

Ma quale potrebbe essere l’obiettivo dell’“intelligenza generale”? Come possiamo caratterizzare in termini astratti i problemi che l’intelligenza generale sta cercando di risolvere? Credo che nessuno – nel campo dell’Ai, della filosofia o della psicologia – sappia come rispondere a questa domanda. Non perché sia una domanda particolarmente difficile, ma perché non è una domanda di buonsenso. Qualcuno potrebbe dire, nello spirito di Herbert Simon (il cui famoso programma d’intelligenza artificiale si chiamava General problem solver, risolutore generale di problemi), che l’intelligenza generale è la capacità generale di risolvere problemi cognitivi. Il che va bene finché non ci chiediamo come sia possibile identificare, in termini generali, i problemi cognitivi che risolviamo usando la nostra intelligenza. Come possiamo dire, in termini generali, quali sono questi problemi?

Pensiamo per esempio alle difficoltà che incontriamo quando proviamo a impostare una conversazione vera e propria con un computer. Gli assistenti vocali come Siri e Alexa sono molto bravi a riconoscere il discorso e sintetizzare le risposte, ma dopo pochi scambi il loro repertorio si esaurisce e si arriva a una risposta preconfezionata (“ecco alcune pagine che ho trovato sul web”). Uno dei motivi, chiaramente, è che la conversazione non è un’attività con uno scopo facilmente comprensibile, quindi il compito di Siri o di Alexa non può essere definito in anticipo. Se l’obiettivo della conversazione fosse quello di trovare informazioni su un argomento, indirizzare a un sito web con informazioni pertinenti sarebbe un modo affidabile per raggiungere questo obiettivo. Ma ovviamente questa non è l’unica cosa a cui dedichiamo la nostra intelligenza quando parliamo con gli altri.

Qual è, allora, l’obiettivo generale della conversazione? Sono molti: parliamo per passare il tempo, per esprimere le nostre emozioni, i nostri sentimenti e i nostri desideri, per saperne di più sugli altri, per divertimento, per educazione, per spiegare le cose, per fare soldi. Ma se la conversazione non ha un unico obiettivo, è ancora meno probabile che ce l’abbia l’intelligenza generale. Non c’è da meravigliarsi, quindi, che i ricercatori dell’Ai abbiano difficoltà anche solo a definire qual è il campo d’applicazione dell’Agi.

Come mostra il libro di Smith, le affermazioni sulla possibilità dell’Agi trascurano le enormi differenze tra gli aspetti relativamente ben definiti in cui l’Ai ha avuto successo e l’ambito assai poco definito dell’intelligenza generale. Questo è, di per sé, un motivo sufficiente per essere scettici sulla possibilità che l’intelligenza artificiale di oggi arrivi all’Agi.

Ho però il sospetto che molti coltivino ancora l’idea che l’Agi sia una possibilità reale, e che la differenza tra il vero pensiero umano e quello che fanno i computer sia solo una questione di complessità. Cosa c’è dietro questa convinzione? L’idea è che dal momento che il cervello umano è solo una macchina biologica (e quindi materiale) complessa, in linea di principio dovrebbe essere possibile riprodurre artificialmente ciò che fa il cervello umano (pensare, percepire, sentire, immaginare, essere cosciente ecc.) costruendo qualcosa che funziona esattamente allo stesso modo. Quella che avremo costruito, dunque, sarà una versione artificiale dei nostri processi mentali: un’intelligenza artificiale generale.

Questa tesi si basa su due assunti: in primo luogo, che il pensiero e altri processi mentali abbiano luogo nel cervello; secondo, che il cervello sia un meccanismo. Se riuscissimo a scoprire i princìpi che lo fanno funzionare, dicono i sostenitori della tesi, e avendo la tecnologia adeguata, potremmo costruire una macchina capace di applicare tutti quei princìpi. Uno dei pionieri dell’apprendimento automatico, Yoshua Bengio, spiega: “Non so quanto tempo ci vorrà, ma il cervello umano è una macchina. È molto complesso, ma non c’è motivo di credere che in futuro non saremo in grado di capirne tutti i princìpi”.

Ovviamente, costruire una copia artificiale di un cervello umano è ancora un’ipotesi remota. Ma se è vero che siamo fondamentalmente entità materiali – cioè che se ci spogliamo interamente della nostra materia di noi non rimane più nulla – allora questo tipo di duplicazione della mente sembra possibile. Supponiamo, quindi, che un brillante scienziato del futuro riesca a replicare in una costruzione artificiale tutto quello che fanno una persona e il suo cervello. Ovviamente questa replica sarebbe anche in grado di pensare, perché le persone pensano. È innegabile che realizzare una replica artificiale di una persona e di tutte le sue caratteristiche significherebbe creare un’intelligenza artificiale nel senso più ovvio del termine, semplicemente perché l’intelligenza è una delle caratteristiche della persona.

La domanda è: cosa c’entra questo con l’intelligenza artificiale? Se per sviluppare un vero pensiero artificiale prima bisogna scoprire come funziona il cervello, allora il lavoro dei ricercatori dell’Ai sarebbe quello di capire come funziona il cervello o la mente, cioè quello che fanno i neuroscienziati o gli psicologi. Ma non è così che operano i ricercatori dell’Ai. Per lo stesso motivo per cui non serve copiare il volo di un uccello per far volare un aeroplano, gli inventori dell’Ai non si sono posti il problema di copiare il funzionamento del cervello umano. E anche se i sistemi di apprendimento automatico usano quelle che sono chiamate “reti neurali”, la somiglianza con il cervello qui è a un livello molto astratto. In realtà, molti pionieri dell’apprendimento automatico si pongono domande piuttosto astratte sull’intelligenza generale – Bengio dice che il suo obiettivo è “comprendere i princìpi generali dell’intelligenza” – più che occuparsi della spinosa questione dell’effettivo funzionamento del cervello umano.

Questa mancata focalizzazione su come funziona il cervello umano risale agli inizi dell’Ai, ed è stata chiaramente uno dei suoi punti di forza. Ignorando la complessità del pensiero umano, l’intelligenza artificiale è stata in grado di far risolvere alle macchine problemi complessi senza doversi preoccupare di come li avremmo risolti noi. Watson, spiega il sito dell’Ibm, “non è vincolato dal volume o dalla memoria. È in grado di leggere milioni di documenti non strutturati in pochi secondi”. Noi non ne saremmo capaci. Per addestrare AlphaGo sono servite milioni di partite a go, “molte di più di quelle che servirebbero a un uomo per diventare campione di go”, come ha osservato lo scienziato cognitivo (nonché scettico) Gary Marcus. Quali che siano i motivi del successo di queste macchine, insomma, la somiglianza con il pensiero umano non c’entra. Non si capisce, quindi, perché l’Ibm sostenga che Watson è “costruito per rispecchiare lo stesso processo di apprendimento che abbiamo noi, una struttura cognitiva comune che gli umani usano per dare forma alle loro decisioni”.

L’intelligenza artificiale in realtà non si basa su nessuna ricerca psicologica o neuroscientifica dettagliata. Quindi il fatto che il cervello sia un meccanismo materiale che può, in linea di principio, essere replicato artificialmente non dà alcun fondamento all’idea che l’Ai, per com’è strutturata, possa dare vita a una intelligenza artificiale generale. In effetti, dato il modo in cui l’Ai si è effettivamente sviluppata, in splendido isolamento dalle neuroscienze, è probabile che qualsiasi tentativo di replicare il funzionamento del cervello richiederebbe princìpi molto diversi da quelli tradizionalmente usati dall’Ai. Dire questo serve solo a sottolineare il fatto ovvio che l’Ai non è, e non è mai stata, una teoria del pensiero umano.

Le discussioni filosofiche e scientifiche sull’intelligenza artificiale si sono orientate verso uno dei due estremi: c’è chi ritiene che le macchine per il pensiero artificiale siano all’orizzonte e chi invece pensa che siano impossibili anche solo in linea di principio. Nessuno dei due approcci è del tutto corretto. Da un lato, come hanno spiegato Smith, Marcus e altri, i recenti progressi nell’intelligenza artificiale non giustificano in alcun modo l’ottimismo sull’Agi. D’altra parte, è difficile negare l’affermazione filosofica astratta secondo cui se si riuscisse a replicare un cervello umano in modo tale da produrre un sistema che fa tutto quello che fa il cervello, quel sistema sarebbe una “macchina pensante”, nel vero significato del termine. Tuttavia, questa possibilità non implica che l’intelligenza artificiale di oggi sia vicina alla creazione di autentiche macchine in grado di pensare. Al contrario: più si esamina la possibilità da vicino, più si capisce perché probabilmente l’intelligenza artificiale non ci riuscirà mai. ◆ fas

Tim crane

è professore di filosofia alla Central european university. Questo articolo è uscito sul Times Literary Supplement con il titolo Computers don’t give a damn.

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1363 di Internazionale, a pagina 88. Compra questo numero | Abbonati