Quella dei tulipani in Olanda è la bolla finanziaria più celebre, ma come esempio storico è fuorviante. L’irrazionalità della situazione, infatti, era sotto gli occhi di tutti. Nel 1637, nel pieno dell’euforia, i tulipani più rari arrivarono a toccare prezzi tali che un solo bulbo poteva valere quanto una prestigiosa dimora sui canali di Amsterdam. Non bisogna essere Warren Buffett per capire che lo scollamento tra prezzo e valore era frutto di un delirio collettivo.

La maggior parte di questi casi non è così. Perfino la bolla dei Mari del sud, l’evento che ha dato il nome a questi fenomeni speculativi, aveva una sua logica di fondo, perché l’espansione delle reti globali del commercio e del capitale è stata senza dubbio un passaggio straordinariamente redditizio. Nonostante ciò, gli investitori di quella prima bolla (compreso Isaac Newton, che ne aveva intuito la natura speculativa ma si lasciò travolgere dall’entusiasmo) finirono rovinati. Lo schema ricorrente è che una grande e autentica innovazione appare all’orizzonte e la gente tenta di approfittarne riversandoci sopra fiumi di denaro. Troppo denaro. Talmente tanto che diventa impossibile investire il capitale in modo corretto, quindi sfumano i confini tra probabile e impossibile, tra prudenza e azzardo, tra ciò che potrebbe accadere e ciò che non accadrà mai. Dopo l’ondata di capitali arrivano i dubbi; dopo i dubbi, il crollo; dopo il crollo, si consolida a poco a poco il fenomeno che aveva acceso l’entusiasmo iniziale. È accaduto con la bolla dei Mari del sud, con la febbre delle ferrovie di metà ottocento, con la corsa all’elettrificazione cinquant’anni più tardi e con la bolla delle dot-com all’inizio di questo secolo.

Ecco dove ci troviamo oggi con l’intelligenza artificiale (ia). Nel lontano 2018 la Apple è stata la prima impresa quotata al mondo a superare la soglia dei mille miliardi di dollari di capitalizzazione. Oggi le dieci aziende più grandi del mondo valgono tutte più di mille miliardi di dollari. Tra queste, solo la Aramco, azienda saudita monopolista del petrolio, non è legata al valore futuro dell’intelligenza artificiale. Al primo posto c’è la Nvidia, che vale 4,45 migliaia di miliardi di dollari. Non a caso, la sua quotazione rappresenta la scommessa più diretta sull’impatto dell’intelligenza artificiale. I grandi gruppi si prestano denaro a vicenda in schemi circolari, sostenendo fatturati e valutazioni. Enormi flussi di capitali si riversano nel settore. È una bolla? Certo che è una bolla. Le domande fondamentali sono: come ci siamo arrivati? E adesso che succede?

La storia, tra le altre cose, è anche il racconto delle due principali, archetipiche tipologie maschili dell’era tecnologica: immigrati dal curriculum accademico brillante (Elon Musk, Sergey Brin, Sundar Pichai, Satya Nadella) e studenti nati negli Stati Uniti che hanno abbandonato l’università (Steve Jobs, Bill Gates, Mark Zuckerberg). Le aziende fondate o guidate da questi uomini sono la prima, la seconda, la terza, la quarta, la quinta e la settima al mondo per capitalizzazione di mercato. Il loro valore complessivo ammonta a 20,94 migliaia di miliardi di dollari, un sesto dell’intera economia mondiale.

Cominciamo dal momento chiave. Nella primavera del 1993, tre nerd si presentarono da un avvocato della Silicon valley con l’intenzione di fondare un’azienda di microprocessori. Erano Curtis Priem, Chris Malachowsky e l’amministratore delegato in pectore, Jensen Huang, un ingegnere elettrico nato a Taiwan con un talento naturale per il management e gli affari. Malachowsky e Priem, come racconta Stephen Witt in La macchina pensante, avevano competenze complementari: uno progettava chip, l’altro li costruiva. L’idea era creare un nuovo tipo di processore ottimizzato per un settore in grande crescita, quello dei video­giochi. Al loro titolare, la grande azienda di semiconduttori Lsi Logic, la proposta non era piaciuta, così i tre avevano buttato giù un piano d’impresa in un fast food della catena Denny’s aperto 24 ore su 24. Secondo Huang non valeva la pena di lanciare una nuova impresa a meno che non ci fosse la prospettiva concreta di fatturare almeno 50 milioni di dollari l’anno. Dopo lunghe sedute di calcoli su fogli elettronici al Denny’s, finalmente riuscì a far quadrare i conti. I tre amici si presentarono allora da Jim Gaither, avvocato molto noto nella Silicon valley, che compilò le pratiche registrando la società come Nv, acronimo di New venture, “nuova impresa”. A Malachowsky e Priem l’idea piacque moltissimo: avevano giocato dei nomi che suggerivano che il loro chip avrebbe fatto invidia ai concorrenti. La coincidenza era troppo ghiotta per lasciarsela sfuggire. Scelsero Nvision. Ma quando l’avvocato scoprì che il nome era già registrato optarono per il piano B: Nvidia.

Sia la scelta dell’amministratore delegato sia quella del nome si sarebbero rivelate azzeccate. Un terzo di secolo più tardi, Huang è l’amministratore delegato di più lungo corso nel settore e la Nvidia è l’azienda che vale di più al mondo. La sua quota sulla capitalizzazione dei mercati globali non ha precedenti: le azioni della Nvidia pesano sugli indici mondiali più dell’intero mercato azionario britannico.

Huang non aveva avuto una vita facile. Era arrivato negli Stati Uniti nel 1973, a nove anni. Era un bambino minuto per la sua età e non parlava quasi una parola d’inglese. I genitori, originari della città di Tainan e di lingua hokkien, emigrati poi a Bangkok, avevano provato a insegnare l’inglese a lui e ai suoi fratelli facendogli imparare a memoria dieci parole al giorno, scelte a caso dal dizionario. Convinti per errore che fosse un collegio prestigioso, lo avevano iscritto all’Oneida baptist institute, in Kentucky, una scuola-riformatorio per ragazzi difficili che il sistema scolastico statunitense non riusciva a gestire. Per via del suo rendimento, fu inserito in una classe con ragazzi più grandi di un anno. Non c’era modo migliore per farlo diventare un bersaglio dei bulli. La prima notte il suo compagno di stanza si sollevò la maglietta per fargli vedere le cicatrici lasciate dalle coltellate. Huang, che durante le vacanze restava a scuola perché non aveva un altro posto dove andare, fu incaricato di pulire i bagni.

Potrebbe sembrare la classica storia di privazioni, ma Huang non la racconta così. Ricorda che insegnò al compagno di stanza a leggere, e lui in cambio gli insegnò a fare cento flessioni al giorno. I bulli smisero di cercare di buttarlo giù dal ponte di corde che doveva attraversare per andare a scuola. Huang dice che quell’esperienza l’ha temprato, e in un discorso del 2020, scrive Witt, “ha raccontato che il periodo passato in quella scuola è stato una delle cose migliori che gli siano mai capitate”. Dopo due anni in Kentucky si trasferì in Oregon, dove nel frattempo erano emigrati i suoi genitori. Lì frequentò scuola e università, si sposò e poi cominciò la sua carriera alla Amd, azienda di progettazione di microchip della Silicon valley. Dopo diverse promozioni e un cambio di lavoro, incontrò Malachowsky e Priem alla Lsi.

La nuova avventura dei tre non ebbe un successo immediato. C’erano almeno trentacinque aziende in corsa per costruire un chip specializzato per i videogiochi, ed era chiaro che molte sarebbero finite a gambe all’aria. Il loro primo processore, l’Nv1, fu un disastro, e per un momento sembrò che anche la Nvidia avesse i giorni contati. “Le sbagliammo tutte”, ricorda Huang, “ogni nostra decisione era sbagliata”. Licenziò gran parte dei dipendenti e puntò tutto sul progetto del chip successivo, l’Nv3 (l’Nv2 era stato cancellato prima del lancio).

Christian Dellavedova

Invece di costruire il chip nel modo tradizionale (non potevano permetterselo, sarebbero rimasti senza soldi prima di finirlo) usarono un emulatore, una macchina che riproduce via software il comportamento di un chip in silicio per testarlo virtualmente. Il primo prototipo fisico dell’Nv3 fu sottoposto a un test decisivo: se anche uno solo dei suoi 3,5 milioni di transistor non avesse funzionato, il chip sarebbe stato inutilizzabile e la Nvidia sarebbe sparita dalla circolazione. I transistor funzionarono, e l’azienda rimase in piedi. “Ancora oggi siamo i maggiori utilizzatori di emulatori del mondo”, dice Huang.

Era il 1997 e Huang aveva già vinto due grandi scommesse: la prima sulla fame dei videogiochi per i miglioramenti nella grafica, la seconda sull’emulatore. Poi ne ha fatte altre tre. La prima è stata quella del parallel processing o “elaborazione parallela”. Un chip tradizionale, come quello del portatile su cui sto scrivendo, funziona con una cpu (unità di elaborazione centrale) che esegue operazioni in sequenza. Man mano che i chip sono diventati più potenti sono aumentate anche la lunghezza e la complessità dei calcoli. I chip, però, erano diventati così piccoli da cominciare a scontrarsi con le leggi della fisica.

L’elaborazione parallela, invece, esegue i calcoli non in sequenza, ma in simultanea. Anziché affrontare un’unica grande operazione dall’inizio alla fine, ne svolge moltissime, più piccole, tutte nello stesso momento. Su YouTube, un video dei MythBusters, un’esuberante coppia di divulgatori scientifici statunitensi, mostra la differenza tra i due sistemi durante una conferenza della Nvidia del 2008. Nel video, i MythBusters montano una pistola robotica che spara palline di vernice contro una tela. Il primo test imita il funzionamento di una cpu: la pistola spara una rapida sequenza di palline blu, correggendo la mira dopo ogni colpo per disegnare una faccina sorridente. L’operazione dura una trentina di secondi. Finito il primo test, i due preparano un’altra pistola robotica, capace di sparare 1.100 palline contemporaneamente. Un colpo secco, e in una frazione di secondo – ottanta millisecondi, per la precisione – sulla tela appare una versione paintball della Gioconda. Quel quadro istantaneo era la metafora visiva del funzionamento dei nuovi chip: non più calcoli giganteschi eseguiti uno dopo l’altro, ma un’enorme quantità di microcalcoli fatti tutti insieme. Elaborazione parallela.

L’industria dei videogiochi s’innamorò dei nuovi chip e pretese un aggiornamento ogni sei mesi, per gestire e renderizzare ambienti di gioco sempre più complessi e dettagliati. Tenere il passo con quell’appetito era impegnativo e costoso, ma consentì alla Nvidia di raggiungere una posizione dominante nel settore dei chip. In Nvidia e il genio di Jensen Huang, Tae Kim racconta della determinazione di Huang a rimanere sempre un passo avanti alla concorrenza. “La caratteristica numero uno di qualsiasi prodotto è la tabella di marcia”, dice Huang, sottolineando la differenza tra l’eleganza ingegneristica e l’approccio della Nvidia, tutto basato sul terminare il progetto e consegnarlo.

A quel punto i chip della Nvidia erano così potenti che sembrava assurdo usarli solo per far collegare le persone online per spararsi addosso in scenari fantascientifici sempre più complessi. Così Huang lanciò un’altra delle sue scommesse. Fece sviluppare all’azienda un nuovo tipo di architettura di chip a cui diede un nome volutamente criptico: cuda, acronimo di compute unified device architecture.

Il termine in sé non significava molto, e non era un caso: Huang non voleva che la concorrenza capisse cosa stava preparando. Gli ingegneri della Nvidia stavano sviluppando un nuovo tipo di architettura per un nuovo tipo di utenti: “Medici, astronomi, geologi e altri scienziati, specialisti molto qualificati nei loro campi, ma che magari non sapevano programmare in codice”. Per descrivere il funzionamento di una cpu, Witt usa la metafora del coltello da cucina: “Uno splendido utensile multifunzione, capace di qualsiasi tipo di taglio. Può tagliare alla julienne, tritare, affettare, dadolare o sminuzzare… ma può lavorare sempre e solo una verdura alla volta”. Il processore di Nvidia, che l’azienda ormai chiamava gpu, graphics processing unit (unità di elaborazione grafica), era più simile a un robot da cucina: “È rumoroso, è poco delicato e consuma tanta energia. Non ci puoi preparare una chiffonade di dragoncello o incidere un calamaro a griglia. Ma se devi tritare tante verdure velocemente, lo strumento da usare è la gpu”. L’architettura cuda prese quello stesso strumento e lo reinventò per un nuovo pubblico. In pratica, erano i videogiocatori a finanziare i costi di sviluppo dei chip destinati agli scienziati che, secondo Huang, sarebbero venuti a bussare alla porta, secondo il principio “costruiscilo, prima o poi i clienti arriveranno”.

Gli scienziati però non vennero a bussare alla porta, o almeno non in numero sufficiente da trasformare la cuda in un successo. La domanda rimase al palo, e così il titolo dell’azienda in borsa. Nella storia della tecnologia abbondano gli esempi d’invenzioni in attesa della loro killer app, un’applicazione o una funzione capace, da sola, di dare a quella tecnologia una finalità a cui è impossibile rinunciare. La killer app del personal computer, per esempio, è stata il foglio di calcolo: da un giorno all’altro è arrivata una nuova tecnologia che permetteva di giocare con numeri e parametri e vedere cosa succedeva modificando a e b per arrivare a z. Non è un’esagerazione dire che i fogli di calcolo hanno reinventato il capitalismo negli anni ottanta, rendendo semplice simulare all’infinito scenari alternativi fino a trovare una soluzione sensata. I nuovi straordinari chip della Nvidia e l’architettura cuda erano in attesa della loro killer app.

La salvezza arrivò da un ramo dell’informatica all’epoca trascurato: le reti neurali. L’idea di fondo delle reti neurali era che i computer potessero imitare la struttura del cervello creando neuroni artificiali e collegandoli in reti. Le prime reti erano addestrate su sistemi di dati, etichettati, in cui la risposta per ogni immagine era già nota. La rete faceva una previsione, la confrontava con l’etichetta corretta e si correggeva usando un algoritmo. La svolta ci fu quando i ricercatori impararono ad addestrare le reti con neuroni artificiali multistrato: il cosiddetto deep learning (apprendimento profondo). Queste reti riuscivano a individuare schemi sempre più complessi nei dati, portando a progressi spettacolari nel riconoscimento delle immagini e in altri campi. Un tecnico informatico di Google, per esempio, “diede in pasto alla sua rete di deep learning un campione casuale di dieci milioni d’immagini tratte da YouTube e la lasciò libera di decidere quali schemi ricorrenti valesse la pena di ‘memorizzare’. Nel campione c’erano talmente tanti video di gatti che, senza alcun intervento umano, il modello sviluppò da solo un’immagine composita di un volto felino. Da quel momento in poi fu in grado di riconoscere i gatti anche in immagini che non facevano parte del set di addestramento”.

Christian Dellavedova

Si erano combinati tre elementi: algoritmi, dataset e hardware. Gli informatici avevano sviluppato i primi due. Il terzo lo portò la Nvidia, perché si dà il caso che l’elaborazione parallela dei suoi chip fosse perfettamente adatta al nuovo Eldorado del deep learning. La capacità di eseguire simultaneamente calcoli multipli, infatti, è esattamente ciò che definisce le reti neurali. Queste reti sono la tecnologia fondamentale di quello che un tempo si chiamava machine learning (apprendimento automatico) e che oggi è generalmente indicato come intelligenza artificiale (ma­chine learning è, a mio avviso, un termine più preciso e utile, ma questa è un’altra storia).

Il capo scienziato della Nvidia si chiamava David Kirk. Come ha raccontato a Witt, “con l’elaborazione parallela facemmo molta fatica a convincere Huang”. Con l’intelligenza artificiale, invece, rimase folgorato. “L’ha capito subito, prima di chiunque altro. È stato il primo a intuire dove potesse arrivare”.

Se le reti neurali potevano risolvere il problema dell’apprendimento visivo, ragionava Huang, allora potevano risolvere qualsiasi altra cosa. Un venerdì, inviò un’email a tutta l’azienda annunciando che la Nvidia non sarebbe stata più un’azienda di grafica. Un collega ricorda: “Il lunedì mattina, letteralmente, da un giorno all’altro, eravamo diventati un’azienda d’intelligenza artificiale”. Era il 2014. La quinta, e la più riuscita, delle cinque scommesse di Huang è quella che ha trasformato la Nvidia nel colosso planetario che conosciamo oggi.

Poco dopo, i nerd o comunque quelli che orbitavano nel loro mondo cominciarono a sentir parlare di intelligenza artificiale. Quando ero con persone che ne sapevano più di me di tecnologia ed economia, finivo spesso per fare domande tipo: “E ora cosa succede?”, oppure: “Qual è la prossima grande novità?”, e sempre più spesso la risposta aveva a che fare con l’ia. Ho il ricordo preciso di una conversazione con un investitore molto sveglio, pochi giorni dopo il voto sulla Brexit: gli chiesi cosa sarebbe successo secondo lui. I dettagli me li sono dimenticati perché stavamo bevendo dei Martini, ma il succo della risposta era che in Cina stavano facendo grandi progressi nell’intelligenza artificiale. La cosa che mi colpì di più fu che gli stavo chiedendo della Brexit, ma per lui l’ia era talmente più importante che non gli era passato per la testa che potessi riferirmi a qualcos’altro.

C’era però un aspetto frustrante in queste conversazioni, e praticamente in ogni cosa che leggevo sull’ia. Tutti erano convinti che sarebbe stata una cosa enorme, ma erano sempre avari di dettagli. C’era tanto fumo ma poco arrosto. Anche la clamorosa vittoria di un’ia, AlphaGo, sul campione del mondo di go, Lee Sedol, non mi aveva fatto né caldo né freddo. I giochi si svolgono all’interno di una serie di parametri fissi; proprio per questo, l’idea di risolverli tramite algoritmi non è, di per sé, così sconvolgente. Il primo vero assaggio delle nuove potenzialità l’ho avuto nell’insolita cornice di una stanza d’albergo a Kobe, nel novembre 2016. Mi aveva svegliato un messaggio in giapponese. Aprii il traduttore di Google, sperando almeno in una traduzione approssimativa, e invece mi trovai davanti a un avviso chiaro e completo: c’era appena stato un fortissimo tsunami al largo della costa di Hyogo, a pochi chilometri da Kobe. In fondo al testo c’era la buona notizia: “Questo è un messaggio di prova”. È così che ho conosciuto il nuovo sistema di traduzione basato su reti neurali di Google, che per una bizzarra coincidenza era stato lanciato in Giappone proprio quel giorno. Era stata la rete neurale a prendere il mio screenshot e a trasformare quei segni incomprensibili in un inglese ansiogeno. Era una dimostrazione eloquente di ciò che erano capaci di fare le reti neurali, ma, almeno per me, era anche un caso isolato. La mia vita quotidiana non si riempì all’improvviso di nuove prove della potenza dell’ia.

A farmi capire – a me come a buona parte del mondo – la forza e le potenzialità di questa nuova tecnologia è stato il lancio di Chat­Gpt, nel novembre 2022. Alla OpenAi, l’azienda che ha creato il software, lo consideravano una semplice nuova interfaccia per gli utenti. Invece si è rivelato il debutto più fortunato di sempre. L’intelligenza artificiale è passata in un attimo da un argomento di nicchia a una notizia da prima pagina, e da allora non ha più lasciato il centro della scena. Questo evento, che ha cambiato le regole del gioco, ci porta al secondo protagonista della storia: Sam Altman, cofondatore e capo della OpenAi.

Se Huang rappresenta il tipo uno del genio tecnologico contemporaneo – l’immigrato che eccelle negli studi – Altman incarna il tipo due: lo statunitense che abbandona l’università. Nato nel 1985, figlio di una dermatologa e di un agente immobiliare, Altman ha avuto l’infanzia tipica del ragazzino brillante della scuola fighetta della sua città, St Louis. Con una differenza: da adolescente ha dichiarato apertamente di essere gay e ne ha parlato davanti a tutta la scuola. Da lì è passato a Stanford, dove è stato contagiato dal virus delle startup. Al secondo anno ha lasciato gli studi per fondare un’app sociale basata sulla geolocalizzazione, Loopt. Il nome non significava nulla, ma in quegli anni le start­up di successo tendevano ad avere due “o” nel nome: Google, Yahoo, Facebook (e la tendenza continua: basta pensare a Goop, Noom, Zoopla e, la mia preferita, Gloo, la “piattaforma tecnologica che connette l’ecosistema della fede”. Prima o poi lancerò anch’io una startup per smascherare sciocchezze, e la chiamerò Boollocks, stroonzate).

Loopt è stata importante soprattutto perché ha aperto ad Altman nuove relazioni. Il suo mentore è stato Paul Graham, un mago del software angloamericano che dopo aver scritto un famoso manuale di programmazione aveva fatto fortuna vendendo una sua azienda web a Yahoo. Nel 2005 Graham e la moglie Jessica Livingston hanno lanciato un progetto chiamato Y Combinator, nella loro città, Cambridge, in Massachusetts. L’idea era semplice e rivoluzionaria: offrire finanziamenti, affiancamento e supporto alle startup. Si rivolgeva agli studenti più brillanti delle università, e l’idea era che invece di passare l’estate a frequentare un noiosissimo stage utile solo a lucidare il curriculum, potevano andare dalla Y Combinator, ricevere seimila dollari ed entrare in un vero e proprio campo di addestramento per startup, con Graham e la sua rete di contatti a fornire formazione, consigli e opportunità di relazione.

Christian Dellavedova

La Y Combinator ha avuto un enorme successo, e molte delle aziende passate da lì sono oggi nomi familiari del web: Airbnb, Reddit, Stripe, Dropbox. La lezione fondamentale dell’“acceleratore”, come si definisce la Y Combinator, è che il carattere e il talento contano più dell’idea specifica su cui si sta lavorando. L’esempio numero uno è stato proprio Sam Altman. Quando si è candidato per far parte della prima ondata di giovani selezionati dalla Y Combinator, Graham ha cercato di rimandarlo all’anno successivo, pensando che a diciannove anni fosse troppo giovane. Altman non ha accettato il rifiuto, rivelando una straordinaria forza di carattere. Per questo Graham ne è rimasto subito colpito. “Dopo circa tre minuti che parlavo con lui”, racconta, “ho pensato: ‘Ah, ecco com’era Bill Gates a diciannove anni’”. In un’altra occasione, però, Graham ha anche detto che “Sam è estremamente bravo a diventare potente”. E, nel caso il suo pensiero non fosse chiaro: “Puoi buttarlo col paracadute su un’isola piena di cannibali e se torni cinque anni dopo è diventato il re”.

Il vivace saggio Supremacy di Parmy Olson offre un ritratto sostanzialmente positivo di Altman, mentre Sam Altman l’ottimista di Keach Hagey, approfondito e lucido, è più ambiguo. Hagey presenta il commento di Graham come una battuta leggera, scherzosa, in fondo lusinghiera. Empire of ai di Karen Hao, più scettico, interpreta invece quelle stesse parole come la dimostrazione di un’ambizione senza princìpi così intensa da sfiorare la sociopatia. Questo dualismo di prospettive attraversa tutta la storia di Altman. In quasi ogni momento le sue azioni possono essere interpretate come innocue (anche se caratterizzate da una certa avversione al conflitto, che può dar luogo a incomprensioni) o lette in chiave più oscura. Perfino la sua infanzia apparentemente normale ha due versioni: la sua e quella della sorella Annie che nel 2021, sulla base di ricordi riaffiorati in terapia, ha scritto su Twitter di aver “subìto abusi sessuali, fisici, emotivi, verbali, finanziari e tecnologici da parte dei miei fratelli biologici, soprattutto Sam Altman e in parte Jack Altman”. La madre di Altman, parlando con Hao, ha definito quelle accuse “orribili, profondamente strazianti e false”. Nessun osservatore esterno può dirimere una vicenda così dolorosa. Ma l’esistenza di versioni radicalmente diverse degli stessi eventi è un tema ricorrente nella vita di Altman.

Questo vale anche per la nascita della OpenAi. Nel 2014 Altman era ormai il re dell’isola dei cannibali. Loopt non era decollata, ma con grande sorpresa di tutti Graham, dopo aver lasciato la guida della Y Combinator, aveva scelto come successore proprio lui, un ventottenne quasi sconosciuto. Altman era già diventato incredibilmente ricco grazie a un fondo di venture capital da lui creato, Hydrazine, che investiva nei talenti migliori usciti dall’acceleratore. Solo per dare un’idea, possedeva una quota del 2 per cento di Stripe, l’azienda di pagamenti che, al momento in cui scrivo, vale circa 107 miliardi di dollari. A suo dire, però, non era più il denaro a motivarlo. Da tempo voleva lasciare un segno nel mondo non digitale, come avrebbe ampiamente dimostrato durante gli anni passati alla guida della Y Combinator.

L’interesse per le tecnologie in grado di incidere concretamente sul mondo aveva portato Altman ad avvicinarsi al tema dell’intelligenza artificiale e, più nello specifico, all’idea che un’ia fuori controllo potesse costituire una minaccia esistenziale per l’umanità. Questo timore è piuttosto diffuso in certi ambienti dell’alta tecnologia. Gli apocalittici, i cosiddetti doomer, parlano del rischio che una super­intelligenza non allineata agli interessi umani finisca per distruggerci. Preoccupato da questi timori, Altman aveva mandato un’email a Elon Musk, un altro doomer con una visione ancora “più paranoica e pessimista” rispetto ad altri colleghi del settore (racconta Olson). L’idea di Altman era che “qualcuno che non fosse Google” doveva sviluppare la tecnologia in modo che “appartenesse a tutto il mondo”. Musk rispose che “probabilmente valeva la pena di fare una chiacchierata”. Da lì nacque un incontro in un hotel della Silicon valley, a cui erano presenti Musk (arrivato con un’ora di ritardo), Altman, due figure di spicco della ricerca sull’ia, Ilya Sutskever e Dario Amodei, e Greg Brockman, il programmatore di punta della Stripe, in cerca di una nuova sfida. Da quella riunione scaturì l’idea della OpenAi: Musk l’ha finanziata e Altman ha contribuito a metterla in piedi, con l’obiettivo dichiarato di sviluppare una versione sicura di una super­intelligenza artificiale. La nuova azienda sarebbe stata senza scopo di lucro, doveva solo “far progredire l’intelligenza digitale nel modo più utile all’umanità, senza l’obbligo di generare profitti”. I risultati delle scoperte sarebbero stati pubblici: da qui il termine open, aperto.

Tutto chiaro, no? Non proprio. La vera motivazione di Musk era battere Google nella corsa allo sviluppo dell’intelligenza artificiale. In particolare, aveva maturato una vera e propria ossessione per il britannico Demis Hassabis, il fondatore della Deep­Mind, l’azienda di ia acquistata da Google nel 2014. Secondo Musk, Hassabis era “un supercriminale da fermare a ogni costo”, come scrive Hao (Hassabis ha poi vinto il Nobel per la chimica per aver risolto il problema del ripiegamento delle proteine: è esattamente quel che farebbe un supercriminale, no?). Il modo per fermarlo era sviluppare un’intelligenza artificiale prima di lui, e il primo passo era attirare i talenti migliori. Altman era bravissimo in questo, e la OpenAi ha accolto ben presto i ricercatori e programmatori più brillanti del settore, tra cui Sutskever, una figura fondamentale, perché il software di riconoscimento delle immagini che aveva contribuito a creare, AlexNet, era stato uno dei punti di svolta nel campo delle reti neurali.

Fin qui tutto bene. Il problema era che servivano molti soldi. Musk aveva immaginato che alla OpenAi bastasse un miliardo di dollari per avere qualche possibilità di competere con Google. Era una stima molto ottimistica. Gli informatici si stavano accorgendo che la dimensione era un fattore decisivo nella fase di addestramento dell’ia, cioè il momento in cui i dati vanno in pasto agli algoritmi e la rete neurale comincia a lavorare. Nella vita di tutti i giorni compute, “elaborare”, è un verbo; nel mondo dell’ia è un sostantivo, e indica la quantità di potenza di calcolo a disposizione. Alcuni programmi di ia, una volta addestrati, si sono rivelati relativamente compatti: la cinese DeepSeek, per esempio, ha un modello all’avanguardia che funziona su un normale computer casalingo. Ma riuscire ad addestrare il modello è tutta un’altra storia, e lì la scala è tutto. È la versione tech della classica gara a chi ce l’ha più grosso.

Google ce l’aveva più grosso. La OpenAi doveva crescere. Altman ha scelto di stringere un accordo con la Microsoft: l’odiato colosso del software avrebbe investito un miliardo di dollari in cambio dell’uso esclusivo dei prodotti OpenAi nei suoi software e di una quota degli eventuali profitti. Per evitare che gli investitori guadagnassero somme considerate eccessive, i profitti sarebbero stati limitati a cento volte l’investimento iniziale. La Microsoft, in parole povere, avrebbe potuto guadagnare “solo” cento miliardi di dollari. Inoltre l’accordo sarebbe cessato nel momento in cui la OpenAi avesse sviluppato un’intelligenza artificiale generale (agi), sulla base dell’idea che a quel punto il denaro come lo intendiamo oggi non avrebbe più avuto alcun valore.

L’accordo sarebbe stato formalizzato attraverso la costituzione di una nuova azienda a scopo di lucro interamente controllata dalla capogruppo non profit. Può sembrare strano, ma non è un modello inedito: anche la maggioranza della danese Novo Nordisk, produttrice dei celebri farmaci dimagranti Ozempic e Wegovy, è di proprietà di una fondazione non profit. E non è l’unico caso. Ciò che rende bizzarro l’assetto della OpenAi è che le entità non profit e a scopo di lucro si fondano su presupposti in contraddizione tra loro. Cosa conta di più? Sviluppare un’ia “allineata”, innocua, a beneficio dell’intera umanità? Oppure fare soldi a palate nel minor tempo possibile sfruttando commercialmente la nuova tecnologia? Quanto alla parte open, lasciamo perdere: quella parte della missione aziendale è stata silenziosamente accantonata. Le eventuali scoperte della OpenAi erano ormai diventate proprietà esclusiva dell’azienda.

Delle dieci aziende più grandi del mondo solo una non è legata all’intelligenza artificiale. È una bolla? Certo che è una bolla. Ma come ci siamo arrivati? E adesso?

A quel punto la situazione è esplosa. Il valore complessivo delle prime dieci aziende al mondo è di 25,6 migliaia di miliardi di dollari. Di queste, 15,1 sono state accumulate dopo il 30 novembre 2022 e sono direttamente riconducibili al boom dell’intelligenza artificiale. La tecnologia della Nvidia è stato il primo fattore scatenante dell’esplosione: il suo chip più potente, l’H200, è diventato imprescindibile per chi sviluppa ia “di frontiera”. Un singolo H200 costa tra i 30mila e i 40mila dollari. L’azienda oggi vale più di undici volte di quanto valeva al momento del lancio di Chat­Gpt.

Dopo i chip di Nvidia, il secondo grande fattore che ha alimentato il boom è stato il clamore generato da Sam Altman e dalla OpenAi. Ma, un momento: non era lui quello preoccupato che l’ia distruggesse l’umanità? Quello che aveva dichiarato: “Con ogni probabilità l’ia porterà alla fine del mondo” e “nel caso peggiore, be’, si spegne la luce per tutti”? Ebbene sì, e la cosa non era passata inosservata. Succedeva spesso che Altman dicesse cose diverse a persone diverse. Il 17 novembre 2023, il consiglio di amministrazione della OpenAi lo ha licenziato accusandolo di non essere stato “sempre trasparente” nelle sue comunicazioni, però senza fornire dettagli. La notizia è stata uno shock. Quando un dipendente ha obiettato che l’uscita di Altman poteva significare la morte dell’azienda, la consigliera di amministrazione Helen Toner ha risposto: “In realtà sarebbe coerente con la missione”. Vero, anche se non era esattamente quello che volevano sentirsi dire i dipendenti della OpenAi, che stavano per guadagnare cifre enormi dalla commercializzazione del loro lavoro.

La reazione è stata immediata. La Microsoft si è offerta di assumere Altman e chiunque nella OpenAi volesse seguirlo. Più di settecento dipendenti su 770 hanno firmato una petizione per chiederne il reintegro. Martedì 21 novembre, quattro giorni dopo il licenziamento, Altman è stato riassunto e i componenti del consiglio d’amministrazione che avevano votato per allontanarlo sono stati costretti a dimettersi. Sutskever, capo ricercatore della OpenAi, si è dimesso poco dopo e ha fondato una nuova azienda, la Safe Superintelligence. Amodei, un altro dei principali ricercatori, se n’era già andato, nutrendo sospetti sul reale interesse di Altman per la sicurezza dell’ia, e aveva fondato l’Anthropic, un’altra ditta dedicata allo sviluppo di un’ia sicura. In pratica, tre dei protagonisti della riunione nella Silicon valley che aveva portato alla nascita della OpenAi – Musk, Sutskever e Amodei – erano ormai in rotta con Altman. Per tutti loro, il punto era lo stesso: Altman credeva davvero a ciò che aveva detto sull’importanza della sicurezza nello sviluppo dell’intelligenza artificiale? Nella causa che ha intentato in seguito, Musk ha accusato Altman di aver sposato le sue idee solo per guadagnarsi la sua fiducia e i suoi finanziamenti.

Di nuovo questa dualità: Sam il buono, Sam il cattivo. È un motivo ricorrente. Nel 2023 la OpenAi ha contattato Scarlett Johansson per chiederle di prestare la voce a una nuova interfaccia di Chat­Gpt (non a caso: era stata sua la voce dell’intelligenza artificiale nel film Lei di Spike Jonze). Johansson ha rifiutato, ma quando è uscito il software la voce scelta somigliava in modo sorprendente alla sua. Altman ha festeggiato il lancio con un tweet di una sola parola: her, “lei” (evidentemente è troppo avanti per usare le maiuscole). Alle proteste di Johansson, la OpenAi ha risposto con una nota ufficiale: “Abbiamo selezionato la voce dell’attrice prima di contattare la signora Johansson”. In realtà, dice lei, l’azienda stava ancora cercando di chiamare il suo agente due giorni prima del lancio. Un’ingenuità? O una mossa po’ inquietante?

Quando la OpenAi ha lanciato un’app per creare immagini nello stile del grande studio giapponese Ghibli, Altman ha parlato della “vastità dei casi d’uso creativi” resi possibili dalla generazione d’immagini tramite ia. Senonché il maestro fondatore di Ghibli, Hayao Miyazaki, secondo molti (me compreso) il più grande animatore vivente, ha definito l’arte generata dall’ia “un insulto alla vita stessa” e, non contento, ha aggiunto: “Non vorrei mai incorporare questa tecnologia nel mio lavoro”. Altman non può pensare sul serio che digitare qualche parola in un generatore di immagini (“JD Vance bacia un rospo in stile Studio Ghibli”) sia una forma di creatività. Con quell’uscita Altman voleva mostrare l’entusiasmo un po’ infantile di un miliardario quarantenne? Oppure era un commento sornione, una provocazione da troll?

Oltre a essere un magnifico strumento di marketing, il pessimismo apocalittico è anche un’ottima distrazione dai danni reali che l’ia sta già provocando. Una delle tipiche mosse di Altman è continuare a invocare a gran voce la regolamentazione dell’ia. Ma c’è una differenza tra la sicurezza dell’ia, che è ipotetica, e i danni dell’ia, che si stanno già concretizzando. Per cominciare, gran parte dei dati su cui i modelli sono stati addestrati è rubata. Ci sono anche i miei: lo so solo perché i miei libri compaiono in un elenco di opere utilizzate illegalmente nei dataset per l’addestramento. Molti altri autori si sono visti sottrarre il proprio lavoro senza poterlo neanche dimostrare.

E poi c’è la tendenza dei modelli di ia, per usare le parole di Hagey, a “inventarsi le cose, discriminare donne e minoranze e creare contenuti tossici”. Un modello addestrato su dataset che incorporano schemi storici di discriminazioni e pregiudizi finirà inevitabilmente per replicarli. Il modo in cui si ricorre alla valutazione umana per correggere e migliorare le risposte dei modelli è descritto con grande chiarezza da Hao: si basa in gran parte su manodopera straniera sottopagata, un sistema già di per sé fondato sullo sfruttamento e che, per di più, rischia d’introdurre ulteriori pregiudizi (è stato proprio un eccesso di correzione dei pregiudizi a portare il modello d’ia Gemini di Google a mostrare immagini di donne nere quando gli è stato chiesto di rappresentare papi o vichinghi “tipici”). L’ia consuma quantità di energia difficili da giustificare per produrre risultati spesso irrilevanti, e non è affatto chiaro quando questa domanda rallenterà. Sutskever ha dichiarato: “Credo sia abbastanza probabile che non passerà molto tempo prima che l’intera superficie della Terra sarà ricoperta di data center e centrali elettriche”. A dirlo non è un nemico dell’ia, ma uno che sta lavorando con ogni mezzo per costruirne il futuro.

E adesso ? La prossima grande domanda è cosa succederà quando la bolla scoppierà, e cosa significherà per il futuro dell’intelligenza artificiale e, già che ci siamo, dell’umanità. Jeff Bezos ha parlato dell’ia come di una “bolla industriale”, simile all’enorme investimento di capitale assorbito dalla costruzione delle ferrovie, più che a una bolla finanziaria basata sulla pura speculazione, che quando scoppia non lascia dietro di sé assolutamente nulla. A me sembra un paragone sensato.

Le principali possibilità sono quattro. La prima è che l’ia si riveli solo un enorme nulla di fatto. I modelli linguistici di grandi dimensioni, oggi leader del mercato grazie alla OpenAi e ai suoi concorrenti, potrebbero mostrare limiti insuperabili. La gente ormai ha notato che questi modelli non apprendono davvero dagli input e tendono ad “avere le allucinazioni” (l’espressione, tra l’altro, è un altro piccolo capolavoro di marketing travestito. Parlare di “allucinazioni” ci distrae dal fatto che le ia sbagliano continuamente. Il sottotesto è che gli errori sono un effetto collaterale della loro sensibilità, perché solo gli esseri senzienti possono avere le allucinazioni. Ma le ia non possono avere le allucinazioni, non più di un frigorifero o di un tostapane. E non possono nemmeno mentire, perché mentire implica un’intenzione. Quello che possono fare è sbagliare). Alla fine, la gente si stufa dell’ia e la storia finisce lì. A me sembra lo scenario meno probabile, visti i molteplici impatti che l’ia sta già avendo.

Secondo scenario: qualcuno costruisce una super­intelligenza fuori controllo, che distrugge l’umanità. Impedirlo, non dimentichiamolo, era il motivo stesso per cui è stata fondata la OpenAi. Lo scenario apocalittico mi sembra improbabile, per ragioni legate all’essere senzienti. Le ia possono imitare l’intenzionalità, ma non possederla. Per quale motivo, dunque, dovrebbero prendersi la briga di ucciderci? Di nuovo: un frigorifero può uccidere (c’è una memorabile morte per frigo in un romanzo di A.S. Byatt), ma non può farlo di proposito.

Terzo scenario: l’ia approda alla “singolarità”, il punto in cui i computer diventano più intelligenti degli esseri umani. Le macchine imparano ad autoprogrammarsi e ad automigliorarsi a una velocità e su una scala immense e accompagnano l’umanità verso una nuova era dell’“abbondanza”, per usare l’ultima parola di moda. L’intelligenza artificiale generale, o super­intelligenza artificiale, inaugura un’epoca di energia a basso costo, nuove scoperte farmacologiche, desalinizzazione, fine della fame nel mondo e così via. “Anche se accadrà in modo graduale, i traguardi più sbalorditivi – superare la crisi climatica, fondare una colonia nello spazio – alla fine diventeranno una cosa normale”, ha scritto Sam Altman.

Quarto scenario: l’intelligenza artificiale si rivela quella che Arvind Narayanan e Sayash Kapoor chiamano una “tecnologia normale”. Un’invenzione importante, come lo sono state l’elettricità o internet, ma non una frattura radicale nella storia dell’umanità. Questo sia perché l’intelligenza computazionale ha limiti intrinseci sia per via dei “colli di bottiglia”, gli ostacoli umani all’adozione delle nuove tecnologie. Alcune cose restano come sono, altre cambiano in modo drastico. Alcuni mestieri, soprattutto il lavoro d’ufficio più elementare, vengono automatizzati. I processi interni della logistica e simili diventano più efficienti. Alcune forme di lavoro acquistano valore, altre ne perdono. In alcuni campi – come la ricerca di nuovi farmaci – si registrano progressi notevoli, altri restano quasi immutati. In molti casi l’ia si presenta come una strana combinazione di utilità sorprendente e profonda inaffidabilità.

L’ultima di queste possibilità mi sembra la più probabile anche perché, in una certa misura, è quella che abbiamo ormai davanti agli occhi. L’ia sta già ampliando alcune forme di disuguaglianza, a cominciare da quella tra capitale e lavoro. I giovani stanno già notando l’impatto dell’automazione sul primo impiego. I compensi dei liberi professionisti, in alcuni settori, sono già in calo. Se dovessimo scegliere un solo messaggio per riassumere gli ultimi decenni di economia politica, sarebbe: “A chi ha sarà dato”. Se dovessi scommettere, punterei sulla prosecuzione di questa tendenza.

Però sapete una cosa? Uno dei pochi aspetti divertenti dell’intelligenza artificiale è che, a differenza di quasi ogni altro aspetto della politica e dell’economia, qui avremo una risposta chiara. “È difficile perfino immaginare ciò che scopriremo entro il 2035”, ha scritto Altman. Entro il 2035 saremo estinti, sull’orlo di una prosperità inimmaginabile per tutta l’umanità oppure più o meno come oggi, ma di più. Preparate i popcorn. Oppure aspettate che ve li porti il vostro maggiordomo-robot. ◆ fas

John Lanchester è uno scrittore e giornalista britannico. Il suo ultimo libro pubblicato in Italia è Il muro (Sellerio 2020). Questo articolo è la recensione di quattro libri: Stephen Witt, La macchina pensante. Jensen Huang, Nvidia e il microchip più richiesto al mondo (Roi Edizioni 2025); Tae Kim, Nvidia e il genio di Jensen Huang (Sperling & Kupfer 2025); Karen Hao, Empire of ai: inside the reckless race for total domination (Penguin 2025); Parmy Olson, Supremacy (Garzanti 2025). È uscita sul giornale letterario britannico London Review of Books con il titolo “King of cannibal island”.

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1648 di Internazionale, a pagina 84. Compra questo numero | Abbonati