La Silicon valley vive di novità. Si nutre della ricerca di quella che una volta Michael Lewis ha chiamato “la nuova cosa nuova”. Internet, lo smartphone, i social network: la nuova cosa nuova non può essere un piccolo cambiamento secondario, deve trasformare il mondo. Gli incentivi economici sono chiari: un’invenzione di successo veramente innovativa che ribalta il paradigma può fruttare un sacco di soldi. Ma la posta in gioco è ancora più alta. Se la Silicon valley non sforna continuamente nuove cose nuove, rischia di perdere il suo status privilegiato di luogo in cui si costruisce il futuro.
Il 2022 non era cominciato bene per l’industria tecnologica. Dopo una pandemia particolarmente redditizia, il settore aveva registrato una delle peggiori contrazioni di sempre. Amazon aveva perso quasi la metà del suo valore. La Meta quasi i due terzi.
Nessuno dubita che si possano fare soldi vendendo alle aziende gli strumenti necessari per usare l’ia generativa. La vera domanda è se l’ia aiuta a fare soldi o no
I motivi erano evidenti. All’inizio della pandemia di covid-19, la banca centrale degli Stati Uniti aveva azzerato i tassi d’interesse e le persone erano rimaste a casa, dove avevano passato molto più tempo e avevano speso molti più soldi online. Nel 2022 entrambe le tendenze si erano invertite. La maggior parte degli statunitensi aveva deciso di non preoccuparsi più del virus e di riprendere le proprie attività offline. Allo stesso tempo, la banca centrale aveva cominciato a rialzare i tassi d’interesse per contrastare l’aumento dell’inflazione.
Sarebbe un errore ingigantire la gravità della “flessione tecnologica” che ne era seguita. Nonostante i licenziamenti in massa e il calo dei ricavi, le grandi aziende erano comunque più grandi e più ricche rispetto a prima della pandemia. Però c’era un certo malessere. L’industria aveva bisogno di una nuova invenzione sfavillante capace di attirare miliardi di consumatori e di far venire l’acquolina in bocca ai mercati dei capitali. Una possibilità era il metaverso, il sogno di Mark Zuckerberg di un’internet in cui immergersi attraverso un visore per la realtà virtuale. Però non ha funzionato: non ha mostrato alcun vantaggio pratico e inoltre era terribile: un simulacro instabile di un centro commerciale post-apocalittico progettato da David Lynch, attraversato da schiere di avatar con lo sguardo spento e senza gambe che fluttuano in mondi semideserti a cartoni animati.
Poi, il 30 novembre 2022, la OpenAi ha lanciato ChatGpt, un potente sistema d’intelligenza artificiale dotato di un’affabile interfaccia conversazionale a cui si poteva rivolgere qualsiasi domanda e ottenere una risposta sorprendentemente umanoide (anche se non sempre corretta). A gennaio del 2023 il chatbot aveva già accumulato cento milioni di utenti, la più grande crescita di sempre per un’applicazione di internet. È una classica storia da Silicon valley: la OpenAi, che all’epoca aveva solo poche centinaia di dipendenti, ha colto tutti di sorpresa e praticamente da un giorno all’altro ha imposto la “ia generativa” – la categoria di software a cui ChatGpt appartiene – come il nuovo concetto cardine di tutta l’industria. Subito è partita la rincorsa furiosa dei colossi tecnologici. Su ogni tecnologia, dai motori di ricerca ai programmi di posta elettronica, hanno cominciato a spuntare funzioni di ia generativa. Nel 2023 il Nasdaq ha guadagnato il 55 per cento, il suo miglior andamento dal 1999. La nuova cosa nuova era stata trovata.
È troppo presto per sapere se l’ia generativa sarà una gallina dalle uova d’oro o un fuoco di paglia. Le opinioni sono discordanti. Alcune aziende hanno avuto risultati eccezionali: la Nvidia, stella emergente del settore, sta facendo soldi a palate perché i suoi processori formano l’infrastruttura fondamentale su cui poggia la novità. Anche le divisioni cloud di Microsoft, Google e Amazon hanno registrato una forte crescita, che i loro dirigenti attribuiscono all’aumento della domanda di servizi d’ia.
Ma questi, come direbbe la stampa finanziaria anglosassone, sono solo “ferri del mestiere”. Nessuno dubita che si possano fare soldi vendendo alle aziende gli strumenti necessari per usare l’ia generativa. La vera domanda è se l’ia aiuta a fare soldi o no. Secondo gli scettici, i costi per progettare e far funzionare i software di ia generativa sono un potenziale ostacolo. È un elemento che elimina il tradizionale vantaggio della tecnologia digitale, cioè il basso costo marginale. Lanciare una libreria online ha funzionato per Amazon perché era più economico che costruirne una di calce e mattoni, come ha osservato Jim Covello, ricercatore della Goldman Sachs, in un rapporto pubblicato a giugno del 2024. L’intelligenza artificiale, al contrario, non è economica, e questo significa che le “applicazioni di ia devono risolvere problemi estremamente complessi e importanti affinché le imprese abbiano un ritorno adeguato sull’investimento”. Covello, per quanto lo riguarda, è scettico.
Ma le imprese, come le persone, non sono interamente razionali. Quando un’azienda decide di adottare una nuova tecnologia, raramente lo fa esclusivamente sulla base di considerazioni economiche. “Queste decisioni sono spesso fondate sulle sensazioni, sulla fede, sull’ego, sul gusto e sugli accordi tra persone”, osserva lo storico David Noble. Studiando le fabbriche statunitensi dopo la seconda guerra mondiale, Noble ha individuato una serie di motivi che spiegano il loro passaggio alla tecnologia del controllo numerico: l’“infatuazione per l’automazione”, il culto del progresso tecnologico, il prestigio di essere associati all’avanguardia, “la paura di rimanere indietro rispetto alla concorrenza” eccetera.
Noble, però, si sofferma in particolare su una motivazione che è, almeno in parte, fondata sulla razionalità economica: la disciplina del lavoro. Meccanizzando il processo di produzione, i dirigenti di un’azienda possono esercitare un controllo più stretto sui lavoratori al suo interno. Il filosofo Matteo Pasquinelli esprime un punto di vista simile nel suo ultimo libro Nell’occhio dell’algoritmo (Carocci 2025). Nell’introduzione, Pasquinelli, professore dell’università Ca’ Foscari di Venezia, spiega che la sua non è una “storia lineare della tecnologia e dell’automazione”, quanto una “genealogia sociale”, che tratta l’ia non come un mero traguardo tecnologico ma come “una visione del mondo”. L’elemento centrale di questa visione è l’automazione – e il dominio – del lavoro. L’ia contemporanea, sostiene, va interpretata come l’ultimo di una lunga serie di tentativi di aumentare il potere del capo.
In La ricchezza delle nazioni, Adam Smith scriveva che la manifattura degli spilli poteva essere resa più efficiente grazie alla divisione del lavoro. Invece che far fare tutto a un unico operaio, era possibile suddividere il lavoro in compiti distinti e distribuirli per fabbricare spilli più velocemente. È il principio canonico della produzione capitalistica, un principio che l’automazione incarna e impone. All’inizio si rende il lavoro più meccanico, poi si delega alle macchine.
Un importante divulgatore di questo principio è stato Charles Babbage, una figura centrale nel libro di Pasquinelli. Originariamente un matematico, Babbage diventò una guida del pensiero nella borghesia britannica dell’ottocento. Oggi è più conosciuto come uno degli inventori del computer. Il suo lavoro sulla computazione cominciò dall’osservazione che la divisione del lavoro poteva essere “applicata con uguale successo tanto alle operazioni mentali che a quelle meccaniche”, come scrisse in un trattato nel 1832. Lo stesso metodo di gestione industriale che all’epoca stava plasmando l’operaio britannico, sosteneva Babbage, poteva essere trasportato fuori dalla fabbrica e applicato a un lavoro completamente diverso: il calcolo matematico.
Babbage prese ispirazione da Gaspard de Prony, un matematico francese che aveva inventato un sistema per ottimizzare la creazione delle tavole logaritmiche riducendo gran parte del lavoro a una serie di semplici addizioni e sottrazioni. Nel sistema di de Prony, un gruppo ristretto di esperti e dirigenti pianificava il lavoro ed eseguiva i calcoli più difficili, mentre un esercito di umili contabili svolgeva le operazioni aritmetiche più banali.
Se i poveri disgraziati alla base di questa piramide erano sostanzialmente degli automi, perché non automatizzarli? In fabbrica, la divisione del lavoro andava di pari passo con l’automazione. Anzi, secondo Babbage, era proprio la semplificazione del processo lavorativo a rendere possibile l’introduzione dei macchinari. “Quando ogni processo è stato ridotto all’uso di un semplice attrezzo”, scriveva, “l’unione di tutti questi attrezzi, attuata da una forza motrice, costituisce una macchina”.
Nel 1819 Babbage cominciò a progettare una “macchina differenziale”, che automatizzava il lavoro aritmetico grazie a tre cilindri rotanti ed era alimentata da un motore a vapore. La sua ambizione era gigantesca: Babbage voleva “fondare l’attività del calcolo su scala industriale”, scrive Pasquinelli, sfruttando la stessa fonte energetica che stava rivoluzionando l’industria britannica. La produzione in massa di tavole logaritmiche infallibili sarebbe stata anche un ottimo affare, perché queste avrebbero permesso alle formidabili flotte mercantili e militari del Regno Unito di determinare la loro posizione in mare. Il governo britannico, riconoscendo il valore economico e geopolitico dell’impresa di Babbage, si offrì di finanziarla.
L’investimento fallì. Babbage riuscì a costruire un piccolo prototipo, ma il progetto completo si rivelò troppo complicato da mettere in pratica. Nel 1842 il governo ritirò i fondi, e a quel punto Babbage cominciò a sognare una macchina ancora più irrealizzabile: la macchina analitica. Progettata con l’aiuto della matematica Ada Lovelace, questa straordinaria invenzione sarebbe diventata il primo computer multiuso, che poteva essere programmato per svolgere qualsiasi calcolo. È così che, in mezzo allo smog e alla fuliggine dell’Inghilterra vittoriana, nacque l’idea del software.
Lo scopo della divisione del lavoro non era solo l’efficienza: era anche il controllo. Frammentando la produzione artigianale (immaginate un calzolaio che fa un paio di scarpe) in una serie di routine modulari, la divisione del lavoro eliminava l’autonomia dell’artigiano. Ora i padroni riunivano gli operai sotto un unico tetto, e questo significava che potevano istruirli su cosa fare e osservarli mentre lo facevano.
Secondo Pasquinelli, le macchine di Babbage, anche se nate da un progetto per “meccanizzare il lavoro mentale degli impiegati”, rispondevano agli stessi imperativi gestionali. Erano, scrive, “un’implementazione dell’occhio analitico del padrone della fabbrica”, una sorta di rappresentazione meccanica del capo dispotico che vede tutto. Pasquinelli arriva addirittura a definirle parenti del famigerato panopticon di Jeremy Bentham.
Ma le macchine non funzionarono mai com’erano state progettate. Babbage provò a usare gli ingranaggi meccanici per rappresentare i numeri decimali senza riuscirci. Ci sarebbero volute le semplificazioni del sistema binario, l’invenzione dell’elettronica e le tante innovazioni foraggiate dai generosi budget militari della seconda guerra mondiale per rendere finalmente possibile negli anni quaranta la computazione automatica.
A quel punto il capitalismo era diventato un affare internazionale, e questo rese più complicato il problema di gestire i lavoratori. “Più la divisione del lavoro si estendeva a un mondo globalizzato”, scrive Pasquinelli, “più la sua gestione diventava complessa”, perché “l’‘intelligenza’ del padrone della fabbrica non era più in grado di sorvegliare a colpo d’occhio l’intero processo produttivo”. Di qui il bisogno di “infrastrutture di comunicazione” che “potevano assolvere a questo ruolo di supervisione”.
Il computer moderno, nei decenni successivi al suo arrivo, contribuì a soddisfare questo bisogno. I computer hanno esteso l’occhio del padrone nello spazio, sostiene Pasquinelli, permettendo ai capitalisti di coordinare la logistica sempre più farraginosa della produzione industriale. Se l’intento di Babbage era costruire una protesi attraverso cui proiettare il potere dei manager, come suggerisce Pasquinelli, allora il trionfo novecentesco del computer come strumento indispensabile della globalizzazione capitalista va visto come la realizzazione dello spirito fondante della tecnologia.
Questo spirito, per di più, sembra essersi intensificato man mano che i computer hanno continuato a evolversi. “Dalla fine del ventesimo secolo”, scrive Pasquinelli,
il management del lavoro ha trasformato tutta la società in una “fabbrica digitale” e ha assunto la forma del software dei motori di ricerca, delle mappe online, delle applicazioni di messaggistica, dei social network, delle piattaforme di gig economy, dei servizi di mobilità e, alla fine, degli algoritmi di ai.
L’intelligenza artificiale, conclude, sta accelerando questa trasformazione.
Non c’è dubbio che i computer siano spesso usati a vantaggio dell’azienda, a cominciare dai software di pianificazione, che riducono i costi del lavoro costringendo commessi e camerieri a orari imprevedibili, e fino ai diversi sistemi che permettono la sorveglianza e la supervisione da remoto di impiegati, autisti di Uber e camionisti. Ma sostenere che questi usi sono la ragion d’essere della tecnologia digitale, come sembra fare Pasquinelli, è un’esagerazione.
La disciplina del lavoro è solo uno degli usi a cui possono essere destinati i computer e non è stata neanche centrale nello sviluppo della tecnologia: le innovazioni fondamentali nella computazione sono nate da esigenze dei poteri militari, non di quelli economici. Decifrare i codici nemici, calcolare gli angoli esatti per l’artiglieria di precisione e svolgere i calcoli matematici necessari per realizzare la bomba all’idrogeno sono alcune delle motivazioni che hanno portato alla costruzione dei computer negli anni quaranta. Il governo degli Stati Uniti s’innamorò della tecnologia e nei decenni successivi spese milioni di dollari in ricerca e appalti. I computer si sarebbero rivelati fondamentali per una varietà di obiettivi imperialisti, dall’assemblaggio di missili intercontinentali capaci d’incenerire (con precisione) milioni di sovietici alla raccolta e all’analisi delle fonti intercettate dalle postazioni di ascolto sparse nel mondo. Le aziende statunitensi si sono solo accodate, adattando questi marchingegni a vari scopi commerciali.
Detto questo, anche se le tesi del libro non sempre sono convincenti, c’è molto da imparare dal suo materiale. Negli ultimi anni le case editrici hanno inondato i lettori di libri sull’intelligenza artificiale. La maggior parte ha un sapore un po’ improvvisato. Nell’occhio dell’algoritmo, semmai, ha il problema opposto: c’è un’enorme quantità di pensiero compressa nelle sue pagine. Spesso l’intelletto onnivoro di Pasquinelli lascia incantati. Nonostante questo, a volte vorrei che si fermasse un attimo per sostanziare le sue provocazioni con più dati concreti.
Il fatto che Babbage si sia ispirato ai metodi dei dirigenti dell’industria per progettare i suoi prototipi è un fatto interessante, ma la rilevanza di questo elemento può essere stabilita solo osservando da vicino come i computer hanno concretamente trasformato il lavoro nel ventesimo e nel ventunesimo secolo. Pasquinelli non lo fa. Anzi, a metà del libro fa una brusca sterzata, passando dal Regno Unito industriale dell’ottocento ai primi ricercatori sull’intelligenza artificiale negli Stati Uniti negli anni quaranta del novecento, concentrandosi in particolare sulla scuola “connessionista”.
Il connessionismo, come osserva Pasquinelli, si allontana in modo significativo dalla computazione automatica di Babbage. Per Babbage, l’anima del computer è l’algoritmo, una procedura per gradi che tradizionalmente è l’ingrediente principale di un programma informatico. Quando Alan Turing, John von Neumann e altri crearono il computer moderno, il loro era un dispositivo per eseguire algoritmi. Il programmatore scrive una serie di regole per trasformare un input in un output, e la macchina obbedisce.
Quest’idea ha guidato anche l’“ia simbolica”, la filosofia che ha dominato la prima generazione della ricerca sull’intelligenza artificiale. I suoi sostenitori credevano che istruendo un computer a seguire una serie di regole potevano trasformare una macchina in una mente. Questo metodo, però, aveva dei limiti. Formalizzare un’attività in una sequenza logica funziona se l’attività è relativamente semplice. Più la complessità cresce, meno le istruzioni codificate diventano utili. Posso darvi delle indicazioni esatte per arrivare in auto da casa mia a casa vostra, ma non posso usare la stessa tecnica per insegnarvi a guidare.
Un metodo alternativo è emerso dalla cibernetica, un movimento intellettuale postbellico dagli interessi molto eclettici. Tra questi c’era l’aspirazione a creare automi con la capacità adattiva delle cose animate. Più che a imitare le regole del ragionamento umano, per Pasquinelli i cibernetici “puntavano a imitare i princìpi di auto-organizzazione degli esseri viventi” e forme di vita dell’ambiente naturale. Questi sforzi hanno portato all’invenzione della rete neurale artificiale, un’architettura per l’elaborazione dei dati approssimativamente modellata sul cervello. Usando queste reti per riconoscere degli schemi all’interno dei dati, i computer possono addestrarsi a svolgere un compito. Una rete neurale impara a fare le cose non semplificando un processo in una procedura, ma osservando un processo più e più volte ed estrapolando relazioni statistiche da un gran numero di esempi.
Uno dei progenitori del connessionismo è stato Friedrich Hayek, oggetto di uno dei capitoli più interessanti del libro di Pasquinelli. Hayek è conosciuto soprattutto per essere uno dei principali teorici del neoliberismo, ma quando era giovane si interessò al funzionamento del cervello lavorando nel laboratorio del famoso neuropatologo Constantin von Monakow a Zurigo. Per Hayek la mente era come un mercato: due entità capaci di auto-organizzarsi e di creare un ordine spontaneo con l’interazione decentralizzata delle proprie componenti. Queste idee avrebbero contribuito a influenzare lo sviluppo delle reti neurali artificiali, che in effetti funzionano più o meno come la mente-mercato immaginata da Hayek. Nel 1957, quando uno psicologo di nome Frank Rosenblatt realizzò la prima rete neurale con l’aiuto di un finanziamento a fondo perduto della marina, riconobbe il suo debito nei confronti di Hayek.
Ma Hayek si allontanava dai cibernetici sotto molti aspetti importanti. La cibernetica, come l’aveva definita nel 1948 il filosofo Norbert Wiener, era lo studio scientifico del “controllo e della comunicazione nell’animale e nella macchina”. Il termine derivava dalla parola che in greco antico identifica il timoniere di una nave, e ha la stessa radice della parola che indica il governo. I cibernetici volevano creare sistemi tecnologici capaci di autogovernarsi, una prospettiva particolarmente attraente per il Pentagono, che cercava in ogni modo di ottenere vantaggi militari nella guerra fredda. La marina sovvenzionò Rosenblatt nella speranza che la sua rete neurale contribuisse all’“automazione della classificazione degli obiettivi”, spiega Pasquinelli, per individuare le navi nemiche.
Per Hayek, al contrario, il connessionismo era un modo per pensare a un sistema capace di eludere il controllo. E quello che aveva in mente era un preciso tipo di controllo: la pianificazione economica. Secondo Hayek, la complessità simile a quella del cervello e del mercato erano la dimostrazione che il socialismo non avrebbe mai potuto funzionare. Da qui il bisogno di politiche neoliberiste che, nelle parole dello storico Quinn Slobodian, avrebbero “creato un involucro attorno all’economia non conoscibile”, proteggendola dalle interferenze dello stato.
Ciò nonostante, alla fine Hayek e gli altri connessionisti giocavano tutti nella stessa squadra. Rosenblatt e i suoi colleghi erano riusciti a ottenere fondi per le loro ricerche perché il governo degli Stati Uniti era convinto che potessero contribuire a battere gli eserciti socialisti. L’obiettivo di Hayek era battere le idee socialiste.
All’inizio il connessionismo non riuscì a mantenere le promesse. Nei primi anni settanta era ormai caduto in disgrazia nel mondo dell’intelligenza artificiale. Le reti neurali, tuttavia, hanno continuato a svilupparsi in silenzio nei decenni successivi, facendo registrare progressi negli anni ottanta e novanta. Poi, negli anni 2010, hanno fatto un balzo in avanti.
Addestrare una rete neurale, come una volta ha osservato Rosenblatt, richiede “l’esposizione a un campione di stimoli ampio”. Le dimensioni contano: le reti neurali apprendono studiando i dati, quindi il grado dell’apprendimento dipende in parte dalla quantità di dati che hanno a disposizione. Storicamente, nell’evoluzione del computer i dati sono stati costosi da archiviare e difficili da trasmettere. Nel secondo decennio del ventunesimo secolo entrambe le barriere sono state abbattute. Il crollo dei costi di archiviazione, unito alla nascita e alla crescita del web, ha reso accessibile una montagna di parole, foto e video a chiunque avesse una connessione a internet. I ricercatori hanno usato queste informazioni per addestrare le reti neurali. L’abbondanza di dati, insieme a nuove tecniche e hardware più potenti, ha portato a rapidi progressi in campi come l’elaborazione del linguaggio naturale e la visione artificiale. Oggi l’ia basata sulle reti neurali è ovunque, da Siri alle auto a guida autonoma fino agli algoritmi che curano i feed sui social media.
Le reti neurali sono alla base anche dei sistemi di ia generativa come ChatGpt. Questi sistemi sono particolarmente estesi – cioè sono composti da molti strati di reti neurali – e la loro fame di dati è immensa. Se ChatGpt si esprime in modo così naturale e sembra sapere tante cose del mondo è perché il modello linguistico al suo interno è stato addestrato da terabyte di testi tratti da internet: milioni di siti web, articoli di Wikipedia e libri. È questo che intende Pasquinelli quando scrive che le reti neurali dell’ia contemporanea “sono un modello non tanto del cervello biologico quanto della mente collettiva”, uno sforzo sociale a cui hanno contribuito molte persone.
Non tutti sono felici di questo sviluppo. La voracità dell’ia generativa è responsabile di quello che il conduttore di podcast Michael Barbaro chiama il suo “peccato originale”, e cioè il fatto che tra le informazioni ingerite ci sono materiali protetti dal diritto d’autore. Il New York Times ha fatto causa alla OpenAi per violazione del diritto d’autore, e lo stesso hanno fatto l’organizzazione professionale degli scrittori negli Stati Uniti, Jonathan Franzen, George Saunders e molti altri. OpenAi e altri grandi “creatori di modelli” non rivelano dettagli sui dati che usano per l’addestramento, ma la OpenAi ha ammesso che tra questi ci sono opere protette dal diritto d’autore, anche se sostiene di farne un uso legittimo secondo le norme statunitensi.
Nel frattempo, la domanda di dati per l’addestramento continua a crescere, e le aziende tecnologiche cercano sempre nuovi modi per procurarseli. La OpenAi, la Meta e altri hanno firmato dei contratti di licenza con editori come Reuters, Axel Springer e Associated Press, e stanno cercando accordi simili con gli studi di Hollywood.
Per Pasquinelli se ne può ricavare un insegnamento. La dipendenza dell’ia contemporanea dai nostri contributi è la dimostrazione che l’intelligenza è un processo sociale: è collettivo, emerge e si diffonde in perfetta armonia con il paradigma connessionista. “Non sorprende, quindi, che la tecnica d’intelligenza artificiale più efficace, ovvero le reti neurali artificiali, sia quella che meglio rispecchia (e, in questo senso, cattura) la cooperazione sociale”, scrive Pasquinelli.
C’è una venatura marxista in questa tesi: l’intelligenza risiede nella creatività delle masse. Ma è una tesi che avrebbe potuto sostenere anche un antimarxista convinto come Hayek. Il vecchio austriaco si sarebbe compiaciuto all’idea che l’“intelletto” del software più avanzato della storia proviene dalle attività non pianificate di una moltitudine. E sarebbe stato ancora più intrigato dal fatto che questo software, come il suo amato mercato, è fondamentalmente inconoscibile.
La stranezza di fondo dell’ia generativa è che nessuno sa davvero come funziona. Sappiamo come sono addestrati i modelli linguistici di grandi dimensioni come ChatGpt e i suoi concorrenti, anche se non sempre sappiamo su quali dati sono addestrati. A questi modelli si chiede di prevedere la stringa successiva di caratteri in una sequenza. Ma come ci arrivino esattamente è un mistero. I calcoli che si svolgono all’interno del modello sono troppo complicati per la comprensione umana. Non si può semplicemente alzare il cofano e vedere gli ingranaggi che girano.
In mancanza dell’osservazione diretta, resta un metodo più indiretto: l’interpretazione. Un intero settore tecnico si è sviluppato intorno all’“interpretabilità” o alla “spiegabilità” dell’intelligenza artificiale, con l’obiettivo di decifrare come funzionano questi sistemi. I suoi specialisti nel mondo accademico e industriale parlano in termini iperspecialistici, ma i loro sforzi hanno qualcosa di devozionale, simile all’esegesi dei testi sacri o delle viscere degli animali offerti in sacrificio.
C’è un limite alla ricerca di significato, i mortali devono accontentarsi di verità parziali. Se i “monopoli dell’ia” di oggi rappresentano il nuovo “occhio del padrone”, come pensa Pasquinelli, è un occhio dal campo visivo limitato. Le fabbriche dell’epoca di Babbage erano zone di visibilità: concentrando il lavoro e i lavoratori, mettevano il processo lavorativo in bella vista. L’ia contemporanea è l’opposto: il suo involucro è testardamente opaco e neanche il padrone può vedere al suo interno. ◆ fas
Ben Tarnoff è un giornalista statunitense, cofondatore della rivista Logic. Scrive di tecnologia e politica. Questo articolo è una recensione del libro Nell’occhio dell’algoritmo di Matteo Pasquinelli (Carocci 2025), che uscirà il 16 maggio. È stato pubblicato dalla New York Review of Books con il titolo “The labor theory of ai”.
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it
Questo articolo è uscito sul numero 1610 di Internazionale, a pagina 88. Compra questo numero | Abbonati