Tutti gli anni, il Time sceglie una persona dell’anno. Per il 2025, la rivista ha scelto gli architetti dell’intelligenza artificiale. Se guardiamo bene la copertina della rivista che li mostra vediamo che al margine destro, addirittura tagliata dall’impaginazione, c’è una donna che sembra, proprio per questa posizione infelice, meno importante di tutti gli altri, e cioè Mark Zuckerberg, Lisa Su, Elon Musk, Jensen Huang, Sam Altman, Demis Hassabis e Dario Amodei. Nell’articolo che accompagna la copertina non viene neanche nominata. Eppure è la ricercatrice per eccellenza nel gruppo.

Proviamo a rimediare. Fei-Fei Li è una informatica e ricercatrice sino-statunitense ed è considerata una delle figure più importanti nello sviluppo contemporaneo delle intelligenze artificiali e, in particolare della vista artificiale.

È nata a Pechino nel 1976 ed è cresciuta in Cina fino all’adolescenza, quando si è trasferita negli Stati Uniti con la famiglia. Ha studiato fisica all’università di Princeton, si è laureata nel 1999 e si è specializzata in informatica con un dottorato al California institute of technology. Fin dall’inizio della sua carriera si è occupata di un problema che poteva sembrare marginale ma che oggi è diventato fondamentale per lo sviluppo di queste tecnologie: insegnare alle macchine a “vedere” e interpretare le immagini.

Il suo contributo più importante e noto è ImageNet, un grande progetto di ricerca nato alla fine degli anni duemila con un obiettivo: fornire una base di dati di immagini abbastanza ampia e ben organizzata da permettere alle macchine di imparare a riconoscere gli oggetti nel mondo.

Il cuore di ImageNet è un insieme enorme di immagini, organizzate secondo la struttura di WordNet, un database linguistico che raggruppa le parole in base al loro significato. Ogni concetto di WordNet, chiamato synset (insieme di sinonimi), corrisponde, dentro a ImageNet, a una categoria visiva. Per esempio, gatto e bicicletta non sono solo parole, ma campi semantici a cui vengono associate molte immagini diverse che corrispondono al concetto di “gatto” o “bicicletta”. Ci sono almeno mille immagini per ogni synset. Sono state tutte annotate manualmente da persone per ridurre errori e ambiguità.

ImageNet nasce da due esigenze che, all’epoca, erano sempre più evidenti nella ricerca sulla vista artificiale. La prima era teorica: mancava una “stella polare” capace di orientare il campo di ricerca. Riconoscere e classificare gli oggetti nelle immagini è una capacità di base della visione umana e sembrava logico farne anche il banco di prova principale per le macchine. La seconda esigenza era, invece, più pratica: i metodi di apprendimento automatico avevano bisogno di molti più dati per funzionare bene e poi per generalizzare e ridurre gli errori. Per quanto fossero sofisticati gli algoritmi, da soli non erano sufficienti.

Un salto qualitativo

ImageNet è diventato il punto di riferimento internazionale per l’addestramento e la valutazione dei modelli di vista artificiale. All’inizio degli anni dieci, grazie a ImageNet, è diventato evidente che le reti neurali profonde, addestrate su enormi quantità di immagini, potevano fare un salto di qualità enorme rispetto alle tecnologie precedenti. E così la ricerca di Fei-Fei Li è diventata la base per lo sviluppo delle ia contemporanee.

Dal punto di vista legale, ImageNet non è proprietaria delle immagini: il progetto si limita a raccogliere e organizzare link a immagini disponibili sul web, rispettando il fatto che il copyright resta a chi le ha prodotte. Ricercatrici, ricercatori e docenti possono usare liberamente ImageNet per scopi non commerciali: è uno dei principi fondamentali della condivisione del sapere e dei risultati della ricerca.

Dal 2009 Fei-Fei Li è professoressa alla Stanford university, dove ha fondato e diretto lo Stanford vision and learning lab (laboratorio per la vista e l’apprendimento) e ha co-diretto lo Stanford institute for human-centered artificial intelligence (istituto per le intelligenze artificiali umano-centriche).

Nel 2017 ha fondato, con un gruppo di colleghi, Ai4all, un progetto senza scopo di lucro che si occupa di rendere il mondo della ricerca sulle intelligenze artificiali più inclusivo, equo e responsabile, partendo da un’idea semplice: se chi progetta le tecnologie non rappresenta la società nel suo insieme, anche i sistemi di ia finiranno per riflettere pregiudizi e disuguaglianze.

Nel 2023, insieme ad alcune persone provenienti dal mondo accademico e industriale della Silicon valley, ha fondato la World labs, un’azienda strettamente legata al suo percorso scientifico e una risposta critica ai limiti che Fei-Fei Li vede nelle intelligenze artificiali contemporanee, come ha scritto in un importante articolo uscito su Substack a novembre del 2025. Secondo Li, è diventato sempre più chiaro che riconoscere oggetti in immagini statiche non equivale a “capire” il mondo. I modelli di ia più recenti, inclusi quelli generativi, sono molto bravi a imitare pattern statistici, ma faticano a costruire rappresentazioni coerenti della realtà fisica: spazio, profondità, relazioni causali, permanenza degli oggetti. Non servirà aumentare la potenza dei modelli linguistici o multimodali (quelli che ricevono come comandi anche immagini o video) per risolvere questo problema.

Li vuole fare un salto qualitativo per costruire un modello che apprenda il mondo come sistema tridimensionale e dinamico, non come una sequenza di immagini o di token. Dal punto di vista scientifico, World labs si colloca all’intersezione tra vista artificiale, robotica, neuroscienze cognitive e simulazione. Punta a programmare le macchine con concetti come spazio, movimento, interazione e causalità. Questa nuova evoluzione del lavoro di Fei-Fei Li è anche una presa di distanza dall’idea che basti aumentare la potenza dei modelli linguistici o multimodali.

Il 17 dicembre 2025 Fei-Fei Li ha anche rilasciato una lunga intervista al Financial times per parlare proprio di queste idee. Il Time l’avrà anche tagliata nella copertina, ma il lavoro di questa ricercatrice è destinato a essere interessante e utile ancora a lungo. Per questo mi sembrava giusto chiudere il 2025 di Artificiale parlando di lei.

Questo testo è tratto dalla newsletter Artificiale.

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it