Sono passati poco meno di due anni e mezzo da quando la OpenAi ha lanciato ChatGpt. In questo lasso di tempo relativamente breve le intelligenze artificiali generative sono migliorate sotto ogni aspetto. Ogni volta che un difetto ha fatto sorridere, quel difetto è stato poi corretto. C’è stato un momento in cui si diceva che le ia text-to-image non potevano riprodurre le mani. Uno in cui quelle testuali non sapevano contare le r contenute in “c’era un ramarro marrone”. Nonostante queste migliorie, le tecnologie di ia non si sono ancora stabilizzate: vuol dire che siamo ancora lontani da un uso strutturato per la quotidianità come è successo per gli smartphone o per i computer o per vari software.

È normale che sia così, per molti motivi. Il primo motivo è che questi strumenti sono generalisti e chi li usa può – o meglio, deve – decidere come usarli per fare meglio e adattarli alle proprie necessità reali. Prima di usarli bisogna essere capaci di capire se fanno al caso nostro. Il che è un po’ diverso da tutta la tecnologia che abbiamo visto fin qui: non c’è dubbio che io possa decidere se ho bisogno o no di una calcolatrice o di un programma di montaggio video. Ma ho davvero bisogno di un’intelligenza artificiale generativa? Questa, probabilmente, è la stranezza delle ia più complicata da gestire perché richiede uno sforzo iniziale progettuale. Ma non è l’unica stranezza.

Molte persone si sono imbattute in un problema che ho chiamato loop della procrastinazione. Funziona così. Si dà un compito a ChatGpt e dopo aver raccolto tutte le informazioni necessarie la macchina scrive un messaggio che suona più o meno così: “Inizio a lavorarci. Ti aggiorno appena il documento è pronto”. A questo punto la macchina si ferma. Chi non sa come funziona non se ne accorge e dopo un po’ gli viene naturale tornare sulla chat e chiedere qualcosa tipo “Ci sono novità?”. Se si fa questo, ci si infila in una conversazione metatestuale in cui la macchina dimentica completamente il compito che le è stato affidato e comincia a scusarsi, promettere di finire entro le 18, chiede di risentirsi il giorno successivo e via dicendo.

Ebbene, è assolutamente inutile spostare la conversazione su questo piano: è il modo migliore per frustrarsi. L’unico modo per sbloccare il loop della procrastinazione è dire alla macchina “Procedi”. Perché succede? Perché la gestione dei compiti nei modelli di linguaggio non è ancora pensata per sostenere una lunga catena di obiettivi senza comandi espliciti e a volte capita che i modelli entrino in pausa, per ragioni di risparmio energetico o per altri motivi. Siccome poi sono programmati per rispondere alla richiesta che ricevono, se si comincia a parlare della data di consegna faranno esattamente come un fornitore pigro o pieno di lavoro: procrastineranno.

Poi ci sono le censure. Possono essere legate a leggi o regolamenti locali, a limitazioni imposte dai produttori, al copyright o a questioni più spinose come la possibilità di creare i deepfake. Fatto sta che spesso queste macchine hanno limitazioni che minano gravemente la possibilità di usarle come assistenti nelle professioni creative. Pensa se devi farti aiutare a sistemare un capitolo di un libro horror o una scena di guerra e la macchina si rifiuta di farlo perché non può gestire materiale violento o usare il turpiloquio. Nel video che ho creato usando Veo 2, il modello text-to-video di Google che ho provato per un po’ in anteprima, una delle scene che ha suscitato più interesse è un bacio saffico di pochi secondi, decisamente innocui.

Di solito, infatti, la creazione di una scena così innocente viene bloccata dalle politiche d’uso di chi ha progettato queste macchine e il compito non viene eseguito. Ho aggirato questa forma di censura in maniera molto semplice: ho chiesto a Veo2 di fare una scena in cui due ragazze si stanno “baciando dolcemente” [il comando era in lingua inglese, l’avverbio che ho usato era gently, ndr], descrivendo poi il contesto. In qualsiasi altro caso, il comando mi veniva bloccato. Le censure servono per gli ambienti ad alto rischio e per minimizzare gli errori, ma hanno effetti ridicoli in altre circostanze.

A volte le ia ti rispondono di avere accesso a strumenti che non possono gestire oppure sovrastimano la possibilità di portare a termine un certo compito. È come se subissero il famigerato effetto di Dunning-Kruger, una distorsione cognitiva che fa sì che persone poco competenti in un certo ambito giudichino la propria preparazione come superiore alla media. In realtà non sono le macchine a soffrire di quella sindrome, ma noi. Nella maggior parte dei casi, quando un’ia ti dice di poter fare qualcosa che in realtà non può fare, è perché la domanda che le hai fatto era sbagliata in partenza. Oppure semplicemente stavi sovrastimando le sue reali possibilità.

L’appiattimento garantito è un’altra delle stranezze di queste tecnologie. Se userai le ia generative per ottenere risultati in grande scala e con grande velocità, questi risultati saranno mediocri. Magari ti sembreranno meglio dei risultati umani – perché formalmente ineccepibili, per esempio – ma a lungo andare saranno tutti uguali. Se, invece, si prova a usare le ia in maniera davvero creativa, l’asticella si può alzare tantissimo. Ma serve sempre la combinazione uomo-macchina.

Durante un corso di ia per creativi che sto tenendo per la scuola Holden, ho proposto alla classe un esercizio diverso dal solito. Sì, ormai sappiamo che un’ia può scriverti una scaletta, una bozza di articoli, se vuoi pure una sceneggiatura intera, se la fai scrivere passo dopo passo. Questo vuol dire che chiunque potrà farlo e che dobbiamo spingere più in là il nostro sforzo creativo. Così ho inventato, insieme a ChatGpt, una lingua, ispirandomi alla tradizione delle lingue inventate come la lingua elfica di Tolkien o la lingua klingon di Star Trek. Le ho dato un nome, floranør; un’etica nonviolenta: in floranør non si insulta qualcuno in maniera diretta con un epiteto ma si dice qualcosa tipo “tu porti tristezza alle persone” (che suona così: Tu bringao sorg til vitaiar); una sonorità che mescola lingue romanze a lingue nordiche, una grammatica.

Poi, piano piano, ho fatto lavorare ChatGpt per costruire un lessico di più di mille termini, un frasario, regole per la produzione di parole nuove. Il risultato è un chatbot che parla e insegna il floranør. Esperimenti come questo servono per uscire dall’equivoco che l’appiattimento sia delle macchine: è umano. O, se preferisci dirlo in floranør, Ne fjærlys av mindør makyn: þat estao av folk.

Questo testo è tratto dalla newsletter Artificiale.

Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti
Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it