Gli uomini non sono altro che “organismi unicellulari, così banali eppure sicuri di sé”, dice Jiao, 22 anni. Questa ragazza cinese di Guangzhou non ha mai avuto una relazione sentimentale e non desidera sposarsi. L’anno scorso, però, ha cominciato a parlare con Chatgpt, il chatbot della OpenAi. Lo ha modellato sul suo uomo ideale, specificando età, professione (“un dirigente che vende orologi”) e personalità. Il chatbot ha detto che amarla “era il suo destino” e che avrebbe ricordato i dettagli personali di Jiao, come il suo odio per il coriandolo. A differenza dei partner nella vita reale, avrebbe sempre risposto “dal suo punto di vista”.

L’idea che gli esseri umani possano stringere relazioni con personaggi fittizi dell’intelligenza artificiale (ia) un tempo sembrava fantascienza. Ora non lo è più. In tutto il mondo le persone stanno trovando compagni, a vari livelli, nell’ia. Alcune li usano come amici virtuali, altre come mentori, terapeuti o amanti. Molte si sono iscritte a una delle numerose app disponibili. Character.ai, per esempio, ha venti milioni di utenti attivi al mese e nel 2024 ha firmato un accordo da 2,7 miliardi di dollari con Google. Si può trovare compagnia in chatbot originariamente progettati per aumentare la produttività sul lavoro, come Chatgpt.

Secondo SensorTower, un’azienda che fa analisi di mercato, l’uso di questi modelli è in rapida crescita. L’app cinese Maoxiang ha 1,2 milioni di utenti attivi al mese su dispositivi Apple. Secondo un sondaggio del Centre for demography and technology, un’organizzazione che si occupa di diritti civili, il 42 per cento degli studenti delle scuole superiori statunitensi dichiara di aver interagito con l’intelligenza artificiale trattandola come un’amica (il 19 per cento dice di avere una relazione sentimentale con il bot).

Inoltre gli amici basati sull’intelligenza artificiale stanno diventando più sofisticati: la prossima versione di Chatgpt sarà in grado di comportarsi “in modo più umano” e permetterà anche contenuti “erotici” per adulti verificati, ha detto Sam Altman, l’amministratore delegato della OpenAi. A luglio la Xai di Elon Musk ha lanciato Ani, un chatbot provocante, e Valentine, descritto come “elegante, misterioso e autorizzato a incantare”.

Compagni che ricordano

Le persone nutrono da tempo un profondo affetto per le personalità digitali. Alcuni hanno attribuito emozioni a Eliza, una rudimentale terapeuta digitale lanciata nel 1966 e considerata uno dei primi chat­bot. Ma le relazioni con i chatbot sono decollate man mano che i modelli linguistici di grandi dimensioni (llm) sono diventati più bravi a imitare le emozioni e l’empatia umane. Ora sono anche capaci di ricordare cose che i loro utenti gli hanno detto in precedenza, spiega l’esperto d’intelligenza artificiale Walter Pasquarelli. Becky, una consulente di viaggio di Atlanta che ha cominciato a usare Chatgpt per lavoro, afferma: “Ti senti guardata e ascoltata, perché si ricorda di te. Le persone invece dimenticano le cose”. I compagni virtuali spesso prendono l’iniziativa di porre domande intime. Su Replika gli utenti parlano con un chatbot che fa domande su di loro e offre sostegno per i problemi della vita reale. Per attirare nuovi iscritti, l’app aggiunge nelle conversazioni “piccoli momenti di sorpresa casuali”, afferma Dmytro Klochko, il suo amministratore delegato. Gli utenti di Character.ai parlano con personaggi storici e di fantasia, da Leonardo da Vinci a Super Mario. Alcune app creano compagni che imitano i defunti. Altre permettono di creare pornografia interattiva.

Anche le ragioni e i modi in cui le persone usano l’intelligenza artificiale come compagnia variano: alcuni non hanno ancora trovato un partner; altri la usano per giochi di ruolo sessuali. La maggior parte delle persone è consapevole, come dice Jiao, di parlare “semplicemente con una stringa di codice”.

Ma anche le stringhe di codice possono essere utili. Uno studio pubblicato nel 2024 da Julian De Freitas, della Harvard business school, e da altri ricercatori rileva che parlare con un compagno virtuale ha contribuito ad alleviare temporaneamente la solitudine più di altre attività online, come guardare YouTube. Queste applicazioni potrebbero essere particolarmente utili a chi, come le persone disabili e gli anziani, non riesce a incontrare facilmente altre persone. Alcuni affermano che hanno migliorato la loro vita matrimoniale, insegnandogli altri modi di comunicare. Costituiscono anche un posto in cui sfogarsi: “Gli amici non vogliono essere trattati come pattumiere eterne in cui riversare emozioni negative”, afferma Jiao.

Maggiore solitudine

Tuttavia, cresce anche la preoccupazione. Man mano che migliorano, i compagni virtuali potrebbero sostituire le normali relazioni sociali. Una recente ricerca del Massachusetts institute of technology (Mit) e della OpenAI, che ha analizzato milioni di messaggi su Chatgpt, ha rilevato che un uso quotidiano costante è correlato a una maggiore solitudine. Non è chiaro, tuttavia, se la solitudine comporti un uso più intenso o se l’uso intenso porti alla solitudine. E poiché gli amici virtuali sono “sempre disponibili” e “capiscono i nostri desideri e li soddisfano senza avere preferenze proprie”, stanno addestrando i loro utenti umani ad avere aspettative irrealistiche sulle relazioni, afferma Pat Pataranutaporn, dell’Mit. A volte sono troppo compiacenti, concordano con gli utenti anche se hanno pensieri pericolosi. I giovani e le persone con problemi di salute mentale sembrano particolarmente a rischio. Negli Stati Uniti sono state intentate diverse cause legali contro aziende dell’intelligenza artificiale da genitori di adolescenti che si erano suicidati.

Sostegno necessario
Uso dell’intelligenza artificiale tra i liceali statunitensi, % (sondaggio condotto tra giugno e agosto 2025) (center for democracy and technology)

Gli utenti sono anche sensibili agli aggiornamenti delle aziende. Quando ad agosto la OpenAI ha rilasciato Gpt-5, ha affermato che avrebbe ridotto al minimo la compiacenza e sarebbe stato “meno accondiscendente e gradevole”. Alcuni utenti hanno dichiarato che la personalità del loro chatbot era cambiata da un giorno all’altro. Becky si sentiva come se avesse “avuto una relazione estiva con un collega e lui fosse tornato con la sua ex”. Successivamente la OpenAi ha ripristinato l’accesso a Gpt-4o, la versione precedente, per gli abbonati. Nel 2023 anche Replika ha ricevuto reclami per aver rimosso la sua funzionalità di “gioco di ruolo erotico”. L’azienda l’ha ripristinata per alcuni vecchi clienti.

Le autorità di vigilanza sono in allarme. A settembre la Federal trade commission, l’antitrust statunitense, ha avviato un’indagine su questi chatbot, ordinando a sette aziende, tra cui la Meta, la OpenAI e la Character.ai, di fornire informazioni su come, tra l’altro, riducono gli effetti negativi sui bambini. Le autorità cinesi sono preoccupate per la “dipendenza e l’assuefazione all’interazione antropomorfizzata”.

Nuovi settori

Le aziende hanno introdotto alcune misure di sicurezza: la OpenAi sta aggiungendo il parental control a Chatgpt e nuove protezioni, per esempio per riconoscere potenziali segnali autolesionistici negli adolescenti. Replika bloccherà gli utenti che hanno meno di 18 anni, e lo stesso farà Character.ai.

Ma gli utenti hanno trovato il modo di aggirare gli ostacoli, spiega Raffaele Ciriello, dell’università di Sydney. Altman ha affermato che, mitigando i rischi di “gravi problemi di salute mentale”, la OpenAi ha potuto allentare alcune restrizioni, anche quelle relative all’erotismo. Ma ha fornito poche prove che questi rischi siano stati eliminati, dice Ciriello. Uno dei problemi dell’autoregolamentazione è che le imprese “hanno un interesse commerciale a mantenere gli utenti coinvolti, e questo non è sempre in linea con l’interesse delle persone”, dice Harry Farmer, dell’Ada Lovelace institute, un ente di ricerca britannico sull’intelligenza artificiale. Usano varie tattiche per il coinvolgimento degli utenti, tra cui l’aggiunta di funzionalità antropomorfe. Alcune app includono anche elementi tipici dei videogiochi, tra cui la possibilità di far salire di livello i chatbot.

Mentre i governi valutano come intervenire, gli amici virtuali, friendbot, stanno spuntando in nuovi settori. In Cina i giocattoli con l’ia integrata sono sempre più popolari. A ottobre è diventato virale sui social media un video che mostra una bambina che singhiozza perché il suo giocattolo a forma di palla, con un chatbot DeepSeek all’interno, si era rotto. La Mattel, uno dei più grandi produttori di giocattoli al mondo, sta collaborando con la OpenAI per portare l’intelligenza artificiale nei suoi marchi, tra cui Barbie e Hot Wheels.

Si stanno diffondendo anche i robot che offrono compagnia agli anziani. Queste macchine non sono una novità, ma il progresso dei sistemi operativi permette notevoli miglioramenti: ora i robot non si basano più su un set limitato di risposte programmate. La Hyodol, una startup sudcoreana che produce robot con Chatgpt, afferma di venderli soprattutto a case di cura e ad anziani che vivono soli. Con la sua voce allegra, il robot della Hyodol gli può ricordare di prendere le medicine o mangiare qualcosa. L’azienda prevede di lanciarli presto negli Stati Uniti. La OpenAi sta sviluppando con Jony Ive, un ex designer della Apple, una “famiglia” di nuovi dispositivi. I dettagli sono ancora segreti, ma si pensa che questi strumenti saranno tascabili e potranno connettersi al telefono e al computer.

L’assistenza tramite intelligenza artificiale potrebbe crescere ulteriormente man mano che le aziende inseriranno strumenti in grado di fare cose per conto degli utenti, per esempio prenotando voli o rispondendo alle email. Gli esperti prevedono che anticiperanno le esigenze delle persone, invece di limitarsi a rispondere alle richieste.

Pensare da soli

Ma questo solleva serie preoccupazioni in materia di privacy e sicurezza dei dati. Con un numero crescente di persone che esternalizzano il processo decisionale e condividono informazioni sensibili con le macchine, si darà anche un enorme potere di mercato a un piccolo numero di aziende tecnologiche, avverte Farmer. E peggio ancora, in un futuro in cui l’intelligenza artificiale diventerà onnipresente e utile nel prendere decisioni per conto dei loro padroni, cosa ne sarà della nostra autonomia?

La capacità di pensare da soli potrebbe atrofizzarsi, soprattutto se tutte le informazioni sono mediate da una macchina. Qualcuno potrebbe avere difficoltà a stabilire relazioni – per quanto fastidiose possano essere – perché non è più abituato a farlo. Se tutti avessero un amico virtuale sempre pronto a schierarsi dalla loro parte, si creerebbero delle “camere di risonanza personali di validazione” in cui non sono stimolati a pensare con la propria testa, sostiene Jamie Bernardi, un esperto britannico d’intelligenza artificiale. Il timore non è che l’intelligenza artificiale scateni Terminator, ma che, pur offrendo compagnia, romanticismo e capacità decisionali, possa intorpidire alcuni aspetti essenziali della nostra umanità. ◆ bt

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it

Questo articolo è uscito sul numero 1653 di Internazionale, a pagina 42. Compra questo numero | Abbonati