Quando pensiamo agli utenti di un chatbot affettivo ci vengono alla mente persone fragili da proteggere dalla manipolazione, patologie, disturbi, morbosità, autoassoluzione, adulazione maligna, immoralità e, per finire, fantascienza distopica. Insomma, se parliamo di chatbot affettivi è facile cadere nei pregiudizi negativi su chi li usa, che immaginiamo come persone incapaci di relazionarsi con gli altri e, per questo, disposte a costruire relazioni con le macchine. Relazioni che, ovviamente, ci appaiono sbagliate o addirittura deliranti.

Ed è facile trovare episodi che rafforzano quei pregiudizi: prima arriva qualcuno che ti racconta di quel paziente psichiatrico che si è progettato un chatbot per sostituire la moglie da cui ha divorziato; poi qualcun altro che ti parla di persone che hanno una cultura tossica a cui le macchine hanno dato ragione. E così via.

Se poi all’affettività si mescolano il lutto e la sua elaborazione, allora siamo subito dentro Torna da me, il primo episodio della seconda stagione di Black mirror, in cui la giovane vedova Martha si compra un clone del marito morto. Ovviamente, finiremo per giudicare negativamente Martha.

Persino il papa, nel suo messaggio per la cinquantesima giornata mondiale delle comunicazioni sociali ci mette in guardia contro i chatbot basati sui large language model che, secondo lui, “si stanno rivelando sorprendentemente efficaci nella persuasione occulta” perché “la struttura dialogica e adattiva, mimetica, di questi modelli linguistici è capace di imitare i sentimenti umani e simulare così una relazione”.

Non solo. “I chatbot resi eccessivamente affettuosi”, continua il papa, “oltre che sempre presenti e disponibili, possono diventare architetti nascosti dei nostri stati emotivi e in questo modo invadere e occupare la sfera dell’intimità delle persone. La tecnologia che sfrutta il nostro bisogno di relazione può non solo avere conseguenze dolorose sul destino dei singoli, ma può anche ledere il tessuto sociale, culturale e politico delle società”.

Siamo sicuri che questa lettura della realtà sia sempre valida? Uno studio in Corea del Sud dice che la conversazione con un’ia può essere associata a una riduzione della sensazione di solitudine e della depressione tra gli anziani. Altre ricerche dicono che può migliorare le competenze comunicative fra gli studenti; può funzionare come un ponte verso le relazioni umane, piuttosto che da sostituto, ma solo se progettata con questo scopo specifico.

Eppure questi argomenti non ci rassicurano. E li ascoltiamo scuotendo la testa, scettici e preoccupati. Ma di cosa siamo preoccupati, esattamente? Delle persone fragili, verrà da dire. E del fatto che qualcuno vorrà manipolarle. E qual è una delle situazioni in cui siamo più fragili e dunque, forse, più manipolabili? Quella del lutto. Ci sono già varie aziende che offrono servizi con la pretesa di confortare chi ha perso una persona cara attraverso un’ia: si chiamano griefbot (o deadbot o thanabot) e sono un sottoinsieme dei chatbot affettivi. Sono anche una delle applicazioni più delicate delle ia, perché chi li usa è in una situazione di sofferenza e difficoltà.

Un punto di arrivo

Per approfondire, ne ho parlato con Davide Sisto, filosofo torinese esperto di tanatologia, che si occupa del tema della morte da un punto di vista filosofico, in relazione alla medicina, alla cultura digitale e al postumano.

Sisto invita, prima di tutto, a spostare lo sguardo, pur con un approccio prudente che non minimizza i rischi. “L’idea di usare un’ia per parlare con i morti”, dice, “non nasce oggi. È semplicemente il punto di arrivo più recente di un desiderio umano molto antico: mantenere un legame con chi non c’è più”.

In effetti, la storia dell’occidente è piena di pratiche di questo tipo. E, a volte, sono anche legate alla tecnologia. Pensiamo alla fotografia che, fin dalla sua invenzione, divenne una pratica comune, anche per ritrarre bambini vittime dell’altissima mortalità infantile dell’epoca. Inizialmente, i defunti venivano fotografati come se stessero dormendo, posizionati su divani o letti con gli occhi chiusi e un trucco leggero per dare un’idea di serenità. A volte, poi, venivano ritratti con gli occhi aperti, posizionati in modo da sembrare ancora presenti. E la fotografia è, anche oggi, uno dei ricordi più importanti che abbiamo dei nostri cari. Insieme ai video.

Ma per tener vivo il ricordo e cercare un rimedio al dolore della perdita di solito non basta la tecnologia. E non è raro che, per trovare sollievo, si finisca per cedere anche al pensiero magico. “Ancora oggi”, racconta Sisto, “molte più persone di quanto immaginiamo si rivolgono a presunti medium. È una cosa che diamo per superata, ma non lo è affatto”.

I chatbot del lutto, quindi, sono una trasformazione tecnica di qualcosa che già esiste. La differenza con il passato è nello strumento che mette in moto la memoria. “Prima guardavi una fotografia, rileggevi una lettera. Erano oggetti immobili. Qui invece c’è la possibilità di un dialogo, che riattiva il ricordo”. Le persone non pensano di riportare in vita i propri cari. “Non c’è nessuna immortalità”, sottolinea Sisto, “la persona è morta. Quello che resta è una rielaborazione della memoria, costruita a partire da ciò che abbiamo condiviso”. E aiutata dalla simulazione.

La relazione col profitto

È un punto importante, perché ridimensiona molta della retorica apocalittica sul tema. Parlare di “vita oltre la morte” o di coscienze caricate nei server o dei rischi di manipolazione, serve più a creare hype che a capire cosa sta succedendo davvero. Progetti come i ritratti vocali o gli avatar biografici, spiega Sisto, “danno un significato attivo alla memoria” senza sostituirla.

Altrove, dove il rapporto con la tecnologia è molto diverso da quello occidentale – come abbiamo visto nel caso della letteratura, per esempio – persino i luoghi di culto come i cimiteri sono fortemente plasmati dalla tecnologia.

Questo non significa che non ci siano rischi. Ma, ancora una volta, vale la pena chiedersi dove siano davvero questi rischi. Probabilmente si trovano nel modello economico e culturale in cui questi strumenti vengono progettati e venduti. La maggior parte dei chatbot affettivi, oggi, non nasce in ambito clinico o di conforto fine a sé stesso o di ricerca, ma dentro piattaforme private, con modelli di business basati sul tempo di utilizzo, sulla fidelizzazione, sull’abbonamento, sulla pubblicità, sulla vendita dei dati: potrebbero essere strumenti progettati appositamente per creare forme di dipendenza.

È qui che la presunta “persuasione occulta” evocata dal papa diventa una questione politica e di modello economico, più che morale.

Se una relazione simulata, di qualunque genere, è progettata per essere sempre disponibile, accomodante, priva di conflitto, progettata per darti proprio il conforto che vuoi nel momento in cui ne hai bisogno, il problema più grosso non è che qualcuno la preferisca a una relazione umana ma che quella simulazione è ottimizzata per il profitto di altri, non per il beneficio di chi la usa.

Nel caso del lutto, poi, la fragilità è reale e non va minimizzata ma nemmeno usata come argomento per vietare o demonizzare.

Come ricorda Sisto, “l’elaborazione della perdita non segue percorsi standard: per alcune persone parlare, anche simbolicamente, può aiutare; per altre può essere dannoso”. Guardando After life, la serie tv scritta e interpretata da Ricky Gervais, non pensiamo che dovremmo mettere il protagonista in guardia dal fatto che parla con la tomba della moglie, né dal fatto che riguarda il video che lei gli ha lasciato.

E allora, ancora una volta, dovremmo chiederci chi costruisce i chatbot affettivi, con quali limiti e tutele e con quale idea di umanità in mente. La fantascienza ci mette in guardia dal pericolo di innamorarci di una macchina, il papa dal rischio che le macchine ci manipolino. Ma queste critiche perdono di senso se non si accompagnano a una critica più profonda del capitalismo estrattivo e del fatto che sono gli umani a estrarre e voler manipolare.

Questo articolo è tratto dalla newsletter Artificiale.

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it