Immaginate la scena seguente: siete a un colloquio di lavoro e, mentre rispondete alle domande, un computer dotato d’intelligenza artificiale scansiona il vostro volto per valutare i livelli di nervosismo, empatia e affidabilità. Sembra fantascienza ma non è così: l’intelligenza artificiale si sta diffondendo, e a volte è usata all’insaputa delle persone che esamina, quindi senza il consenso.
La tecnologia per il riconoscimento delle emozioni (Ert, Emotion recognition technology), un settore in espansione che vale miliardi di dollari, sfrutta l’intelligenza artificiale per individuare le emozioni scansionando le espressioni facciali. La scienza alla base di questa tecnologia, però, è molto discussa perché è intrinsecamente faziosa.
Molte aziende usano la Ert per testare le reazioni dei clienti ai loro prodotti, dai cereali ai videogiochi, ma può essere usata in campi molto più delicati come i colloqui di lavoro, la sicurezza negli aeroporti, la protezione dei confini, la sorveglianza e la scuola.
Pregiudizi negli algoritmi
Per fortuna l’opinione pubblica si sta mobilitando. Il film Coded bias, uscito da poco su Netflix, mostra che molte di queste tecnologie non decifrano con precisione i volti con la pelle più scura. Il team di ricerca che gestisce ImageNet, uno dei principali database d’immagini usati per l’apprendimento dei software, ha oscurato un milione e mezzo di foto in seguito alle accuse di violazione della privacy. Colossi informatici come Microsoft, Amazon e Ibm hanno sospeso la vendita della tecnologia di riconoscimento facciale dopo che sono emersi pregiudizi negli algoritmi e discriminazioni nei database. Nel Regno Unito è stato presentato un ricorso contro l’uso di questa tecnologia nella sorveglianza e nell’Unione europea alcune associazioni ne ha chiesto la messa al bando.
La tecnologia Ert è contestata anche per la discutibile scienza delle emozioni da cui deriva. Poggia sulla teoria delle “emozioni elementari”, in base alla quale, dal punto di vista biologico, tutti esprimiamo le emozioni nello stesso modo. La ricerca antropologica dimostra però che le emozioni sono espresse in modo diverso da ogni cultura e società. Nel 2019 l’Association for psychological science ha stabilito che l’ipotesi secondo cui lo stato emotivo si può dedurre dai movimenti del viso è senza fondamento. Come altre forme di riconoscimento facciale, inoltre, la Ert è viziata da pregiudizi razziali. Uno studio ha dimostrato che considera immancabilmente i volti dei neri più arrabbiati di quelli dei bianchi.
Secondo la ricercatrice d’intelligenza artificiale Deborah Raji, questa tecnologia risulta dannosa sia quando funziona sia quando non funziona: “Nel primo caso può essere usata come arma per opprimere la comunità. Nel secondo discrimina e mette in pericolo le minoranze”.
Le sfide poste dal riconoscimento facciale non hanno soluzioni facili. Per risolvere i problemi sollevati dalla Ert, l’etica dell’intelligenza artificiale deve spostarsi dai princìpi astratti agli effetti reali che ha sulla vita delle persone. Prima di tutto bisogna riconoscere e correggere i pregiudizi razziali della discutibile scienza delle emozioni. Ma soprattutto dobbiamo chiederci se vogliamo una sorveglianza di questo tipo nella nostra vita, anche se la tecnologia interpretasse con precisione i nostri sentimenti più intimi. Per rispondere a queste domande serve un ampio dibattito pubblico, che finora è mancato.
Per questo abbiamo lanciato un progetto di scienza partecipata sul nostro sito interattivo (emojify.info), dov’è possibile testare questa tecnologia in totale sicurezza, scoprendo come interpreta le emozioni dalla scansione del viso. Si può anche competere con l’intelligenza artificiale nel riconoscere le emozioni e fornire spunti per ampliare la discussione. Come dice l’informatica e attivista digitale Joy Buolamwini: “Chiunque abbia una faccia ha il diritto di partecipare”. ◆ sdf
Alexa Hagerty è ricercatrice di antropologia all’università di Cambridge.
Alexandra Albert è ricercatrice di citizen social science dello University college di Londra.
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it
Questo articolo è uscito sul numero 1407 di Internazionale, a pagina 95. Compra questo numero | Abbonati