Nel 2019, durante i suoi studi alla Hku university of the arts di Utrecht, il designer olandese Jip van Leeuwenstein ha progettato una maschera trasparente che distorce i lineamenti del viso. Si chiama surveillance exclusion e, invece di coprire il volto come farebbe un passamontagna, lo trasforma mantenendolo visibile. In pratica, è uno schermo curvo, modellato da varie lenti che deviano la luce. Per un essere umano, la persona rimane riconoscibile e le espressioni facciali leggibili, nonostante la maschera sia un po’ strana. Ma un’intelligenza artificiale di riconoscimento facciale potrebbe, invece, essere ingannata.

I software di riconoscimento facciale, infatti, non vedono come noi, anche se simulano il modo in cui, mediamente, riconosciamo gli altri. Mediamente, perché non funziona per tutti allo stesso modo e poi esistono anche persone che soffrono, a vari livelli, di prosopagnosia, cioè dell’incapacità di riconoscere i volti.

Per le macchine, funziona così: identificano e misurano punti chiave del volto, come la distanza tra gli occhi, la larghezza del naso, la forma del mento; poi li confrontano con i volti registrati nei loro archivi. Però, se quei rapporti geometrici sono alterati, non riescono a trovare corrispondenze. La maschera di van Leeuwenstein fa esattamente questo: impedisce alle macchine di trovare corrispondenze. Però non è in vendita: è un prototipo ed è un progetto di critica ai sistemi di sorveglianza automatizzata, oltre che un modo per provare a hackerare il sistema.

C’è una corrente di ricercatori ibridi, cioè che lavorano all’intersezione tra arte, design, moda e attivismo politico, che si occupa delle tecnologie di riconoscimento facciale. C’è chi ha inventato proiettori indossabili come copricapo: proiettano volti diversi sulle facce delle persone.

Ci sono molti altri progetti, come HyperFace (di design speculativo) o capable (commerciale e con prodotti molto costosi) che propongono motivi decorativi su tessuti, felpe, maglioni, magliette, pantaloni e altri abiti o accessori, progettati espressamene per ingannare gli algoritmi di riconoscimento. In alcuni casi sono stati prodotti foulard con molti volti iper-realistici stampati per confondere le telecamere e impedirgli di capire dove si trova, effettivamente, il volto che dovrebbero riconoscere; in altri casi, pantaloni con fantasie maculate che fanno pensare agli algoritmi di avere di fronte un cane o altri animali. Si chiamano decorazioni antagoniste. In questo video, puoi vedere uno dei maglioni ideati da un gruppo di ricercatori del Maryland.

E non è tutto: la stilista polacca Ewa Nowak ha creato un gioiello facciale in ottone – una specie di circuito decorativo da portare sulla fronte e sulle guance – che confonde le telecamere. Il collettivo Dazzle Club di Londra, invece, ha organizzato passeggiate pubbliche con volti truccati appositamente per disturbare il riconoscimento facciale.

Dichiarazione d’intenti

L’idea di usare il trucco o le acconciature dei capelli – make-up asimmetrici, colori accesi applicati solo su metà volto, occhi nascosti e via dicendo – si chiama cv dazzle, dove cv sta per computer vision (cioè visione artificiale) e dazzle è il nome di un tipo di mimetizzazione ottica usato durante la prima guerra mondiale per ingannare gli osservatori. Le navi venivano dipinte con forme geometriche e colori, rendendo difficile, in caso di avvistamento, stimare la distanza, la velocità e la grandezza della nave. L’idea è simile a quella della maschera di van Leeuwenstein: rompere le simmetrie del volto con colori, riflessi e geometrie, spezzare lo schema che l’algoritmo – umano o meno – si aspetta di vedere.

Alcuni di questi metodi sono artistici, altri sperimentali e altri già in commercio, anche se con prezzi spesso inaccessibili. Gli abiti con le decorazioni antagoniste, per esempio, si possono già comprare, così come gli occhiali fatti di materiali che riflettono sia la luce visibile sia quella infrarossa, quella usata dalle telecamere di riconoscimento facciale che lavorano al buio. A causa del riflesso, il sensore della telecamera viene saturato (il fenomeno, in inglese, si chiama clipping). Così, dove dovrebbe esserci il volto di una persona, le ia trovano pochi dettagli e poco contrasto, non possono misurare la distanza tra gli occhi o la forma del naso e il riconoscimento biometrico fallisce.

Bisogna fare attenzione, però. I produttori di occhiali e vestiti in vendita dichiarano di averli testati con successo anche contro i sistemi di sorveglianza già in uso. Ma il risultato varia in base alla versione dell’algoritmo, alla luce ambientale, alla distanza della telecamera. E poi i tessuti disegnati hanno due problemi: in molti casi attirano anche troppo l’attenzione e poi, quando ci si muove, diventa abbastanza evidente anche a una macchina che sono tessuti.

Con la faccia da turista
Molti aeroporti usano la tecnologia biometrica per identificare i passeggeri. Così velocizzano le procedure, ma a scapito della riservatezza.

Secondo alcuni studi, la probabilità di essere identificati con i tessuti antagonisti rimane comunque intorno al 50 per cento. I software più recenti riescono già a riconoscere le persone anche se indossano una mascherina chirurgica. E possiamo immaginare che i produttori dei software tenteranno di migliorarli imparando dalle tecniche di chi prova ad aggirarli.

Insomma, questi metodi rischiano di diventare più una dichiarazione d’intenti per chi ha grandi disponibilità economiche che veri strumenti da usare per proteggere la propria privacy. Non solo: esistono già software di riconoscimento di altri segnali biometrici, come l’andatura.

Camuffarsi è sempre stato anche un atto politico, non solo riservato a momenti goliardici o ai malintenzionati. A maggior ragione, può esserlo oggi che in molti posti del mondo c’è chi chiede una moratoria delle tecnologie di riconoscimento facciale e la loro messa al bando, anche a partire da studi di anni, come quelli condotti dal ricercatore e giornalista Fabio Chiusi.

Al di là del loro uso teorico per perseguire i criminali, infatti, i software di riconoscimento facciale sono macchine invasive. Il loro uso è esplicitamente vietato dall’Ai Act, tranne in alcuni casi molto specifici. In Italia è teoricamente vietato installare queste tecnologie, almeno fino alla fine del 2025. Inoltre, questi software non sono infallibili ed essere scambiati da una macchina per qualcuno che ha commesso un crimine potrebbe diventare un problema enorme.

Le ragioni dell’anonimato

Ci sono molte ragioni per cui qualcuno, anche se non malintenzionato, potrebbe voler sfuggire a questi sistemi. Alcune sono evidenti: proteggersi dalla sorveglianza di stato o privata; poter partecipare a manifestazioni o eventi o comunque frequentare spazi pubblici senza lasciare tracce biometriche; non voler essere tracciati e schedati in generale (fosse anche solo per scopi pubblicitari).

Per ora, in gran parte del mondo, truccarsi in modo creativo, indossare cappelli larghi o occhiali riflettenti, coprirsi parte del volto o deviarne l’immagine con una lente distorcente non è vietato. Ma non è detto che sarà sempre così.

In molti paesi, togliere o manomettere la targa di un’auto è un reato perché impedisce di identificare il veicolo: potrebbe accadere qualcosa di simile anche per i volti? Qualcuno potrebbe vietare l’uso di maschere, trucchi o accessori che interferiscono con i software di riconoscimento?

È una possibilità non troppo remota. In Cina, per esempio, dal 2019 per attivare una sim telefonica occorre farsi riconoscere. Ma più di recente le autorità cinesi hanno detto che occorre offrire qualche alternativa a chi non vuole farsi riconoscere.

Il fatto è che riconoscimento facciale va oltre la semplice tecnologia: è una forma di governo e di controllo dei nostri corpi, che può amplificare disuguaglianze a dismisura. Chi è visibile e a chi? A chi si applicano le regole? Chi può spostarsi senza essere guardato? E cosa succede quando decidiamo di sottrarci allo sguardo delle macchine?

È vero che rinunciare a essere identificabili può sembrare strano o sospetto. Ma forse dovremmo proprio iniziare a reclamare il nostro diritto a essere anonimi e a esistere fuori dalle inquadrature.

Questo articolo è tratto dalla newsletter Artificiale.

Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti
Iscriviti a
Artificiale
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
Iscriviti

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it