Nel gennaio 2020, il New York Times rivelò l'esistenza di Clearview AI, una startup che aveva costruito un database di oltre 3 miliardi di foto di volti — raccolte da Facebook, Instagram, YouTube e altri siti — e le aveva rese disponibili alle forze di polizia per il riconoscimento facciale. Nessuna delle persone fotografate aveva dato il consenso. La società non aveva alcun obbligo legale di informarle. Il database era stato venduto a centinaia di agenzie di polizia negli Stati Uniti e in altri paesi.
Il riconoscimento facciale è forse la tecnologia di sorveglianza più invasiva mai creata, perché trasforma qualcosa che non possiamo nascondere — il nostro volto — in un identificatore universale. A differenza di un documento d'identità, che possiamo decidere di non mostrare, o di un telefono, che possiamo lasciare a casa, il nostro volto è sempre con noi. Una telecamera con riconoscimento facciale in una piazza può identificare ogni persona che vi transita, creando un registro dettagliato di chi era dove e quando.
Il problema è amplificato dall'inaccuratezza differenziale di questi sistemi. Lo studio "Gender Shades" di Joy Buolamwini e Timnit Gebru ha dimostrato che i sistemi di riconoscimento facciale di Amazon, Microsoft e IBM avevano tassi di errore del 34,7% per le donne dalla pelle scura, contro lo 0,8% per gli uomini dalla pelle chiara. In un contesto di polizia, questo significa che le persone nere hanno una probabilità enormemente maggiore di essere erroneamente identificate come sospetti.
Le conseguenze reali sono già visibili. Nel 2020, Robert Williams, un uomo nero di Detroit, fu arrestato sulla base di un'identificazione errata del riconoscimento facciale. Fu trattenuto per 30 ore prima che l'errore fosse scoperto. Non è un caso isolato: almeno altri sei casi di arresti errati basati su riconoscimento facciale sono stati documentati negli Stati Uniti, tutti coinvolgenti persone nere.
La risposta globale è stata frammentaria. Alcune città (San Francisco, Boston, Portland) hanno vietato l'uso del riconoscimento facciale da parte della polizia. L'Unione Europea, nell'AI Act del 2024, ha imposto restrizioni significative ma non un divieto assoluto. In molti paesi, non esiste alcuna regolamentazione specifica. Nel frattempo, la tecnologia continua a migliorare e a diffondersi — nei centri commerciali, nelle scuole, negli stadi, nelle stazioni.
La biometria va oltre il volto: riconoscimento dell'andatura, analisi della voce, scansione dell'iride, riconoscimento delle emozioni (una pseudoscienza che pretende di dedurre stati emotivi dalle espressioni facciali). Ciascuna di queste tecnologie presenta gli stessi rischi fondamentali: sorveglianza senza consenso, errori discriminatori e concentrazione del potere in chi controlla i dati.