Nel 1791, il filosofo Jeremy Bentham progettò il Panopticon: una prigione circolare dove un singolo guardiano poteva osservare tutti i detenuti senza che questi sapessero se erano guardati in quel momento. L'idea era che la semplice possibilità di essere osservati avrebbe indotto i detenuti all'auto-disciplina. Due secoli dopo, Michel Foucault usò il Panopticon come metafora delle società disciplinari moderne. Oggi, con l'intelligenza artificiale, siamo andati oltre: non ci limitiamo a guardare, possiamo analizzare, prevedere e classificare il comportamento di intere popolazioni in tempo reale.
La sorveglianza tradizionale aveva un limite intrinseco: il costo. Ogni persona sorvegliata richiedeva risorse — agenti, apparecchiature, tempo. La Stasi, il servizio segreto della Germania Est, impiegava un informatore ogni 6,5 cittadini e non era comunque in grado di monitorare tutti. L'AI ha rimosso questo vincolo. Un singolo sistema di telecamere con riconoscimento facciale può identificare migliaia di persone al minuto. Un algoritmo di analisi del traffico dati può monitorare le comunicazioni di milioni di utenti simultaneamente. Il costo marginale della sorveglianza è crollato verso lo zero.
Il caso più estremo è il sistema di credito sociale cinese, che combina riconoscimento facciale, analisi dei dati finanziari, monitoraggio dei social media e tracking GPS per assegnare un "punteggio" ai cittadini. Un punteggio basso — causato da ritardi nei pagamenti, attraversamento col rosso, frequentazione di persone con punteggi bassi — può impedire l'acquisto di biglietti aerei, l'iscrizione dei figli a certe scuole, l'accesso al credito. È il Panopticon di Bentham realizzato su scala nazionale.
Ma sarebbe un errore pensare che la sorveglianza di massa sia un problema solo cinese. Le rivelazioni di Edward Snowden nel 2013 hanno dimostrato che la NSA americana raccoglieva massivamente metadati telefonici e intercettava comunicazioni internet a livello globale. In Europa, la polizia predittiva (PredPol, HunchLab) usa dati storici sui crimini per "prevedere" dove avverranno reati futuri — con il risultato prevedibile di concentrare la sorveglianza nei quartieri poveri e nelle comunità di colore. In Italia, il sistema SARI (Sistema Automatico di Riconoscimento Immagini) è stato usato dalle forze dell'ordine senza una base legale chiara.
La sorveglianza di massa non è solo una questione di privacy. È una questione di potere. Chi può sorvegliare chi? Chi controlla i dati raccolti? Chi decide come vengono usati? Quando la sorveglianza è asimmetrica — i governi e le corporation ci guardano, ma noi non possiamo guardare loro — il rapporto di potere è fondamentalmente squilibrato. La privacy non è il diritto di "non avere nulla da nascondere". È il diritto di esistere senza essere costantemente giudicati, classificati e manipolati.