Con l’intelligenza artificiale che ridisegna i confini tra sicurezza pubblica e privacy, San Pietroburgo fa un po’ di rumore. La città russa ha implementato un sistema di videosorveglianza in grado di determinare automaticamente l’etnia dei passanti. Sei diverse nazionalità possono ora essere identificate in tempo reale, trasformando le strade in un laboratorio di sorveglianza biometrica senza precedenti.
La notizia, riportata da fonti locali e confermata dal vicecapo del comitato per l’informatica e le comunicazioni della città, Igor Nikonov, arriva nel contesto del cosiddetto “Safe City”, un progetto già esteso che integra migliaia di telecamere con software di analisi avanzata. Nikonov ha spiegato durante un’audizione budgetaria che questa capacità analitica consente di “rilevare la concentrazione di specifiche nazionalità in diverse aree urbane”, fornendo alle forze dell’ordine dati per “assumere decisioni conseguenti”.
La tecnologia, stando alle dichiarazioni, non è un esperimento isolato. È il frutto di un contratto da 38,4 milioni di rubli stipulato a fine 2024 per l’acquisto di una licenza software destinata a circa 8.000 delle oltre 102.000 telecamere dispiegate in città. L’obiettivo dichiarato dalle autorità è duplice: da un lato, contrastare l’immigrazione illegale e il lavoro nero; dall’altro, prevenire la formazione di “enclavi etniche” e ridurre la tensione sociale, come affermato mesi fa da Oleg Kapitanov, a capo del comitato per le relazioni interetniche.
Ma come funziona esattamente? I dettagli tecnici restano in parte opachi, com’è tipico in questi casi. Il sistema utilizza algoritmi di riconoscimento facciale addestrati per classificare gli individui in base a caratteristiche fenotipiche associate a sei gruppi etnici. I dati raccolti—flussi video processati in tempo reale—vengono aggregati per produrre report statistici sulla distribuzione demografica in città. Non è chiaro se il sistema conservi i dati biometrici individuali o operi solo su metadati anonimi e aggregati.
Le implicazioni sono profonde e vanno oltre il controllo migratorio. Nikonov ha accennato all’uso della tecnologia per identificare appartamenti “gomma”, utilizzati cioè per registrazioni fittizie di migranti, e per supportare la pianificazione di eventi di larga scala. Ma la vera posta in gioco è il bilanciamento tra sicurezza e diritti civili. Un sistema del genere solleva questioni etiche fondamentali: fino a che punto è lecito classificare le persone in base all’origine? E come vengono prevenuti abusi o discriminazioni sistemiche?
Parallelamente, Mosca sta intensificando il controllo biometrico sui migranti. Il sindaco Sergej Sobyanin ha annunciato l’obbligo per i migranti di confermare la propria posizione geografica tramite app dedicata e l’introduzione di una carta elettronica con QR code contenente storia migratoria, durata del soggiorno e eventuali violazioni. Anche qui, la retorica ufficiale insiste sul “ripristino dell’ordine”, ma il prezzo sembra essere una sorveglianza sempre pervasiva.
C’è poi un aspetto tecnologico non secondario: l’affidabilità degli algoritmi. I sistemi di riconoscimento etnico sono notoriamente controversi e spesso affetti da bias algoritmici, con tassi di errore più elevati per alcuni gruppi demografici. Senza trasparenza sugli dataset di addestramento e sulla validatione del modello, il rischio di falsi positivi e stigmatizzazione è concreto.
Mentre il Cremlino spinge per una sempre maggiore integrazione tra sorveglianza di massa e intelligenza artificiale, San Pietroburgo diventa un caso di studio da monitorare. Non solo per le sue ricadute tecniche o giuridiche, ma per ciò che racconta di un futuro in cui l’etnia diventa un dato sorvegliabile, analizzabile e — forse — controllabile.