Sorveglianza

La polizia spagnola inizia a utilizzare il software di riconoscimento facciale per identificare i sospetti

Pubblicato

il

La polizia spagnola sarà presto autorizzata a utilizzare uno strumento di riconoscimento facciale automatico, soprannominato ABIS (sistema di identificazione biometrica automatica), che utilizza l’intelligenza artificiale per identificare i sospetti da un database attualmente in fase di sviluppo. Lo riporta il sito Reclaim the Net.

 

ABIS utilizza un algoritmo chiamato Cogent, sviluppato dalla società di tecnologia militare francese Thales. Il programma confronta le immagini introdotte dalla polizia, come un’immagine ottenuta da una telecamera di sicurezza, con le immagini memorizzate in un database, che conterrà oltre cinque milioni di immagini di sospetti e detenuti già in archivio. Gli arrestati dopo l’avvio del sistema verranno aggiunti al database.

 

Secondo quanto riferito, il database non utilizzerà le immagini dei registri del database civile, come il database contenente le foto utilizzate per i documenti di identità nazionali. Ciò a differenza di altri sistemi controversi quanto potentissimi come ClearviewAI, che dispone di dati provenienti dalla rete e dai social, quando poteva eseguire lo scraping (recupero) dei dai presenti sui database.

 

Il ministero dell’Interno spagnuolo afferma di aver lavorato al sistema per tre anni al fine di permettere all’ABIS di essere utilizzato per indagare su reati gravi. Il ministero insiste sul fatto che non sarà utilizzato per la sorveglianza.

 

In Spagna, la polizia ha due modi per identificare i sospetti quando non ci sono sospetti; impronte digitali e analisi del DNA. Ora avranno una terza opzione, e non si tratta di poca cosa: senza il riconoscimento facciale automatico, è impossibile avviare una ricerca di un sospetto nel filmato senza qualcosa che restringa la ricerca.

 

Il database contenente le immagini facciali sarà lo stesso che contiene campioni di DNA e impronte digitali. I dati sono condivisi con altri Stati membri dell’UE nell’ambito del Sistema d’informazione Schengen (SIS).

 

Il quotidiano El Pais ha riferito che l’Agenzia spagnola per la protezione dei dati (AEPD) ha contattato il ministero dell’Interno «per affrontare vari progetti del ministero che potrebbero avere un impatto sulla protezione dei dati». L’agenzia per la protezione dei dati non era a conoscenza dell’ABIS fino a luglio. Vuole determinare i rischi che il sistema pone ai diritti e alle libertà dei cittadini. Vuole anche sapere per quanto tempo la polizia conserverà le immagini dei sospetti, chi dovrebbe avere accesso ai dati e così via.

 

«Forse il problema più grande è che gli algoritmi commettono errori, e in questo caso non è qualcosa di così privo di impatto come la raccomandazione musicale sbagliata» scrive Reclaim the Net. «Negli Stati Uniti, Robert Williams è stato arrestato e portato in prigione per errore perché un sistema di riconoscimento facciale lo ha confuso con qualcun altro».

 

Come noto, la tecnologia di riconoscimento facciale è altamente imprecisa nel riconoscere le persone di colore, tanto che vengono mosse contro le macchine e chi le ha programmate accuse di razzismo.

 

Bruxelles ha classificato la tecnologia di riconoscimento facciale come «ad alto rischio» e sta lavorando alla regolamentazione per adottare approcci che affrontino il potenziale rischio che i sistemi di intelligenza artificiale comportano. Tuttavia, ha dato il via libera all’uso del riconoscimento facciale per «allo scopo di prevenire, arrestare o indagare su reati gravi o terrorismo». La tecnologia non potrebbe però essere utilizzata per la sorveglianza.

 

In Italia il Garante della Privacy lo scorso marzo avrebbe bloccato ClearviewAI e il suo sistema, quasi infallibile, di face recognition. Si è appreso negli ultimi mesi che la tecnologia è stata offerta gratuitamente all’Ucraina. Si tratta di una scelta molto controversa, teoricamente utilizzata per riconoscere i soldati russi morti, ma che potrebbe essere impiegata per usi problematici, immorali, orrorifici.

 

È stato riportato l’uso del riconoscimento facciale da parte di Israele per il controllo dei palestinesi.

 

Le grandi piattaforme Big Tech hanno per anni lavorato sul riconoscimento facciale, anche degli utenti – magari anche di voi. Il Texas a inizio anno ha denunziato Facebook per centinaia di miliardi di dollari per presunte violazioni nei confronti dei cittadini texani.

 

In Corea si stava studiando un sistema di face recognition che potesse indicare la positività al COVID. Gli Emirati Arabi hanno montato sistemi onnipervasivi di telecamere con riconoscimento facciale proprio con il fine di «rilevare il COVID-19». La Gran Bretagna hanno proposto questa tecnologia in alternativa al green pass per permettere ai cittadini di accedere al pub.

 

In Argentina è emerso che bambini «sospettati di essere criminali» sono monitorati in tempo reale grazie ai programmi di riconoscimento facciale.

 

C’è da notare che i nuovi software sono effettivi al 95% anche nel caso la persona indossi una mascherina.

 

Come riportato da Renovatio 21, la Cina, che ha il triste primato di Nazione più afflitta dalla sorveglianza face recognition – con la quale implementa parte della repressione contro la popolazione uigura – ha introdotto algoritmi in grado di determinare dalla faccia addirittura la «fedeltà al Partito Comunista Cinese».

 

La Cina sta attivamente vendendo le sue tecnologie di sorveglianza anche all’estero: l’Uganda, ad esempio, ha acquistato tecnologia di riconoscimento facciale da Huawei per reprimere il dissenso dopo le proteste antigovernativa di due anni fa.

 

 

 

 

Più popolari

Exit mobile version