Rivolte USA, Big Tech stoppa tecnologia di riconoscimento facciale

 

 

Microsoft, IBM, Google e Amazon hanno tutti messo in pausa la loro tecnologia di riconoscimento facciale a causa dei timori che ciò potesse pregiudicare le persone di colore.

 

Ciò si traduce materialmente nella sospensione delle possibili identificazioni automatiche dei rivoltosi che stanno mettendo a ferro e fuoco le città americane. Il che significa, semplicemente, che i grandi gruppi privilegiano la conformità alla narrativa mainstream in corso (l’emergenza del razzismo, etc.) alla sicurezza materiale delle strade – sicurezza di cui hanno diritto di godere anche i cittadini di colore che non si sono uniti alle razzie.

 

 

Questa scelta, ulteriormente, crea un problema anche professionale: in alcuni casi le aziende hanno siglato contratti con lo Stato di modo da offrire alle forze dell’ordine queste tecnologie.

Microsoft, IBM, Google e Amazon hanno tutti messo in pausa la loro tecnologia di riconoscimento facciale a causa dei timori che ciò potesse pregiudicare le persone di colore.

Per quanto questa situazione possa sembrare illogica sino al grottesco , la decisione di tutti i grandi del settore tech è presa: IBM non offrirà più la tecnologia di face recognition.

 

«IBM si oppone fermamente e non perdonerà l’uso di alcuna tecnologia, inclusa la tecnologia di riconoscimento facciale offerta da altri fornitori, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà di base o qualsiasi scopo che non sia coerente con i nostri valori», ha affermato Il CEO Arvind Krishna in una lettera al Congresso questa settimana.

 

Allo stesso modo, l’amministratore delegato di Microsoft Brad Smith ha dichiarato che la sua azienda «non venderà la tecnologia di riconoscimento facciale ai dipartimenti di polizia negli Stati Uniti fino a quando non avremo adottato una legge nazionale, fondata sui diritti umani che regoleranno questa tecnologia».

 

Ciò si traduce materialmente nella sospensione delle possibili identificazioni automatiche dei rivoltosi che stanno mettendo a ferro e fuoco le città americane

Timnit Gebru, leader del team di etica dell’Intelligenza Artificiale di Google, ha dichiarato al New York Times : «Al momento dovrebbe essere vietato. Non so per il futuro».

 

Amazon , che ha reagito lentamente alle critiche, sta implementando «una moratoria di un anno sull’uso da parte della polizia della tecnologia di riconoscimento facciale di Amazon». Ha aggiunto che «Speriamo che questa moratoria di un anno possa dare al Congresso abbastanza tempo per attuare le regole appropriate e siamo pronti ad aiutare se richiesto».

 

Amazon è stata ripetutamente attaccata negli scorsi anni per l’accuratezza del suo riconoscimento facciale. Le accuse parlavano di un «pregiudizio razziale e di genere» dell’algoritmo: in pratica, Amazon stava fornendo un’Intelligenza Artificiale razzista.

 

I grandi gruppi privilegiano la conformità alla narrativa mainstream in corso (l’emergenza del razzismo, etc.) alla sicurezza materiale delle strade

Amazon in particolare forniva ai dipartimenti di polizia americana il suo software di face recognition.

 

Anche Google ha avuto i suoi problemi con una Intelligenza Artificiale razzista: e razzista in modo davvero specioso ed offensivo. Nel 2015 la componente di riconoscimento automatico di Google Photos ha etichettato due persone di colore come «gorilla». La multinazionale si scusò molto.

 

Google inoltre è stata coinvolta in altre controversie che hanno creato polemiche tra gli stessi dipendenti: la creazione di un software per droni militari (veicoli armati che possono identificare un bersaglio umano e sparargli un missile per ucciderlo) e un altro progetto legato al ritorno di Google nella Cina Popolare.

 

Le megalopoli cinesi sono oramai incubi di totalitarismo digitale dove migliaia di telecamere informatizzate  controllano gli spostamenti del cittadino semplicemente registrando il suo volto

La Cina è del resto il paradiso della face recognition. Le megalopoli cinesi sono oramai incubi di totalitarismo digitale dove migliaia (decine di migliaia) di telecamere informatizzate  controllano gli spostamenti del cittadino semplicemente registrando il suo volto. In Cina il riconoscimento facciale è così avanzata da essere praticato persino sui maiali.

 

Il Coronavirus ha semplicemente accelerato sino al parossismo questa tendenza cinese, che – considerando le forze filocinesi al governo – può arrivare in Italia da un momento all’altro.

 

Michael Cook di Bioedge ricorda il gruppo per i diritti digitali Fight for the Future, che si è lamentato del fatto che le affermazioni dei colossi Big Tech americani sono solo «un’acrobazia di pubbliche relazioni»:

 

«Come le armi nucleari o biologiche, rappresenta una minaccia così profonda per il futuro dell’umanità che dovrebbe essere bandita apertamente »

«La realtà è che la tecnologia di riconoscimento facciale è troppo pericolosa per essere utilizzata. Come le armi nucleari o biologiche, rappresenta una minaccia così profonda per il futuro dell’umanità che dovrebbe essere bandita apertamente. I legislatori devono smettere di assecondare le compagnie Big Tech e le forze dell’ordine corrotte e fare il loro lavoro».

 

«Il Congresso dovrebbe agire immediatamente per vietare il riconoscimento facciale a tutti gli effetti di sorveglianza»

 

«Il Congresso dovrebbe agire immediatamente per vietare il riconoscimento facciale a tutti gli effetti di sorveglianza»

Nel frattempo, Ronald Bailey sottolinea in un articolo della rivista conservatrice Reason che un’altra società, la controversa Clearview AI, sta avanzando con la sua tecnologia. ClearviewAI, una piccola azienda autrice di un software davvero efficace capace di pescare immagini nel mare magnum dei social network sbaragliando ogni altro software in circolazione, «sta lasciando tutti i suoi clienti privati ​​e venderà i suoi servizi di riconoscimento facciale solo alle forze dell’ordine».

 

«Clearview AI ha creato un’app che consente alla polizia di abbinare le fotografie al suo database di oltre 3 miliardi di foto cancellate da milioni di siti Web pubblici tra cui Facebook, YouTube, Twitter, Instagram e Venmo».

 

Nel suo articolo su Reason, Bailey cita accademici che sono inorriditi da questo sviluppo. «Il riconoscimento facciale è lo strumento perfetto per l’oppressione”, avvertono Woodrow Hartzog, professore di giurisprudenza e informatica alla Northeastern University, e Evan Selinger, filosofo del Rochester Institute of Technology».

«È il meccanismo di sorveglianza più singolarmente pericoloso mai inventato»

 

«È il meccanismo di sorveglianza più singolarmente pericoloso mai inventato».