Connettiti con Renovato 21

Intelligenza Artificiale

L’«apartheid automatizzato» ottenuto con i software di riconoscimento facciale in Israele: Amnesty International

Pubblicato

il

Israele fa sempre più affidamento sul riconoscimento facciale nella Cisgiordania occupata per rintracciare i palestinesi e limitare il loro passaggio attraverso i checkpoint chiave, secondo un nuovo rapporto, un segno di come la sorveglianza alimentata dall’Intelligenza Artificiale possa essere usata contro un gruppo etnico. Lo riporta il New York Times.

 

Ai posti di blocco ad alta recinzione di Hebron, i palestinesi stanno davanti alle telecamere di riconoscimento facciale prima che gli venga permesso di attraversare. Mentre i loro volti vengono scansionati, il software – noto come Red Wolf – utilizza un sistema di codifica a colori di verde, giallo e rosso per guidare i soldati sull’opportunità di lasciar andare la persona, fermarli per interrogarli o arrestarli, secondo il rapporto di Amnesty International.

 

Quando la tecnologia non riesce a identificare qualcuno, i soldati addestrano il sistema aggiungendo le loro informazioni personali al database.

 

Israele ha a lungo limitato la libertà di movimento dei palestinesi, ma i progressi tecnologici stanno dando alle autorità nuovi potenti strumenti. È l’ultimo esempio della diffusione globale dei sistemi di sorveglianza di massa, che si basano sull’A.I. imparare a identificare i volti delle persone sulla base di grandi archivi di immagini.

 

A Hebron e Gerusalemme Est, la tecnologia si concentra quasi interamente sui palestinesi, secondo il rapporto di Amnesty, segnando un nuovo modo per automatizzare il controllo dei confini interni che separano le vite di palestinesi e israeliani. Amnesty ha definito il processo «apartheid automatizzato». Israele ha fortemente negato di gestire un regime di apartheid.

L’uso da parte di Israele del riconoscimento facciale ai posti di blocco si basa su altri sistemi di sorveglianza implementati negli ultimi anni. Dalle proteste nel quartiere di Sheikh Jarrah a Gerusalemme est per lo sgombero delle famiglie palestinesi nel 2021, la presenza di telecamere è aumentata nell’area, molto probabilmente a supporto di un sistema di videosorveglianza del governo israeliano in grado di riconoscere i volti noto come Mabat 2000, secondo Amnesty.

 

«In una passeggiata nell’area, i ricercatori di Amnesty hanno riferito di aver trovato da una a due telecamere ogni 15 piedi. Alcuni sono stati realizzati da Hikvision, il produttore cinese di telecamere di sorveglianza, e altri da TKH Security, un produttore olandese» scrive il NYT.

 

Le forze governative usano anche le fotocamere dei loro telefoni. Le autorità israeliane hanno un’app di riconoscimento facciale, Blue Wolf, per identificare i palestinesi, secondo Breaking the Silence, un’organizzazione che ha assistito Amnesty e raccoglie testimonianze di soldati israeliani che hanno lavorato nei territori occupati.

 

Secondo il rapporto di 82 pagine di Amnesty e le testimonianze di Breaking the Silence, i soldati usano l’app per fotografare i palestinesi per strada o durante i raid domestici per registrarli in un database centrale e per verificare se sono ricercati per l’arresto o l’interrogatorio.

 

Come riportato da Renovatio 21, la tecnologia di riconoscimento facciale è ovunque presente nell’incubo biototalitario elettronico della Cina comunista, dove sarebbe perfino usata per rilevare la «fedeltà al partito», oltre che nella sorveglianza della minoranza uigura. Un video pubblicato di recente mostra come vi siano occidentali che festeggino davanti ad un distributore automatico che, invece che chiederti danaro, ti scansiona la faccia e te lo preleva elettronicamente.

 

Ma non solo la Repubblica Popolare ne fa uso: è stato proposto in Gran Bretagna di utilizzare la face recognition per impedire ai non vaccinati di entrare al pub. In Corea la tecnica è stata testata per l’individuazione di persone positive al COVID; identica cosa è stata fatta per gli Emirati Arabi Uniti. Il riconoscimento facciale, è emerso il mese scorso, è utilizzato anche dalla polizia spagnuola per identificare i sospetti.

 

L’Uganda, che avrebbe acquistato la tecnologia dai cinesi, l’avrebbe utilizzata per reprimere il dissenso durante le proteste antigovernative. Israele la utilizzerebbe invece per il controllo dei palestinesi. Bambini sospettati di crimini sono monitorati in tempo reale via riconoscimento facciale in Argentina.

 

Un uso controverso della face recognition è ora implementato in Ucraina.

 

La Face Recognition è soggetta a pericolosi errori: l’anno scorso è stato arrestato un uomo della Georgia per supposti crimini commessi nello Stato americano della Lousiana, dove non era mai stato in vita sua. In un episodio recente che ha attirato l’attenzione dei media, la tecnologia di scansione facciale è stata utilizzata per rimuovere una madre dalla sala concerti newyorkese Radio City Music Hall a causa della sua affiliazione con uno studio legale in contenzioso contro i proprietari del locale.

 

Tuttavia, c’è anche l’esempio del Texas, che quest’anno ha denunziato Facebook per centinaia di miliardi di dollari inerentemente alla questione del riconoscimento facciale.

 

Come riportato da Renovatio 21, due settimane fa il Patriarca di Mosca e di Tutte le Russie della Chiesa Ortodossa Cirillo I ha preso posizione contro l’idea di una società basata sul controllo elettronico dei corpi umani.

 

Come riportato da Renovatio 21, Israele domina anche il mercato della sorveglianza tramite spionaggio elettronico, con spyware come il Pegasus, prodotti di società legati ad ex-membri dell’Unità 8200, corpo di élite di guerra informatica dello Stato ebraico.

 

A ciò va aggiunto che centinaia di ex spie israeliane hanno ruoli di primo piano in Google, Facebook, Microsoft e Amazon.

 

 

Continua a leggere

Intelligenza Artificiale

La Florida indaga su OpenAI per le stragi suggerite dai chatbot

Pubblicato

il

Da

La Florida ha avviato un’indagine penale contro OpenAI e ChatGPT in relazione alla sparatoria avvenuta presso la Florida State University, pianificata dall’autore con l’aiuto del chatbot basato sull’intelligenza artificiale.

 

L’incidente è avvenuto nell’aprile del 2025, quando il sospettato avrebbe ucciso due persone e ne avrebbe ferite sei. Successivamente è rimasto ferito in una sparatoria con la polizia ed è stato arrestato. L’uomo armato, che si è poi rivelato essere il figlio di un vice sceriffo, è stato accusato di omicidio plurimo e tentato omicidio.

 

Lo Stato americano sta ora indagando sul ruolo di ChatGPT nell’attacco e cerca di stabilire se «OpenAI abbia responsabilità penale» per le azioni del chatbot, ha annunciato martedì il procuratore generale floridiano, James Uthmeier.

Sostieni Renovatio 21

«Il chatbot consigliava al tiratore quale tipo di arma usare, quali munizioni erano compatibili con ciascuna arma e se un’arma sarebbe stata utile o meno a distanza ravvicinata», ha dichiarato Uthmeier in una conferenza stampa.

 

«Se dall’altra parte dello schermo ci fosse stata una persona, l’avremmo accusata di omicidio», ha aggiunto.

 

OpenAI ha insistito sul fatto di non avere alcuna responsabilità per la sparatoria di massa in Florida. Una portavoce dell’azienda di intelligenza artificiale ha dichiarato ai media statunitensi di aver collaborato «in modo proattivo» con le indagini sull’incidente, identificando un account ChatGPT ritenuto associato al sospettato e condividendo le informazioni con le autorità.

 

«In questo caso, ChatGPT ha fornito risposte fattuali alle domande con informazioni ampiamente reperibili su fonti pubbliche online, e non ha incoraggiato né promosso attività illegali o dannose», ha dichiarato la portavoce.

 

La diffusione dei chatbot ha da tempo suscitato preoccupazioni in merito ai crimini perpetrati con l’AI, espresse da numerosi ricercatori indipendenti e agenzie governative in tutto il mondo. Sebbene la maggior parte dei crimini commessi con l’IA sembri verificarsi nel settore tecnologico, tra cui attacchi hacker, cyberattacchi, frodi e furti d’identità, i chatbot sono stati ripetutamente implicati anche nel favorire crimini violenti. Una recente indagine congiunta della CNN e del Center for Countering Digital Hate, ad esempio, ha rilevato che otto leader su dieci erano pronti ad aiutare gli utenti a organizzare attacchi violenti, tra cui attentati dinamitardi a sfondo religioso, sparatorie nelle scuole e assassinii.

 

Come riportato da Renovatio 21, l’anno passato ChatGPT con una «relazione» con un ragazzo sotto psicofarmaci e gli avrebbe fatto giurare di uccidere il CEO di OpenAI Sam Altman.

 

Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco.

 

Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».

 

C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.

 

L’anno scorso tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi.

 

Come riportato da Renovatio 21, due genitori hanno denunciato l’anno passato il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».

 

Meta ha dichiarato alla CNN di aver adottato misure «per risolvere il problema identificato», mentre Google e OpenAI hanno affermato che i modelli più recenti presentano misure di sicurezza rafforzate.

 

Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.

Aiuta Renovatio 21

Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina menteminaccia e può spingere le persone all’anoressia e perfino al suicidio. I casi di violenza indotta dall’AI potrebbero essere moltissimi, senza che possano arrivare alla stampa.

 

Va considerato, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale. Esperti a fine 2023 hanno lanciato un avvertimento riguardo i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

 

Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.

 

Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Cina

Robot cinese infrange il record mondiale umano nella mezza maratona

Pubblicato

il

Da

Domenica, un robot umanoide cinese ha superato migliaia di corridori umani vincendo la mezza maratona di Pechino E-Town e frantumando il record mondiale. All’evento hanno partecipato circa 12.000 persone e oltre 100 macchine antropomorfe automatiche.   L’androide bipede rosso acceso chiamato Lightning, sviluppato dal produttore cinese di smartphone Honor, ha dominato la gara, tagliando il traguardo davanti a tutti i concorrenti umani. Ha percorso la distanza di 21,1 km in soli 50 minuti e 26 secondi, battendo il record mondiale di mezza maratona, stabilito dal corridore ugandese Jacob Kiplimo il mese scorso, di quasi 7 minuti.  

Iscriviti al canale Telegram

Gli automi si sono classificati anche al secondo e terzo posto, mentre il più veloce tra gli esseri umani a tagliare il traguardo della maratona è stato il ventinovenne Zhao Haijie, che ha completato la gara in 1 ora, 7 minuti e 47 secondi.  

Aiuta Renovatio 21

In una gara simile svoltasi l’anno scorso, le macchine non erano riuscite a impressionare: il robot più veloce, Tiangong, aveva impiegato 2 ore e 40 minuti per completare la distanza, ben al di sotto degli atleti umani.  

Iscriviti alla Newslettera di Renovatio 21

Nonostante il dominio incontrastato degli androidi nell’edizione di quest’anno, non sono mancati gli incidenti. Un umanoide è stato visto inciampare sulla linea di partenza e poi schiantarsi a faccia in giù sul marciapiede, mentre il personale accorreva con una barella.   Un altro androide ha sbandato contro una barricata nelle fasi finali della gara, ma è riuscito a riprendersi e a tagliare il traguardo, mentre gli ingegneri lo seguivano di corsa stringendo tra le mani i dispositivi di controllo. Un androide ha tagliato il traguardo, per poi deviare bruscamente dal percorso e cadere in un cespuglio.   Gli incidenti dei robotti corridori non sono decisamente mancati.     Circa il 40% degli automo antropomorfi ha funzionato in modo autonomo, affrontando curve, terreni irregolari e folle senza bisogno di controllo remoto. Gli altri automi erano invece gestiti da tecnici, con tempi di completamento adattati alle diverse categorie.   La Cina ha designato la robotica umanoide come priorità strategica nazionale e uno dei sei nuovi motori di crescita economica per i prossimi cinque anni, fornendo ingenti sussidi per accelerarne lo sviluppo. Lo stesso sta facendo l’amministrazione Trump.   Come riportato da Renovatio 21 la commissione cinese per la pianificazione economica ha avvertito che l’industria cinese della robotica umanoide rischia di incorrere in una bolla speculativa a causa della frenesia degli investimenti e ha esortato a impedire che l’espansione esplosiva del settore travolga il mercato.   Mentre in Cina già si organizzano tornei di lotta tra androidi, Xiaomi utilizza macchine umanoide nella sua catena di montaggio.   Come riportato da Renovatio 21, la Repubblica Popolare sta investendo in piattaforme abilitate all’AI che spera un giorno condurranno missioni letali, completamente senza input o controllo umano, già per la prossima guerra.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
   
Continua a leggere

Intelligenza Artificiale

Robocani pattugliano le strade della città e parlano con accento da call center indiano

Pubblicato

il

Da

Ad Atlanta, i residenti si ritrovano faccia a faccia con cani robot che pattugliano i parcheggi dei loro condomini, apparentemente controllati da operatori stranieri in carne e ossa tramite i robot.

 

Un video virale pubblicato su X cattura la reazione spontanea degli abitanti – della popolazione dei negri americani del Sud, a giudicare dall’accento e dalle fraseologie utilizzate – del luogo di fronte a una delle unità meccaniche.

 

L’operatore ai comandi del robocane risponde in tempo reale e l’accento non lascia dubbi sulla posizione della persona all’altro capo della chiamata: si tratta di qualcuno che con estrema probabilità risponde da un call center indiano.

 

 


Sostieni Renovatio 21

Alcuni di questi video risalgano all’anno passato, mostrando che il programma robocinico nella grande città della Georgia è risalente.

 

Secondo quanto asserisce il post su X esistono numerosi video di questi cani che chiamano la polizia per segnalare persone, il che significa che qualcuno seduto in India sta pattugliando le nostre strade e chiamando la polizia per segnalare cittadini americani. Questi cani robotici sono dotati di telecamere a 360°, termocamere, fari, sirene, altoparlanti e sensori. Nonostante ciò, non sono completamente autonomi: in genere, un operatore umano monitora le immagini da remoto».

 

Un altro automa cinoide è stato visto di recente impartire ordini agli americani ad Atlanta. Anche quando i cittadini obbedivano pacificamente, il robot-dogo emetteva ordini e chiamava la polizia vera e propria, il tutto mentre gli occhi e le orecchie dietro le macchine si trovavano all’estero.

 

Iscriviti al canale Telegram

Mentre in America vengono utilizzati per la sicurezza dei parcheggi, con le immagini trasmesse da personale straniero, in Cina questa tecnologia viene impiegata in un ambito ben più aggressivo. Pechino ha già schierato robot lupo armati di mitragliatrici e dotati di un «cervello collettivo» per il combattimento urbano coordinato.

 

Filmati separati mostrano un cane robot armato che conduce esercitazioni di combattimento complete nell’ambito dell’avanzata degli eserciti robotici globali.

 

Il contrasto non potrebbe essere più evidente. La sicurezza di base dei quartieri americani viene esternalizzata a operatori di call center stranieri che ora possono osservare, ascoltare, registrare e riferire sui cittadini statunitensi 24 ore su 24, 7 giorni su 7. In Cina, la stessa piattaforma di base viene militarizzata per ottenere il dominio sul campo di battaglia.

 

Questi cani non sono giocattoli. Sono dotati di telecamere a 360 gradi, termocamere e sensori che inviano dati direttamente a chi paga l’operatore. Ciò significa che filmati sensibili di case, veicoli e spostamenti quotidiani di cittadini americani vengono trasmessi in streaming all’estero, potenzialmente archiviati, analizzati o persino condivisi con governi stranieri. E quando i robot decidono di chiamare la polizia, sembra che sia una voce straniera a innescare un’azione delle forze dell’ordine americane contro cittadini americani sul suolo americano.

 

Come riportato da Renovatio 21Los Angeles, come Nuova York, hanno fornito le loro forze dell’ordine di robodogghi. Anche la vicina San Francisco ha persino preso in considerazione l’idea di consentire al suo dipartimento di polizia di utilizzare i robot dotati di forza letale in caso di emergenza. Robocani sono utilizzati ai confini con il Messico. Tuttavia vi è polemica: c’è chi ritiene che il loro uso spaventa gli immigrati spingendoli verso sentieri dove poi incontrano la morte.

 

Un esemplare appartenente all’Università era stato filmato in piazza a Genova, mentre in Umbria esemplari di robocane furono lasciati liberi di scorrazzare nei boschi all’interno di quello che è stato detto era un esperimento scientifico.

 

Renovatio 21, testata oramai ribattezzabile come «La Gazzetta del robocane» vista la serqua di articoli sull’argomento, aveva parlato della militarizzazione dei robocani negli scorsi anni. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica».

 

Mesi fa era emersa negli Stati Uniti anche una versione di robocane dotato di lanciafiamme chiamato «Thermonator».

 

Come visto in immagini scioccanti della primavera 2022, i robocani abbiano pattugliato le strade di Shanghai durante il colossale lockdown della primavera 2022, dove per sorvegliare e punire i 26 milioni di abitanti usarono, oltre agli androidi quadrupedi, anche droni che volevano tra i palazzi ripetendo frasi come «contieni la sete di libertà del tuo spirito».

 

SOSTIENI RENOVATIO 21


 

Continua a leggere

Più popolari