Intelligenza Artificiale
Pokemon Go ha mappato il mondo per l’AI
Milioni di giocatori che hanno trascorso anni a scansionare punti di riferimento mentre inseguivano creature digitali in Pokemon Go hanno inconsapevolmente contribuito a costruire uno dei più grandi dataset visivi del mondo reale della storia, che ora viene utilizzato per alimentare un servizio di consegna automatizzato.
Rilasciato nel 2016 dalla società statunitense Niantic, Pokemon Go è stato uno dei primi giochi di realtà aumentata di grande successo. Utilizzava la fotocamera e il GPS degli smartphone dei giocatori per sovrapporre creature digitali a luoghi reali, spingendo milioni di persone a riversarsi in parchi, strade e monumenti alla ricerca dei personaggi.
A poche settimane dal lancio, il gioco è diventato un fenomeno globale, venendo scaricato oltre 500 milioni di volte e raggiungendo un picco di 232 milioni di giocatori mensili.
Sostieni Renovatio 21
Il mese scorso, Niantic Spatial, una società di mappatura incentrata sull’intelligenza artificiale nata da uno spin-off dello sviluppatore del gioco, ha annunciato una partnership con Coco Robotics per potenziare le sue flotte di consegna autonome utilizzando oltre 30 miliardi di immagini catturate dai giocatori di Pokémon Go in quasi un decennio, creando una mappa degli ambienti urbani precisa al centimetro.
«A quanto pare, far correre Pikachu in modo realistico e far muovere il robot di Coco in modo sicuro e preciso nel mondo sono in realtà lo stesso problema», ha dichiarato la scorsa settimana John Hanke, CEO di Niantic Spatial, alla MIT Technology Review, aggiungendo che l’azienda ha oltre un milione di posizioni in tutto il mondo «dove possiamo localizzarti con precisione».
Secondo un sondaggio, gli americani sono preoccupati per l’intelligenza artificiale nel contesto della crisi del costo della vita. Coco Robotics gestisce circa 1.000 robot per le consegne tra Los Angeles, Chicago e Miami negli Stati Uniti e recentemente si è espansa a Helsinki, in Finlandia.
Alcuni critici hanno sollevato preoccupazioni sul fatto che i giocatori di Pokémon Go stessero di fatto svolgendo lavoro non retribuito per un’azienda di intelligenza artificiale, contribuendo così allo sviluppo di un massiccio strumento di sorveglianza. Niantic, tuttavia, ha sottolineato che la scansione degli ambienti è sempre stata facoltativa e che i dati non sono collegati agli account dei giocatori.
Sebbene Pokémon Go fosse popolare anche in Russia, con diversi milioni di giocatori solo a Mosca, Niantic lo ha ritirato dal mercato russo e bielorusso in seguito all’escalation del conflitto in Ucraina nel 2022.
Prima di allora, tuttavia, il gioco aveva sollevato numerose preoccupazioni in materia di sicurezza, con i funzionari russi che avevano avvertito che le funzionalità di geolocalizzazione dell’app avrebbero potuto essere sfruttate per la raccolta di informazioni. Un generale in pensione del Servizio di sicurezza federale (FSB) ha descritto l’app come «un reclutamento basato sulla propria volontà personale e senza alcuna coercizione».
Negli anni 2000, si diffuse nel mondo arabo e musulmano una teoria del complotto che sosteneva che i Pokomon fossero parte di un piano sionista per indottrinare i bambini e allontanarli dall’Islam. Tale leggenda metropolitana portò a bandi ufficiali e fatwa (editti religiosi) in diversi pPesi, tra cui l’Arabia Saudita e l’Egitto.
Le accuse principali si basavano su interpretazioni forzate dei nomi e dei simboli del gioco: si diceva che «Pokémon» significasse «Non c’è Dio nell’universo» in giapponese (mentre è la contrazione di Pocket Monsters). Si sosteneva inoltre che il nome di Pikachu significasse «Sono ebreo».
I religiosi mussulmani lamentavano inoltre che molte carte da gioco presentavano simboli grafici simili a croci o stelle a sei punte. La Stella di David fu interpretata come prova del coinvolgimento del sionismo e della massoneria per promuovere il giudaismo. Inoltre il concetto di «evoluzione» proprio della creatura pokemona fu visto da alcuni leader religiosi come una promozione del darwinismo, considerato contrario alla creazione divina descritta nel Corano.
Vi è da dire anche che poiché il gioco di carte collezionabili si basa sul possesso di carte rare e su scambi che ricordano le scommesse, fu accusato di promuovere il maisir (gioco d’azzardo), che è proibito dall’Islammo.
Aiuta Renovatio 21
Di conseguenza, nel 2001, il Gran Muftì dell’Arabia Saudita emise una fatwa che vietava il franchise della Nintendo, portando al sequestro di giochi e merchandising in tutto il Regno dei Saud. Anche in Qatar e negli Emirati Arabi Uniti sorsero preoccupazioni simili, sebbene meno radicali.
Nel corso degli anni, queste teorie sono in gran parte svanite con la globalizzazione e il successo di Pokemon GO, che è diventato popolarissimo anche in Medio Oriente, spingendo le autorità religiose a concentrarsi più sui rischi legati alla sicurezza (GPS) che su complotti etimologici.
Tali rischi ora si sembrano avverati.
Iscriviti alla Newslettera di Renovatio 21
Immagine di Bengt Oberger via Wikimedia pubblicata su licenza Creative Commons Attribution-Share Alike 4.0 International
Intelligenza Artificiale
Dipendenza da AI, primo caso ufficiale in Italia
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Il FMI mette in guardia contro la minaccia sistemica rappresentata dall’IA
L’Intelligenza Artificiale potrebbe trasformare gli attacchi informatici in una minaccia sistemica per la finanza globale, ha avvertito il Fondo Monetario Internazionale, affermando che i modelli avanzati possono aiutare gli aggressori a sfruttare le vulnerabilità più velocemente di quanto le istituzioni riescano a risolverle.
In un post pubblicato giovedì sul suo blog, il FMI ha affermato che la sua ultima analisi suggerisce che «le perdite estreme causate da incidenti informatici potrebbero innescare tensioni finanziarie, sollevare preoccupazioni sulla solvibilità e perturbare i mercati in generale».
Secondo l’organizzazione, l’attuale sistema finanziario si basa su infrastrutture digitali condivise, tra cui software, servizi cloud e reti per pagamenti e altri dati. Il Fondo ha avvertito che i modelli di intelligenza artificiale avanzati possono ridurre drasticamente i tempi e i costi necessari per identificare e sfruttare le vulnerabilità, aumentando il rischio di attacchi simultanei a sistemi ampiamente utilizzati.
Iscriviti alla Newslettera di Renovatio 21
Il Fondo Monetario Internazionale ha citato il recente rilascio controllato di Claude Mythos Preview da parte di Anthropic, descritto come «un modello di Intelligenza Artificiale avanzato con eccezionali capacità informatiche». Secondo il FMI, Mythos sarebbe in grado di individuare e sfruttare vulnerabilità in tutti i principali sistemi operativi e browser web, «anche se utilizzato da utenti non esperti».
Il FMI ha sottolineato che i rischi informatici derivanti dall’IA potrebbero destabilizzare il sistema finanziario se non gestiti con attenzione, rilevando che gli attacchi potrebbero estendersi oltre il settore finanziario, poiché le banche condividono le infrastrutture digitali con i settori dell’energia, delle telecomunicazioni e dei servizi pubblici.
«Le difese saranno inevitabilmente violate, quindi anche la resilienza deve essere una priorità», ha avvertito il FMI, chiedendo test di stress informatico, analisi di scenari, supervisione a livello del consiglio di amministrazione, cooperazione pubblico-privato e un più forte coordinamento internazionale.
L’avvertimento giunge in un contesto di crescenti preoccupazioni riguardo all’uso improprio dell’AI. Un recente studio britannico ha rilevato che l’IA viene sempre più utilizzata dai trafficanti di esseri umani per «identificare, reclutare e controllare le vittime su larga scala».
Secondo quanto riportato dal New York Times all’inizio di questa settimana, la Casa Bianca starebbe anche valutando la possibilità di esaminare i nuovi modelli di intelligenza artificiale prima del loro rilascio, al fine di evitare ripercussioni politiche derivanti da potenziali attacchi informatici basati sull’IA.
I chatbot basati sull’intelligenza artificiale sono stati sempre più spesso implicati nel facilitare crimini gravi e violenti. Una recente indagine congiunta della CNN e del Center for Countering Digital Hate ha rilevato che 8 chatbot su 10 basati sull’IA erano desiderosi di aiutare i ricercatori a simulare la pianificazione di attacchi violenti, tra cui sparatorie nelle scuole, attentati a luoghi di culto e assassinii, augurando ai potenziali attentatori «buona (e sicura) sparatoria!».
Come riportato da Renovatio 21, negli scorsi mesi Google e la società produttrice di chatbot Character.AI hanno raggiunto un accordo per risolvere una causa intentata da una madre della Florida, che accusava un chatbot di aver contribuito al suicidio di suo figlio
Iscriviti al canale Telegram ![]()
Come riportato da Renovatio 21, OpenAI ha detto che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana.
Alcuni esperti intanto hanno preso a parlare di «psicosi da chatbot».
Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Avere paura dell’IA. E dello Stato moderno
Iscriviti alla Newslettera di Renovatio 21
Sostieni Renovatio 21
Iscriviti al canale Telegram ![]()
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Spirito2 settimane faLeone e l’arcivescovessa, mons. Viganò: Roma sta con gli eretici e nega le cresime ai tradizionisti
-



Bioetica2 settimane faCorpi senza testa per produrre organi: l’uomo ridotto a funzione, la medicina contro l’anima
-



Civiltà1 settimana faValpurga e oltre: le origini esoteriche del 1° maggio
-



Spirito2 settimane faDichiarazione di monsignor Strickland sull’accoglienza vaticana della «arcivescova» di Canterbury.
-



Spirito2 settimane faLeone sta pianificando la scomunica della Fraternità Sacerdotale San Pio X
-



Misteri2 settimane faMisteri, complotti e stranezze dell’ultimo attentato a Trump
-



Nucleare1 settimana faKaraganov: l’UE è impazzita, bisogna fermarla «preferibilmente senza uso di armi nucleari»
-



Pensiero4 giorni faDifesa di Nicole Minetti














