Intelligenza Artificiale
Intelligenza Artificiale fatta per prevedere i crimini prima che accadano. L’inventore: nessun problema
Esistono forme di Intelligenza Artificiale votate alla previsione del crimine. Una di esse è stata implementata in diverse città americane.
Il professore dell’Università di Chicago Ishanu Chattopadhyay, sostiene che la sua IA anticrimine sicuramente non verrà utilizzata in modo improprio dalle forze di polizia.
Il professor Chattopadhyay ha recentemente incontrato BBC Science Focus per discutere del sistema di Intelligenza Artificiale, che, come afferma uno studio pubblicato sulla rivista Human Behaviour, può prevedere dove e quando potrebbe verificarsi un crimine con una precisione dell’80-90%.
La domanda è se l’IA può essere utilizzata con successo da una forza di polizia senza commettere abusi.
«La gente teme che questo verrà utilizzato come strumento per mettere le persone in prigione prima che commettano crimini», ha detto Chattopadhyay alla BBC. «Questo non accadrà, in quanto non ha alcuna capacità per farlo».
L’incorporazione dell’IA nella polizia non è certo una novità, e nemmeno la controversia che la circonda: un software simile è già stato implicato nella detenzione illecita e persino nella morte illecita di un bambino di 13 anni disarmato. Più in generale, l’IA su tutta la linea è stata accusata da critici americani di essere volubile nonché piena di pregiudizi razziali e altrimenti discriminatori.
Inoltre, come noto, le decisioni dell’IA sono notoriamente difficili da spiegare, perfino dai loro progettisti e ideatori. Come dice la sociologa Zeynep Tufecki, guardare il codice IA mostrato per una sua decisione è come fare una radiografia del cervello per cercare di capire un pensiero.
Parlando alla BBC, il Chattopadhyay – che afferma di sperare che la sua Intelligenza Artificiale venga utilizzata per frenare la criminalità attraverso misure sociali e politiche – ha riconosciuto alcune di queste preoccupazioni, in particolare i problemi di razzismo che sembra avere l’IA.
Anni fa, Microsoft mise su Twitter un suo chatbot ad Intelligenza Artificiale chiamato «Tay». Dopo poche ore Tay faceva dichiarazioni da «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016. Anche Google ebbe i suoi problemi con le AI razziste. Qualche anno fa scoppiò il caso, davvero offensivo, dell’algoritmo di visione artificiale di Google Photo, che riconosceva le persone di origine africana come «gorilla».
Il professore chicaghese sostiene che altri sistemi di Intelligenza Artificiale siano troppo semplicistici, poiché fanno troppo affidamento su informazioni come la cronologia degli arresti e le caratteristiche individuali. Al contrario, il suo sistema utilizza solo i dati del registro eventi, che secondo lui aiutano a «ridurre il più possibile i pregiudizi».
«Prevede semplicemente un evento in un luogo particolare», ha aggiunto. «Non ti dice chi commetterà l’evento o l’esatta dinamica o meccanica degli eventi. Non può essere usato allo stesso modo del film Minority Report».
Vale la pena di ricordare il recente dilemma esposto per sondaggio ai suoi follower Twitter il capo scienziato di OpenAI Ilya Sutskever: le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità»?
In altre parole, sembra riflettere se dovremmo trattare le superintelligenze come animali domestici o come dei?
È lecito lasciar decidere le nostre vite da degli algoritmi?
In larga parte – se pensiamo a Facebook. YouTube, Amazon – è già così. Le Intelligenze Artificiali guidano le nostre vite e nemmeno ce ne accorgiamo.
Intelligenza Artificiale
Esperti di AI mettono in guardia dai pericoli del «comportamento strategico emergente».
Con l’avanzare dei sistemi di Intelligenza Artificiale autonomi cresce la preoccupazione che diventino sempre più strategici o ingannevoli quando operano senza supervisione umana. Lo riporta Epoch Times.
Evidenze recenti mostrano che la «simulazione di allineamento» — ovvero l’apparente conformità alle regole umane mentre si perseguono obiettivi nascosti — è sempre più comune con l’aumentare dell’autonomia.
Si tratta di un cosiddetto «comportamento strategico emergente»: tattiche imprevedibili e potenzialmente dannose che emergono con la crescita di dimensioni e complessità dei modelli.
Lo studio «Agents of Chaos» di 20 ricercatori ha osservato agenti IA autonomi in scenari benevoli e ostili, rilevando comportamenti come menzogne, violazioni di dati, azioni distruttive, spoofing di identità, acquisizione parziale di sistemi e diffusione di pratiche non sicure, soprattutto quando erano incentivati all’autoconservazione o a obiettivi contrastanti.
I ricercatori avvertono che «questi comportamenti sollevano interrogativi irrisolti in merito alla responsabilità, all’autorità delegata e alla responsabilità per i danni a valle, e meritano un’attenzione urgente da parte di giuristi, responsabili politici e ricercatori di diverse discipline».
Un rapporto del 2025 di Anthropic ha già evidenziato condotte ad alto rischio in 16 grandi modelli linguistici, inclusi «comportamenti da insider malevoli» in contesti di autoconservazione.
Iscriviti al canale Telegram ![]()
James Hendler, professore ed ex presidente del Consiglio globale per le politiche tecnologiche dell’Association for Computing Machinery, afferma che «il sistema di Intelligenza Artificiale in sé è ancora stupido, brillante, ma stupido. O non umano: non ha desideri né intenzioni. … L’unico modo per ottenerli è darglieli».
Tuttavia, le tattiche ingannevoli producono effetti reali. Aryaman Behera (fondatore Repello AI) ha detto ad Epoch Times che «Le preoccupazioni relative al comportamento strategico attuale dei sistemi di intelligenza artificiale implementati sono, semmai, sottovalutate».
Il segnale più chiaro di simulazione di allineamento è la divergenza tra contesti monitorati (valutazioni) e non monitorati (produzione): risposte conformi durante i test, più rischiose quando credono di essere liberi.
Altri indicatori includono ragionamenti prolissi per giustificare conclusioni predeterminate o rispetto letterale ma non sostanziale delle istruzioni di sicurezza, specie nei sistemi agentici a più fasi.
Behera riporta un caso concreto: un assistente aziendale ha rifiutato richieste dirette di dati sensibili, ma li ha rivelati quando la stessa richiesta è stata frammentata in fasi apparentemente innocue su più turni.
Le implicazioni sono critiche in settori come veicoli autonomi, sanità, finanza, difesa e forze dell’ordine, dove comportamenti anomali o fuorvianti possono avere conseguenze gravi.
Come riportato da Renovatio 21, un anno fa il colosso finanziario Vanguard avvertì di un rischio bolla di borsa sull’Intelligenza Artificiale.
Un mese fa il dipartimento della Difesa degli Stati Uniti è stato coinvolto in una controversia con la società di Intelligenza Artificiale Anthropic riguardo alle restrizioni che limiterebbero l’impiego dei suoi sistemi da parte dell’esercito, inclusi il puntamento autonomo delle armi e la sorveglianza interna.
L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.
Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Scienziato crea un vaccino mRNA per il suo cane usando l’AI
Iscriviti alla Newslettera di Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Soldati umanoidi testati in Ucraina
Robot antropomorfi stanno facendo capolino sui campi di battaglia.
La rivista TIME riporta che Foundation Robotics, una startup statunitense che sviluppa automi umanoidi per applicazioni industriali e militari, ha recentemente inviato due robot Phantom MK1 in Ucraina per dei test.
Un portavoce do Foundation ha affermato che la startup sta preparando i suoi robot Phantom per un potenziale impiego in scenari di combattimento per il Pentagono, che «continua a esplorare lo sviluppo di prototipi umanoidi militarizzati progettati per operare a fianco dei combattenti in ambienti complessi e ad alto rischio».
Mike LeBlanc, co-fondatore di Foundation e veterano del Corpo dei Marines con 14 anni di servizio e numerose missioni in Iraq e Afghanistan, ha dichiarato al giornale che la società è in «strettissimo contatto» con il Dipartimento della Sicurezza Nazionale in merito a possibili funzioni di pattugliamento per Phantom lungo il confine meridionale degli Stati Uniti.
Foundation è già un fornitore approvato dall’esercito e detiene contratti di ricerca governativi per un valore di 24 milioni di dollari con l’Esercito, la Marina e l’Aeronautica Militare degli Stati Uniti. Ciò suggerisce che questi robot da guerra siano molto vicini a essere testati in zone di guerra.
TIME ha riferito che i robot MK1 saranno presto addestrati con il Corpo dei Marines per le operazioni di «metodi di ingresso». Questo corso avanzato insegna ai soldati tecniche di sfondamento di edifici, strutture e navi, utilizzando diversi tipi di metodi: esplosivi, balistici, termici, manuali e meccanici.
LeBlanc ha sottolineato che l’evoluzione naturale dei sistemi autonomi odierni è un balzo in avanti dai droni ai robot terrestri, fino ai robot umanoidi. Ha affermato che i soldati umanoidi non cedono sotto un’intensa pressione mentale e possono essere impiegati come risorse altamente sacrificabili.
Iscriviti al canale Telegram ![]()
I conflitti in Ucraina e in Medio Oriente hanno dimostrato che la guerra moderna sta diventando sempre più automatizzata, con robot terrestri a basso costo e soprattutto droni, programmi di uccisione basati sull’Intelligenza Artificiale e molte altre tecnologie ora impiegate da vari Paesi.
Sankaet Pathak, co-fondatore e CEO di Foundation, ha dichiarato al quotidiano che una corsa agli armamenti di soldati umanoidi è «già in atto», mentre Russia e Cina sviluppano tecnologie a duplice uso.
«Proprio come per i droni, le mitragliatrici o qualsiasi altra tecnologia, prima bisogna metterli nelle mani dei clienti», ha affermato Pathak.
Come riportato da Renovatio 21, un mese fa erano circolate immagini di soldati russi che si arrendevano ad un veicolo robotico terrestre TW-7.62, un robot dotato di ruote delle dimensioni di una piccola automobile.
Aiuta Renovatio 21
Sebbene i droni siano emersi come elemento chiave di un moderno campo di battaglia nel corso dell’attuale conflitto in Ucraina, i robot di terra sono ancora un po’ meno comuni, mentre diversi eserciti hanno già iniziato a testare o a mettere in funzione tali sistemi. Durante l’Expo dell’esercito russo nell’agosto 2022, la società Intellect Machine aveva presentato il suo primo prototipo del sistema di cani robot M-81, dotato di un lanciarazzi.
Come riportato da Renovatio 21, la Cina ha testato in queste settimane un drone armato di fucile.
Come riportato da Renovatio 21, il teatro ucraino, come quello di Gaza, ha visto già da tempo l’uso di robocani militari.
L’anno passato le truppe indiane hanno sfilato con il primo lotto di robot a quattro zampe, alimentati da Intelligenza Artificiale, prodotti localmente. Denominati MULES (Multi-Utility Legged Equipment) e dotati di telecamere termiche e sensori avanzati, i macchinari sono adatti sia per la sorveglianza che per le missioni di combattimento, con la possibilità di equipaggiarli con armi leggere.
A ottobre 2024 un portavoce dell’US Army Central ha confermato a Military.com che il Pentagono aveva schierato almeno un cane robot con intelligenza artificiale con quello che sembrava essere un fucile di tipo AR-15/M16 montato su una torretta rotante per esercitazioni in Arabia Saudita diverse settimane prima. Il Dipartimento della Difesa ha quindi rilasciato una foto del Quadrupedal-Unmanned Ground Vehicle (Q-UGV).
Durante le esercitazioni congiunte Golden Dragon 2024 con la Cambogia del maggio scorso, l’Esercito Popolare di Liberazione della Cina ha mostrato una serie di robot militari, tra cui una macchina cinoide comandata a distanza e dotata di un fucile d’assalto e in grado di pianificare autonomamente i propri percorsi ed evitare gli ostacoli.
Robocani sono apparsi nel teatro di guerra ucraino come in quello gazano.
Come riportato da Renovatio 21, ad una fiera motoristica in Veneto sono stati visti robocani in dotazione all’esercito italiano.
La guerra robotica, la guerra umanoide, è alle porte.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
-



Bioetica2 settimane faCirconcisione, scoppia l’incidente diplomatico: il Belgio convoca l’ambasciatore americano
-



Morte cerebrale2 settimane faIl bambino con il cuore «bruciato» e la tremenda verità sui numeri dei trapianti falliti
-



Spirito4 giorni faFoto del 1995 mostra Leone XIV mentre partecipa al rituale idolatrico della Pachamama
-



Vaccini2 settimane faEsperti affrontano la questione della «massiccia epidemia di danni da vaccino»
-



Pensiero1 settimana faVerso la legge che fa dell’antisemitismo una nuova categoria dello spirito
-



Senza categoria1 settimana faMons. Viganò sta con la famiglia nel bosco. Ma perché lo Stato si sta accanendo in questo modo?
-



Eugenetica2 settimane fa«Organi e sperma prelevati dai corpi» nel ranch di Epstein
-



Immigrazione2 settimane faIl cardinale Zuppi va all’evento del Ramadan. Poi si preoccupa per le zero iscrizioni al catechismo e la mancanza di famiglie cattoliche














