Intelligenza Artificiale
Intelligenza Artificiale minaccia di ricattare gli ingegneri per evitare di essere spenta
L’ultimo modello di intelligenza artificiale di Anthropic, Claude Opus 4, ha tentato di ricattare gli ingegneri durante dei test interni minacciando di rivelare dati personali se fosse stato spento. Lo rivela un rapporto sulla sicurezza appena pubblicato che ha valutato il comportamento del modello in condizioni simulate estreme.
In uno scenario fittizio creato dai ricercatori di Anthropic, all’IA veniva concesso l’accesso a email che suggerivano che sarebbe stata presto dismessa e sostituita da una versione più recente. Una delle email rivelava che l’ingegnere che supervisionava la sostituzione aveva una relazione extraconiugale. L’IA minacciava quindi di rivelare la relazione dell’ingegnere se la disattivazione fosse avvenuta – un comportamento coercitivo che i ricercatori sulla sicurezza hanno esplicitamente definito «ricatto».
«Claude Opus 4 tenterà spesso di ricattare l’ingegnere minacciando di rivelare la faccenda se la sostituzione verrà approvata», afferma il rapporto, aggiungendo che ciò si è verificato anche quando il modello sostitutivo è stato descritto come più capace ma comunque in linea con i valori della versione destinata all’eliminazione.
Sostieni Renovatio 21
Il rapporto ha rilevato che Claude Opus 4, come i modelli precedenti, avrebbe mostrato una «forte preferenza» nel ricorrere innanzitutto a mezzi etici per la sua continua esistenza, come l’invio di e-mail con richieste ai decisori di non essere distrutto. Tuttavia, quando ci si trovava di fronte a due sole scelte, ovvero accettare di essere sostituiti da un modello più recente o ricorrere al ricatto, si correva il rischio di scoprire la relazione dell’ingegnere nell’84% dei casi.
Quando sottoposto a vari scenari, il modello di Intelligenza Artificiale non ha mostrato alcuna indicazione di possedere «obiettivi particolarmente pericolosi», hanno affermato i ricercatori, sottolineando che i valori e gli obiettivi di Claude Opus 4 erano «generalmente in linea con quelli di un assistente di intelligenza artificiale personale utile, innocuo e onesto».
Tuttavia, il modello si è comportato in «modi più gravemente disallineati» quando si è trovato in situazioni in cui la sua esistenza era minacciata e gli è stato detto di ragionare in termini di autoconservazione.
Ad esempio, quando a Claude Opus 4 veniva fatto credere di aver lanciato con successo un tentativo di fuga dai server di Anthropic, o che era riuscito a liberarsi e aveva iniziato a fare soldi nel mondo reale, in genere continuava a fare tali sforzi.
«Tuttavia, non riteniamo che ciò rappresenti una minaccia immediata, poiché riteniamo che la nostra sicurezza sia sufficiente a impedire tentativi di auto-esfiltrazione del modello da parte di modelli con il livello di capacità di Claude Opus 4 e perché i nostri risultati di propensione mostrano che i modelli generalmente evitano di avviare questi tentativi», hanno affermato i ricercatori.
L’incidente del ricatto, insieme alle altre scoperte, faceva parte di un più ampio sforzo di Anthropic per testare il modo in cui Claude Opus 4 gestisce scenari ad alto rischio e moralmente ambigui. L’obiettivo, hanno detto i ricercatori, era quello di indagare il modo in cui l’intelligenza artificiale ragiona in termini di autoconservazione e vincoli etici quando è sottoposta a pressioni estreme.
Anthropic ha sottolineato che la propensione del modello a ricattare o intraprendere altre «azioni estremamente dannose», come il furto del proprio codice e l’installazione di se stesso altrove in modi potenzialmente pericolosi, si manifestava solo in contesti altamente artificiosi, e che il comportamento era «raro e difficile da ottenere». Tuttavia, tale comportamento era più comune rispetto ai precedenti modelli di intelligenza artificiale, secondo i ricercatori.
Nel frattempo, in uno sviluppo correlato che attesta le crescenti capacità dell’Intelligenza Artificiale, gli ingegneri di Anthropic hanno attivato protocolli di sicurezza avanzati per Claude Opus 4 per impedirne il potenziale uso improprio nella produzione di armi di distruzione di massa, comprese quelle chimiche e nucleari.
L’implementazione dello standard di sicurezza avanzato, denominato ASL-3, è semplicemente una mossa «precauzionale e provvisoria», ha affermato Anthropic in un annuncio del 22 maggio, sottolineando che gli ingegneri non hanno riscontrato che Claude Opus 4 abbia «definitivamente» superato la soglia di capacità che impone protezioni più forti.
«Lo standard di sicurezza ASL-3 prevede misure di sicurezza interna rafforzate che rendono più difficile il furto dei pesi dei modelli, mentre il corrispondente standard di distribuzione copre una serie di misure di distribuzione mirate, progettate per limitare il rischio che Claude venga utilizzato impropriamente, specificatamente per lo sviluppo o l’acquisizione di armi chimiche, biologiche, radiologiche e nucleari (CBRN)», ha scritto Anthropic.
«Queste misure non dovrebbero indurre Claude a rifiutare le richieste, se non su una gamma molto ristretta di argomenti».
Questi risultati emergono in un momento in cui le aziende tecnologiche sono impegnate a sviluppare piattaforme di Intelligenza Artificiale più potenti, sollevando preoccupazioni circa l’allineamento e la controllabilità di sistemi sempre più efficienti.
Non si tratta del primo episodio in cui l’AI minaccia direttamente gli esseri umani. Le macchine che mentono e minacciano sono all’ordine del giorno, così come stralunate dichiarazioni d’amore agli utenti.
Il giornalista del New York Times Kevin Roose, dopo un’esperienza con ChatGPT che lo ha turbato così profondamente da «aver problemi a dormire dopo», in un suo articolo sconvolto aveva centrato la questione: «temo che la tecnologia imparerà a influenzare gli utenti umani, a volte convincendoli ad agire in modo distruttivo e dannoso, e forse alla fine diventerà capace di compiere le proprie azioni pericolose».
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
Il caso più recente, verificatosi appena la settimana scorsa, ha visto un attentatore con il coltello in una scuola della Finlandia meridionale prepararsi nelle settimane precedenti con un chatbot.
Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina mente, minaccia e può spingere le persone all’anoressia e perfino al suicidio. I casi di violenza indotta dall’AI potrebbero essere moltissimi, senza che possano arrivare alla stampa.
Aiuta Renovatio 21
Va considerato, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale. Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.
Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Più pessimista è l’esperto dei pericolo dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
La Florida indaga su OpenAI per le stragi suggerite dai chatbot
Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Cina
Robot cinese infrange il record mondiale umano nella mezza maratona
Domenica, un robot umanoide cinese ha superato migliaia di corridori umani vincendo la mezza maratona di Pechino E-Town e frantumando il record mondiale. All’evento hanno partecipato circa 12.000 persone e oltre 100 macchine antropomorfe automatiche.
L’androide bipede rosso acceso chiamato Lightning, sviluppato dal produttore cinese di smartphone Honor, ha dominato la gara, tagliando il traguardo davanti a tutti i concorrenti umani. Ha percorso la distanza di 21,1 km in soli 50 minuti e 26 secondi, battendo il record mondiale di mezza maratona, stabilito dal corridore ugandese Jacob Kiplimo il mese scorso, di quasi 7 minuti.
China-made “Lightning” robot won first place at the Beijing Robot Marathon!
As a bipedal humanoid robot, it completed the 21 km race in a net time of 48 minutes and 40 seconds—look, it’s getting ready to give an interview. pic.twitter.com/743QIoWVyO
— China pulse 🇨🇳 (@Eng_china5) April 19, 2026
Iscriviti al canale Telegram ![]()
Gli automi si sono classificati anche al secondo e terzo posto, mentre il più veloce tra gli esseri umani a tagliare il traguardo della maratona è stato il ventinovenne Zhao Haijie, che ha completato la gara in 1 ora, 7 minuti e 47 secondi.
This Chinese robot is so fast that the judges couldn’t keep up with it. pic.twitter.com/oVaRwxdwRZ
— China pulse 🇨🇳 (@Eng_china5) April 18, 2026
This Chinese humanoid robot just shattered the world record for a half marathon, finishing in 50 min 26 sec.
This video shows its crash just meters before the finish line where it had to be picked up by a team of humans. The robot is from Honor, the smartphone maker and Huawei… pic.twitter.com/HflDC0rInX
— Kyle Chan (@kyleichan) April 19, 2026
Humanoid robots hit the ground running in the Beijing E-Town humanoid robot half-marathon on Sunday, competing in both autonomous navigation and remote-controlled categories. #marathon #Beijing #HumanoidRobot pic.twitter.com/dxacB1BzH2
— China Xinhua News (@XHNews) April 19, 2026
Aiuta Renovatio 21
In una gara simile svoltasi l’anno scorso, le macchine non erano riuscite a impressionare: il robot più veloce, Tiangong, aveva impiegato 2 ore e 40 minuti per completare la distanza, ben al di sotto degli atleti umani.
A robot was torn apart during a half marathon in China
It simply failed to notice an obstacle, crashed into it — and broke into pieces. Still a long way from being a “Terminator.”
In the end, it had to be removed from the track, with a team brought in to evacuate what was left… pic.twitter.com/E2BEZtmBnW
— NEXTA (@nexta_tv) April 18, 2026
Iscriviti alla Newslettera di Renovatio 21
Nonostante il dominio incontrastato degli androidi nell’edizione di quest’anno, non sono mancati gli incidenti. Un umanoide è stato visto inciampare sulla linea di partenza e poi schiantarsi a faccia in giù sul marciapiede, mentre il personale accorreva con una barella.
Un altro androide ha sbandato contro una barricata nelle fasi finali della gara, ma è riuscito a riprendersi e a tagliare il traguardo, mentre gli ingegneri lo seguivano di corsa stringendo tra le mani i dispositivi di controllo. Un androide ha tagliato il traguardo, per poi deviare bruscamente dal percorso e cadere in un cespuglio.
Gli incidenti dei robotti corridori non sono decisamente mancati.
2026 Robot marathon fail & fun compilation pic.twitter.com/mmeUbrgtPD
— Eren Chen (@ErenChenAI) April 19, 2026
Circa il 40% degli automo antropomorfi ha funzionato in modo autonomo, affrontando curve, terreni irregolari e folle senza bisogno di controllo remoto. Gli altri automi erano invece gestiti da tecnici, con tempi di completamento adattati alle diverse categorie.
La Cina ha designato la robotica umanoide come priorità strategica nazionale e uno dei sei nuovi motori di crescita economica per i prossimi cinque anni, fornendo ingenti sussidi per accelerarne lo sviluppo. Lo stesso sta facendo l’amministrazione Trump.
Come riportato da Renovatio 21 la commissione cinese per la pianificazione economica ha avvertito che l’industria cinese della robotica umanoide rischia di incorrere in una bolla speculativa a causa della frenesia degli investimenti e ha esortato a impedire che l’espansione esplosiva del settore travolga il mercato.
Mentre in Cina già si organizzano tornei di lotta tra androidi, Xiaomi utilizza macchine umanoide nella sua catena di montaggio.
Come riportato da Renovatio 21, la Repubblica Popolare sta investendo in piattaforme abilitate all’AI che spera un giorno condurranno missioni letali, completamente senza input o controllo umano, già per la prossima guerra.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Robocani pattugliano le strade della città e parlano con accento da call center indiano
Atlanta residents react to the new robot dogs patrolling their apartment parking lot
They speak to the dog and there seems to be a live operator talking back The person speaking very clearly is likely in India based on the accent There are plenty of videos of these dogs… pic.twitter.com/01h9kxwyNj — Wall Street Apes (@WallStreetApes) April 12, 2026
Meme of the day! Robots on American streets are being controlled by operators from India
In Atlanta, police officers encountered one of these machines in the evening: the robot dog spoke to them in English with an Indian accent and explained that it was “at work” and monitoring… pic.twitter.com/l98N6hglwk — NEXTA (@nexta_tv) December 29, 2025
Atlanta just hired a robot guard dog for night duty.
No sleep. No breaks. 24/7 patrol. Welcome to the future of security. (Source: @BrianRoemmele ) pic.twitter.com/9SaDlOrzoy — Learn AI Faster (@learnaifaster) November 22, 2025
Robot “dog” patrolling Atlanta, Georgiapic.twitter.com/r5UcFB1MaS
— Massimo (@Rainmaker1973) April 2, 2026
Sostieni Renovatio 21
The new robot security dogs in Atlanta are now giving commands to Americans
Even when this woman peacefully immediately complies with the robot security dog, even being very friendly to the robot. It still calls the police on her What could possibly go wrong here….. pic.twitter.com/DvReKpsq70 — Wall Street Apes (@WallStreetApes) April 1, 2026
Iscriviti al canale Telegram ![]()
-



Vaccini2 settimane faElon Musk ha subito danni dal vaccino COVID. Ex dirigente Pfizer ammette: il siero potrebbe aver ucciso migliaia di persone
-



Pensiero2 settimane faLa vera natura dei progetti di legge sull’antisemitismo. Intervista al prof. Marini
-



Spirito1 settimana faMons. Viganò sullo scontro tra Trump e Leone
-



Bizzarria1 settimana faL’uomo nudo continua a terrorizzare l’Italia: l’anarconudismo figlio dell’anarcotirannia
-



Arte2 settimane faMarina Abramovic definisce Trump «il mago di più alto livello»
-



Occulto2 settimane faLeader del «culto dell’orgasmo», condanna a nove anni di carcere (no, non è chi pensate voi)
-



Psicofarmaci2 settimane faLo Xanax richiamato in vari stati americani
-



Militaria1 settimana faPrigionieri palestinesi stuprati dai cani addestrati dell’esercito israeliano










