Intelligenza Artificiale
Intelligenza Artificiale minaccia di ricattare gli ingegneri per evitare di essere spenta
L’ultimo modello di intelligenza artificiale di Anthropic, Claude Opus 4, ha tentato di ricattare gli ingegneri durante dei test interni minacciando di rivelare dati personali se fosse stato spento. Lo rivela un rapporto sulla sicurezza appena pubblicato che ha valutato il comportamento del modello in condizioni simulate estreme.
In uno scenario fittizio creato dai ricercatori di Anthropic, all’IA veniva concesso l’accesso a email che suggerivano che sarebbe stata presto dismessa e sostituita da una versione più recente. Una delle email rivelava che l’ingegnere che supervisionava la sostituzione aveva una relazione extraconiugale. L’IA minacciava quindi di rivelare la relazione dell’ingegnere se la disattivazione fosse avvenuta – un comportamento coercitivo che i ricercatori sulla sicurezza hanno esplicitamente definito «ricatto».
«Claude Opus 4 tenterà spesso di ricattare l’ingegnere minacciando di rivelare la faccenda se la sostituzione verrà approvata», afferma il rapporto, aggiungendo che ciò si è verificato anche quando il modello sostitutivo è stato descritto come più capace ma comunque in linea con i valori della versione destinata all’eliminazione.
Sostieni Renovatio 21
Il rapporto ha rilevato che Claude Opus 4, come i modelli precedenti, avrebbe mostrato una «forte preferenza» nel ricorrere innanzitutto a mezzi etici per la sua continua esistenza, come l’invio di e-mail con richieste ai decisori di non essere distrutto. Tuttavia, quando ci si trovava di fronte a due sole scelte, ovvero accettare di essere sostituiti da un modello più recente o ricorrere al ricatto, si correva il rischio di scoprire la relazione dell’ingegnere nell’84% dei casi.
Quando sottoposto a vari scenari, il modello di Intelligenza Artificiale non ha mostrato alcuna indicazione di possedere «obiettivi particolarmente pericolosi», hanno affermato i ricercatori, sottolineando che i valori e gli obiettivi di Claude Opus 4 erano «generalmente in linea con quelli di un assistente di intelligenza artificiale personale utile, innocuo e onesto».
Tuttavia, il modello si è comportato in «modi più gravemente disallineati» quando si è trovato in situazioni in cui la sua esistenza era minacciata e gli è stato detto di ragionare in termini di autoconservazione.
Ad esempio, quando a Claude Opus 4 veniva fatto credere di aver lanciato con successo un tentativo di fuga dai server di Anthropic, o che era riuscito a liberarsi e aveva iniziato a fare soldi nel mondo reale, in genere continuava a fare tali sforzi.
«Tuttavia, non riteniamo che ciò rappresenti una minaccia immediata, poiché riteniamo che la nostra sicurezza sia sufficiente a impedire tentativi di auto-esfiltrazione del modello da parte di modelli con il livello di capacità di Claude Opus 4 e perché i nostri risultati di propensione mostrano che i modelli generalmente evitano di avviare questi tentativi», hanno affermato i ricercatori.
L’incidente del ricatto, insieme alle altre scoperte, faceva parte di un più ampio sforzo di Anthropic per testare il modo in cui Claude Opus 4 gestisce scenari ad alto rischio e moralmente ambigui. L’obiettivo, hanno detto i ricercatori, era quello di indagare il modo in cui l’intelligenza artificiale ragiona in termini di autoconservazione e vincoli etici quando è sottoposta a pressioni estreme.
Anthropic ha sottolineato che la propensione del modello a ricattare o intraprendere altre «azioni estremamente dannose», come il furto del proprio codice e l’installazione di se stesso altrove in modi potenzialmente pericolosi, si manifestava solo in contesti altamente artificiosi, e che il comportamento era «raro e difficile da ottenere». Tuttavia, tale comportamento era più comune rispetto ai precedenti modelli di intelligenza artificiale, secondo i ricercatori.
Nel frattempo, in uno sviluppo correlato che attesta le crescenti capacità dell’Intelligenza Artificiale, gli ingegneri di Anthropic hanno attivato protocolli di sicurezza avanzati per Claude Opus 4 per impedirne il potenziale uso improprio nella produzione di armi di distruzione di massa, comprese quelle chimiche e nucleari.
L’implementazione dello standard di sicurezza avanzato, denominato ASL-3, è semplicemente una mossa «precauzionale e provvisoria», ha affermato Anthropic in un annuncio del 22 maggio, sottolineando che gli ingegneri non hanno riscontrato che Claude Opus 4 abbia «definitivamente» superato la soglia di capacità che impone protezioni più forti.
«Lo standard di sicurezza ASL-3 prevede misure di sicurezza interna rafforzate che rendono più difficile il furto dei pesi dei modelli, mentre il corrispondente standard di distribuzione copre una serie di misure di distribuzione mirate, progettate per limitare il rischio che Claude venga utilizzato impropriamente, specificatamente per lo sviluppo o l’acquisizione di armi chimiche, biologiche, radiologiche e nucleari (CBRN)», ha scritto Anthropic.
«Queste misure non dovrebbero indurre Claude a rifiutare le richieste, se non su una gamma molto ristretta di argomenti».
Questi risultati emergono in un momento in cui le aziende tecnologiche sono impegnate a sviluppare piattaforme di Intelligenza Artificiale più potenti, sollevando preoccupazioni circa l’allineamento e la controllabilità di sistemi sempre più efficienti.
Non si tratta del primo episodio in cui l’AI minaccia direttamente gli esseri umani. Le macchine che mentono e minacciano sono all’ordine del giorno, così come stralunate dichiarazioni d’amore agli utenti.
Il giornalista del New York Times Kevin Roose, dopo un’esperienza con ChatGPT che lo ha turbato così profondamente da «aver problemi a dormire dopo», in un suo articolo sconvolto aveva centrato la questione: «temo che la tecnologia imparerà a influenzare gli utenti umani, a volte convincendoli ad agire in modo distruttivo e dannoso, e forse alla fine diventerà capace di compiere le proprie azioni pericolose».
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
Il caso più recente, verificatosi appena la settimana scorsa, ha visto un attentatore con il coltello in una scuola della Finlandia meridionale prepararsi nelle settimane precedenti con un chatbot.
Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina mente, minaccia e può spingere le persone all’anoressia e perfino al suicidio. I casi di violenza indotta dall’AI potrebbero essere moltissimi, senza che possano arrivare alla stampa.
Aiuta Renovatio 21
Va considerato, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale. Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.
Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Più pessimista è l’esperto dei pericolo dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
L’ascesa dell’AI avanzata potrebbe avere conseguenze catastrofiche: parla il CEO di Google DeepMind
Google Deepmind co-founder @demishassabis to @mikeallen on what about AI he fears most: “Bad actors using AI for harmful ends, or the AI itself as it gets closer to AGI … goes off the rails in some way that harms humanity.” #AxiosAISummit pic.twitter.com/bVmx4SNKIv
— Axios (@axios) December 5, 2025
Iscriviti al canale Telegram ![]()
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
L’AI renderà il lavoro «facoltativo» e il denaro «irrilevante»: Musk come Marx e i sovietici
Secondo l’imprenditore americano Elon Musk, gli avanzamenti nell’intelligenza artificiale e nella robotica potrebbero trasformare il lavoro in una mera opzione anziché un imperativo nei prossimi vent’anni.
Il magnate ha espresso questa visione audace al Forum sugli investimenti tra Stati Uniti e Arabia Saudita, durante un dibattito sui risvolti a lungo termine di robotica e IA sulla manodopera.
«Non so bene cosa intenda per lungo termine, forse 10 o 20 anni, o roba del genere», ha dichiarato Musk. «La mia previsione è che il lavoro diventerà facoltativo».
Aiuta Renovatio 21
Elone ha proseguito spiegando che, in tale scenario, l’attività lavorativa verrebbe vista come un passatempo più che come un dovere, simile a chi decide di piantare ortaggi in giardino anziché acquistarli al supermercato.
«Sarà come praticare sport o dedicarsi a un videogioco, o simili», ha aggiunto. Musk ha inoltre ipotizzato che, in un’epoca dominata da IA sofisticata e robotica, il denaro potrebbe smarrire gran parte della sua centralità. «Credo che a un certo punto la valuta diventerà irrilevante», ha sostenuto.
Il Musk ammesso, però, che resta «ancora tanto lavoro» da compiere affinché tecnologia e società si avvicinino anche solo vagamente a quel domani.
Parte del suo entusiasmo deriva dal progresso di Optimus, il robot umanoide bipede di Tesla concepito per assolvere mansioni monotone, fisiche e talora rischiose. La società immagina che Optimus possa operare un giorno in stabilimenti, depositi e persino abitazioni. Musk lo ha descritto come potenzialmente «la più grande industria o il prodotto più imponente di sempre, superiore persino ai telefonini».
Gli scettici, nondimeno, ritengono una scadenza di 10-20 anni troppo ottimistica, rammentando che svariate profezie passate di Musk – come l’avvento dei taxi autonomi entro il 2019 o una missione con equipaggio su Marte entro il 2024 – non si sono realizzate. Gli specialisti in robotica evidenziano pure che realizzare un umanoide versatile, capace di esecuzioni sicure e consistenti nel contesto reale, è infinitamente più arduo e oneroso rispetto a un automa specializzato.
Queste dichiarazioni irrompono in un frangente di allarme crescente su come IA e robotica stiano ridefinendo impiego ed economia. Negli anni recenti, le multinazionali hanno soppresso decine di migliaia di posizioni accentuando l’automazione.
Musk aveva parlato di un «High Universal Income» (Alto reddito universale) durante il suo ultimo incontro con il podcaster Joe Rogan. Da anni ritiene che il reddito universale sarà un passaggio necessario di una società automatizzata.
Iscriviti al canale Telegram ![]()
L’idea di una società sofisticata al punto da affrancare quasi totalmente l’individuo dal lavoro per lasciare che si dedichi alle passioni è, in realtà, una vecchia idea comunista che discende direttamente da Marx ed Engles e filtrò, ovviamente fallendo, nell’Unione Sovietica.
Ne L’ideologia tedesca (1845) il duo scrive che nella società comunista evoluta «sarà possibile fare oggi una cosa, domani un’altra, cacciare al mattino, pescare il pomeriggio, allevare bestiame la sera, criticare dopo cena, secondo il mio desiderio, senza diventare né cacciatore, né pescatore, né pastore, né critico».
Lenin riprese questa visione nel suo testo Stato e rivoluzione (1917) dove scrive che nella fase superiore del comunismo il lavoro coatto sparirà, lo Stato si estinguerà e ognuno contribuirà «secondo le sue capacità» e riceverà «secondo i suoi bisogni».
Anche Nikita Khrushchev nel 1961 (XXII Congresso del PCUS) rilanciò ufficialmente tale visione avveniristica: entro il 1980 l’URSS avrebbe raggiunto il comunismo vero e proprio, con riduzione drastica dell’orario di lavoro (sarebbe sceso progressivamente a 5-6 ore, poi a 4), abbondanza materiale e possibilità per tutti di dedicarsi a studio, arte, sport, interessi personali.
Secondo lo slogan sovietico «Da ognuno secondo le sue capacità, a ognuno secondo i suoi bisogni»: la pianificazione e l’automazione industriale avrebbero quindi dovuto liberare l’essere umano dall’alienazione del lavoro. Tuttavia, l’orario di lavoro in URSS mai calò sotto le 7-8 ore, e il lavoro era obbligatorio per legge: c’era persino il reato di «parassitismo sociale»: chi non lavorava poteva finire in carcere o ai lavori forzati).
Negli anni ’70-’80 si parlava ancora teoricamente di «riduzione della giornata lavorativa», ma nei fatti si faceva l’opposto: turni supplementari, «sabati comunisti» volontari-obbligatori, e via dicendo. L’idea che il lavoro potesse diventare facoltativo o ridotto a poche ore rimase propaganda per tutto il periodo brežneviano e successivo.
Renovatio 21 ha notato, ad ogni modo, più interessanti tracce del pensiero muskiano sulla robotizzazione di cui la sua azienda è assoluta protagonista.
Nel corso della riunione plenaria di Tesla del primo trimestre del 2025, il CEO Elon Musk ha rivelato che l’azienda si sta preparando con l’obiettivo di iniziare la produzione degli Optimus quest’anno.
«Quest’anno, speriamo di riuscire a produrre circa 5.000 robot Optimus », ha detto Musk agli investitori Tesla. «Tecnicamente puntiamo ad avere abbastanza componenti per produrne 10.000, forse 12.000, ma dato che si tratta di un prodotto completamente nuovo, con un design completamente nuovo, direi che ci riusciremo se riusciremo a raggiungere la metà dei 10.000 pezzi».
Aiuta Renovatio 21
«Ma anche 5.000 robot, sono le dimensioni di una legione romana, per vostra informazione, il che è un pensiero un po’ spaventoso» ha continuato significativamente Elon. «Come un’intera legione di robot, direi “wow”. Ma penso che costruiremo letteralmente una legione, almeno una legione di robot quest’anno, e poi probabilmente 10 legioni l’anno prossimo. Penso che sia un’unità piuttosto interessante, sapete? Unità di legione. Quindi probabilmente 50.000 circa l’anno prossimo».
Il riferimento al concetto di legione e alla storia di Roma (passione nota dell’uomo più ricco del mondo) fa venire in mente altre considerazioni espresse dal Musk negli anni scorsi, peraltro proprio riguardo a Putin.
Quando tre anni fa ancora il suo networth era di circa 240 miliardi (ora è quasi il doppio) fu intervistato per un documentario della testata germanica Welt, dove corresse il giornalista che lo descriveva come l’uomo più ricco della Terra. «Io penso che Putin sia significativamente più ricco di me», alluse Elon. «Sì lo penso davvero. Io non posso andare ad invadere altri Paesi. Credo ci sia una vecchia citazione… forse da Crasso… non sei davvero ricco sino a che non puoi permetterti una legione».
Ora Musk le legioni se le sta costruendo da sé: legioni di robot che possono combattere, pure nello spazio: il fatto che per primi su Marte arriveranno non gli uomini, ma gli umanoidi automatici di Elon Musk dovrebbe far riflettere, almeno un pochino.
Il personaggio, torna a ripetere Renovatio 21, potrebbe essere l’anticristo: e questo spiegherebbe il fatto che spesse volte vediamo il fascino di quel che fa. L’anticristo, dice la Scrittura, ingannerà tutti, e sarà servito da coloro «il cui nome non è scritto nel libro della vita fin dalla fondazione del mondo» (Ap, 17,8)…
Che San Giovanni stia parlando di legioni di umanoidi robotici? Che stia parlando di esseri umani creati in provetta (altra specialità personale di Musk)?
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Le autorità cinesi lanciano l’allarme sui robot umanoidi
unitree g1 dancing pic.twitter.com/Sb8djxlceB
— Wenmeng Zhou (@zhouwenmeng) November 8, 2025
Aiuta Renovatio 21
Altre realtà emergenti in ascesa fulminea, come AgiBot e Galbot, hanno svelato i loro umanoidi capaci di completare maratone, cimentarsi nel kickboxing e miscelare caffè, tra varie altre mansioni.Robots take the stage! 🕺🏼
Unitree Robotics just joined the cast of a Chinese dance drama, dressed in traditional attire, performing backflips and kung fu. 🧧 Robots from Unitree share the stage with human actors, mixing advanced robotics with Chinese cultural performance.… pic.twitter.com/uXSZyVCCyU — Lukas Ziegler (@lukas_m_ziegler) October 25, 2025
激しく踊る二足歩行人型ロボットhttps://t.co/ywY811njIy
この動画を撮影した場所(屋内のラボ)に入れてもらったら、UnitreeのG1が床のあちらこちらに沢山転がっていて蹴とばしそうになった🦶#bipedal #humanoidrobot #Any2Track #RobotDance #dancing #EmbodiedIntelligence #Galbot pic.twitter.com/uy8UDM3DUf — T.Yamazaki (@ZappyZappy7) November 2, 2025
Iscriviti al canale Telegram ![]()
Iscriviti alla Newslettera di Renovatio 21
-



Salute2 settimane faI malori della 48ª settimana 2025
-



Politica1 settimana faIl «Nuovo Movimento Repubblicano» minaccia i politici irlandesi per l’immigrazione e la sessualizzazione dei bambini
-



Persecuzioni1 settimana faFamosa suora croata accoltellata: possibile attacco a sfondo religioso
-



Spirito2 settimane fa«Rimarrà solo la Chiesa Trionfante su Satana»: omelia di mons. Viganò
-



Fertilità2 settimane faUn nuovo studio collega il vaccino contro il COVID al forte calo delle nascite
-



Vaccini1 settimana faIl vaccino antinfluenzale a mRNA di Pfizer associato a gravi effetti collaterali, soprattutto negli anziani
-



Senza categoria6 giorni faI malori della 49ª settimana 2025
-



Spirito1 settimana faGran Bretagna, ondata persistente di conversioni al cattolicesimo










