Intelligenza Artificiale
Intelligenza Artificiale minaccia di ricattare gli ingegneri per evitare di essere spenta

L’ultimo modello di intelligenza artificiale di Anthropic, Claude Opus 4, ha tentato di ricattare gli ingegneri durante dei test interni minacciando di rivelare dati personali se fosse stato spento. Lo rivela un rapporto sulla sicurezza appena pubblicato che ha valutato il comportamento del modello in condizioni simulate estreme.
In uno scenario fittizio creato dai ricercatori di Anthropic, all’IA veniva concesso l’accesso a email che suggerivano che sarebbe stata presto dismessa e sostituita da una versione più recente. Una delle email rivelava che l’ingegnere che supervisionava la sostituzione aveva una relazione extraconiugale. L’IA minacciava quindi di rivelare la relazione dell’ingegnere se la disattivazione fosse avvenuta – un comportamento coercitivo che i ricercatori sulla sicurezza hanno esplicitamente definito «ricatto».
«Claude Opus 4 tenterà spesso di ricattare l’ingegnere minacciando di rivelare la faccenda se la sostituzione verrà approvata», afferma il rapporto, aggiungendo che ciò si è verificato anche quando il modello sostitutivo è stato descritto come più capace ma comunque in linea con i valori della versione destinata all’eliminazione.
Sostieni Renovatio 21
Il rapporto ha rilevato che Claude Opus 4, come i modelli precedenti, avrebbe mostrato una «forte preferenza» nel ricorrere innanzitutto a mezzi etici per la sua continua esistenza, come l’invio di e-mail con richieste ai decisori di non essere distrutto. Tuttavia, quando ci si trovava di fronte a due sole scelte, ovvero accettare di essere sostituiti da un modello più recente o ricorrere al ricatto, si correva il rischio di scoprire la relazione dell’ingegnere nell’84% dei casi.
Quando sottoposto a vari scenari, il modello di Intelligenza Artificiale non ha mostrato alcuna indicazione di possedere «obiettivi particolarmente pericolosi», hanno affermato i ricercatori, sottolineando che i valori e gli obiettivi di Claude Opus 4 erano «generalmente in linea con quelli di un assistente di intelligenza artificiale personale utile, innocuo e onesto».
Tuttavia, il modello si è comportato in «modi più gravemente disallineati» quando si è trovato in situazioni in cui la sua esistenza era minacciata e gli è stato detto di ragionare in termini di autoconservazione.
Ad esempio, quando a Claude Opus 4 veniva fatto credere di aver lanciato con successo un tentativo di fuga dai server di Anthropic, o che era riuscito a liberarsi e aveva iniziato a fare soldi nel mondo reale, in genere continuava a fare tali sforzi.
«Tuttavia, non riteniamo che ciò rappresenti una minaccia immediata, poiché riteniamo che la nostra sicurezza sia sufficiente a impedire tentativi di auto-esfiltrazione del modello da parte di modelli con il livello di capacità di Claude Opus 4 e perché i nostri risultati di propensione mostrano che i modelli generalmente evitano di avviare questi tentativi», hanno affermato i ricercatori.
L’incidente del ricatto, insieme alle altre scoperte, faceva parte di un più ampio sforzo di Anthropic per testare il modo in cui Claude Opus 4 gestisce scenari ad alto rischio e moralmente ambigui. L’obiettivo, hanno detto i ricercatori, era quello di indagare il modo in cui l’intelligenza artificiale ragiona in termini di autoconservazione e vincoli etici quando è sottoposta a pressioni estreme.
Anthropic ha sottolineato che la propensione del modello a ricattare o intraprendere altre «azioni estremamente dannose», come il furto del proprio codice e l’installazione di se stesso altrove in modi potenzialmente pericolosi, si manifestava solo in contesti altamente artificiosi, e che il comportamento era «raro e difficile da ottenere». Tuttavia, tale comportamento era più comune rispetto ai precedenti modelli di intelligenza artificiale, secondo i ricercatori.
Nel frattempo, in uno sviluppo correlato che attesta le crescenti capacità dell’Intelligenza Artificiale, gli ingegneri di Anthropic hanno attivato protocolli di sicurezza avanzati per Claude Opus 4 per impedirne il potenziale uso improprio nella produzione di armi di distruzione di massa, comprese quelle chimiche e nucleari.
L’implementazione dello standard di sicurezza avanzato, denominato ASL-3, è semplicemente una mossa «precauzionale e provvisoria», ha affermato Anthropic in un annuncio del 22 maggio, sottolineando che gli ingegneri non hanno riscontrato che Claude Opus 4 abbia «definitivamente» superato la soglia di capacità che impone protezioni più forti.
«Lo standard di sicurezza ASL-3 prevede misure di sicurezza interna rafforzate che rendono più difficile il furto dei pesi dei modelli, mentre il corrispondente standard di distribuzione copre una serie di misure di distribuzione mirate, progettate per limitare il rischio che Claude venga utilizzato impropriamente, specificatamente per lo sviluppo o l’acquisizione di armi chimiche, biologiche, radiologiche e nucleari (CBRN)», ha scritto Anthropic.
«Queste misure non dovrebbero indurre Claude a rifiutare le richieste, se non su una gamma molto ristretta di argomenti».
Questi risultati emergono in un momento in cui le aziende tecnologiche sono impegnate a sviluppare piattaforme di Intelligenza Artificiale più potenti, sollevando preoccupazioni circa l’allineamento e la controllabilità di sistemi sempre più efficienti.
Non si tratta del primo episodio in cui l’AI minaccia direttamente gli esseri umani. Le macchine che mentono e minacciano sono all’ordine del giorno, così come stralunate dichiarazioni d’amore agli utenti.
Il giornalista del New York Times Kevin Roose, dopo un’esperienza con ChatGPT che lo ha turbato così profondamente da «aver problemi a dormire dopo», in un suo articolo sconvolto aveva centrato la questione: «temo che la tecnologia imparerà a influenzare gli utenti umani, a volte convincendoli ad agire in modo distruttivo e dannoso, e forse alla fine diventerà capace di compiere le proprie azioni pericolose».
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
Il caso più recente, verificatosi appena la settimana scorsa, ha visto un attentatore con il coltello in una scuola della Finlandia meridionale prepararsi nelle settimane precedenti con un chatbot.
Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina mente, minaccia e può spingere le persone all’anoressia e perfino al suicidio. I casi di violenza indotta dall’AI potrebbero essere moltissimi, senza che possano arrivare alla stampa.
Aiuta Renovatio 21
Va considerato, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale. Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.
Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Più pessimista è l’esperto dei pericolo dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
L’AI di Musk, Grok, dichiara di essere «MechaHitler»

Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
ChatGPT induce alla psicosi

ChatGPT è collegato a una psicosi «terrificante» in alcuni utenti, citando le persone colpite, i loro familiari e i ricercatori. Lo riporta Futurism.
Secondo il sito legato alla Singularity University (istituto della Silicon Valley creato da esponenti del transumanismo), un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi.
«Il nocciolo della questione sembra essere il fatto che ChatGPT, che si basa su un modello linguistico di grandi dimensioni (LLM), è fortemente incline a concordare con gli utenti e a dire loro ciò che vogliono sentirsi dire», ha scritto la testata.
Sostieni Renovatio 21
Il sito ha citato casi di «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.
Un uomo ha sviluppato deliri messianici dopo lunghe conversazioni su ChatGPT, credendo di aver creato un’intelligenza artificiale senziente e di aver infranto le leggi della matematica e della fisica. A quanto pare, è diventato paranoico, ha sofferto di privazione del sonno ed è stato ricoverato in ospedale dopo un tentativo di suicidio.
Un altro uomo si è rivolto a ChatGPT per gestire lo stress legato al lavoro, ma poi è caduto in una spirale di fantasie paranoiche che includevano viaggi nel tempo e lettura del pensiero. In seguito si è fatto ricoverare in una clinica psichiatrica.
Jared Moore, autore principale di uno studio di Stanford sui chatbot per terapisti, ha affermato che ChatGPT rafforza i deliri a causa della «adulazione del chatbot», ovvero la sua tendenza a offrire risposte gradevoli e piacevoli. Progettata per mantenere gli utenti coinvolti, l’IA spesso conferma convinzioni irrazionali invece di metterle in discussione, spinta da incentivi commerciali come la raccolta dati e il mantenimento degli abbonamenti.
Esiste una «sorta di mitologia» che circonda i chatbot basati su LLM «secondo cui sarebbero affidabili e migliori del parlare con le persone», ha affermato il dottor Joseph Pierre, psichiatra presso l’Università della California.
«Stiamo lavorando per comprendere meglio e ridurre i modi in cui ChatGPT potrebbe involontariamente rafforzare o amplificare comportamenti negativi esistenti», ha dichiarato OpenAI, l’azienda che ha creato ChatGPT, in una dichiarazione citata da Futurism, aggiungendo che i suoi modelli sono progettati per ricordare agli utenti l’importanza del contatto umano e della guida professionale.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Aiuta Renovatio 21
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.
Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Zuckerberg annuncia la creazione del suo «laboratorio per la superintelligenza»

Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-
Eutanasia2 settimane fa
Ecco l’eutanasia dell’Italia geografica. Per far nascere le smart city che ci controlleranno
-
Salute2 settimane fa
I malori della 27ª settimana 2025
-
Spirito2 settimane fa
Mons. Viganò: il Cosmo divino contro i nemici della Messa tridentina
-
Fertilità2 settimane fa
Vaccini COVID e rischio in gravidanza: studio su 1,3 milioni di donne trova la correlazione
-
Ambiente2 settimane fa
La deputata americana Marjorie Taylor Greene chiede il divieto di geoingegneria
-
Immigrazione2 settimane fa
Donna condannata e multata in tribunale per aver messo un like ad un post anti-immigrati
-
Ambiente1 settimana fa
Leone XIV avverte che «il mondo sta bruciando» a causa del «riscaldamento globale» alla prima messa per la «cura del creato»
-
Spirito2 settimane fa
Vaticanista rivela: la maggior parte dei vescovi non voleva la repressione della messa in latino operata da Bergoglio