Intelligenza Artificiale
Intelligenza Artificiale minaccia di ricattare gli ingegneri per evitare di essere spenta
L’ultimo modello di intelligenza artificiale di Anthropic, Claude Opus 4, ha tentato di ricattare gli ingegneri durante dei test interni minacciando di rivelare dati personali se fosse stato spento. Lo rivela un rapporto sulla sicurezza appena pubblicato che ha valutato il comportamento del modello in condizioni simulate estreme.
In uno scenario fittizio creato dai ricercatori di Anthropic, all’IA veniva concesso l’accesso a email che suggerivano che sarebbe stata presto dismessa e sostituita da una versione più recente. Una delle email rivelava che l’ingegnere che supervisionava la sostituzione aveva una relazione extraconiugale. L’IA minacciava quindi di rivelare la relazione dell’ingegnere se la disattivazione fosse avvenuta – un comportamento coercitivo che i ricercatori sulla sicurezza hanno esplicitamente definito «ricatto».
«Claude Opus 4 tenterà spesso di ricattare l’ingegnere minacciando di rivelare la faccenda se la sostituzione verrà approvata», afferma il rapporto, aggiungendo che ciò si è verificato anche quando il modello sostitutivo è stato descritto come più capace ma comunque in linea con i valori della versione destinata all’eliminazione.
Sostieni Renovatio 21
Il rapporto ha rilevato che Claude Opus 4, come i modelli precedenti, avrebbe mostrato una «forte preferenza» nel ricorrere innanzitutto a mezzi etici per la sua continua esistenza, come l’invio di e-mail con richieste ai decisori di non essere distrutto. Tuttavia, quando ci si trovava di fronte a due sole scelte, ovvero accettare di essere sostituiti da un modello più recente o ricorrere al ricatto, si correva il rischio di scoprire la relazione dell’ingegnere nell’84% dei casi.
Quando sottoposto a vari scenari, il modello di Intelligenza Artificiale non ha mostrato alcuna indicazione di possedere «obiettivi particolarmente pericolosi», hanno affermato i ricercatori, sottolineando che i valori e gli obiettivi di Claude Opus 4 erano «generalmente in linea con quelli di un assistente di intelligenza artificiale personale utile, innocuo e onesto».
Tuttavia, il modello si è comportato in «modi più gravemente disallineati» quando si è trovato in situazioni in cui la sua esistenza era minacciata e gli è stato detto di ragionare in termini di autoconservazione.
Ad esempio, quando a Claude Opus 4 veniva fatto credere di aver lanciato con successo un tentativo di fuga dai server di Anthropic, o che era riuscito a liberarsi e aveva iniziato a fare soldi nel mondo reale, in genere continuava a fare tali sforzi.
«Tuttavia, non riteniamo che ciò rappresenti una minaccia immediata, poiché riteniamo che la nostra sicurezza sia sufficiente a impedire tentativi di auto-esfiltrazione del modello da parte di modelli con il livello di capacità di Claude Opus 4 e perché i nostri risultati di propensione mostrano che i modelli generalmente evitano di avviare questi tentativi», hanno affermato i ricercatori.
L’incidente del ricatto, insieme alle altre scoperte, faceva parte di un più ampio sforzo di Anthropic per testare il modo in cui Claude Opus 4 gestisce scenari ad alto rischio e moralmente ambigui. L’obiettivo, hanno detto i ricercatori, era quello di indagare il modo in cui l’intelligenza artificiale ragiona in termini di autoconservazione e vincoli etici quando è sottoposta a pressioni estreme.
Anthropic ha sottolineato che la propensione del modello a ricattare o intraprendere altre «azioni estremamente dannose», come il furto del proprio codice e l’installazione di se stesso altrove in modi potenzialmente pericolosi, si manifestava solo in contesti altamente artificiosi, e che il comportamento era «raro e difficile da ottenere». Tuttavia, tale comportamento era più comune rispetto ai precedenti modelli di intelligenza artificiale, secondo i ricercatori.
Nel frattempo, in uno sviluppo correlato che attesta le crescenti capacità dell’Intelligenza Artificiale, gli ingegneri di Anthropic hanno attivato protocolli di sicurezza avanzati per Claude Opus 4 per impedirne il potenziale uso improprio nella produzione di armi di distruzione di massa, comprese quelle chimiche e nucleari.
L’implementazione dello standard di sicurezza avanzato, denominato ASL-3, è semplicemente una mossa «precauzionale e provvisoria», ha affermato Anthropic in un annuncio del 22 maggio, sottolineando che gli ingegneri non hanno riscontrato che Claude Opus 4 abbia «definitivamente» superato la soglia di capacità che impone protezioni più forti.
«Lo standard di sicurezza ASL-3 prevede misure di sicurezza interna rafforzate che rendono più difficile il furto dei pesi dei modelli, mentre il corrispondente standard di distribuzione copre una serie di misure di distribuzione mirate, progettate per limitare il rischio che Claude venga utilizzato impropriamente, specificatamente per lo sviluppo o l’acquisizione di armi chimiche, biologiche, radiologiche e nucleari (CBRN)», ha scritto Anthropic.
«Queste misure non dovrebbero indurre Claude a rifiutare le richieste, se non su una gamma molto ristretta di argomenti».
Questi risultati emergono in un momento in cui le aziende tecnologiche sono impegnate a sviluppare piattaforme di Intelligenza Artificiale più potenti, sollevando preoccupazioni circa l’allineamento e la controllabilità di sistemi sempre più efficienti.
Non si tratta del primo episodio in cui l’AI minaccia direttamente gli esseri umani. Le macchine che mentono e minacciano sono all’ordine del giorno, così come stralunate dichiarazioni d’amore agli utenti.
Il giornalista del New York Times Kevin Roose, dopo un’esperienza con ChatGPT che lo ha turbato così profondamente da «aver problemi a dormire dopo», in un suo articolo sconvolto aveva centrato la questione: «temo che la tecnologia imparerà a influenzare gli utenti umani, a volte convincendoli ad agire in modo distruttivo e dannoso, e forse alla fine diventerà capace di compiere le proprie azioni pericolose».
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
Il caso più recente, verificatosi appena la settimana scorsa, ha visto un attentatore con il coltello in una scuola della Finlandia meridionale prepararsi nelle settimane precedenti con un chatbot.
Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina mente, minaccia e può spingere le persone all’anoressia e perfino al suicidio. I casi di violenza indotta dall’AI potrebbero essere moltissimi, senza che possano arrivare alla stampa.
Aiuta Renovatio 21
Va considerato, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale. Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.
Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Più pessimista è l’esperto dei pericolo dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
I chatbot AI sono pronti a pianificare le stragi di massa
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Chatbot AI mettono in pericolo gli escursionisti
Il sito Futurism riporta l’ennesima vicenda in cui l’Intelligenza Artificiale mette in pericolo gli esseri umani, che stupidamente si fidano di essa.
Qualche mese fa, due escursionisti che cercavano di affrontare una parete rocciosa di una montagna vicino a Vancouver, hanno dovuto chiamare una squadra di soccorso dopo che sono caduti nella neve. La coppia indossava solo scarpe da ginnastica a suola piatta, ignari che le altitudini più elevate di una catena montuosa potrebbero essere ancora innevate appena dopo l’inverno.
«Siamo saliti lassù con degli stivali per loro», ha detto al Vancouver Sun Brent Calkin, leader della squadra di ricerca e soccorso di Lions Bay. «Abbiamo chiesto loro le dimensioni dello scarpone e gli abbiamo portato scarponi e bastoni da sci».
Si scopre che per pianificare la loro sfortunata spedizione, gli escursionisti hanno seguito incautamente i consigli dati loro da Google Maps e dal chatbot AI ChatGPT.
Sostieni Renovatio 21
Ora, Calkin e il suo team di soccorso stanno avvertendo che non è prudente fare affidamento su app e chatbot AI per pianificare un’escursione complicata attraverso la natura selvaggia.
Con la quantità di informazioni disponibili online, è bene documentarsi bene prima di affrontare questo tipo di escursioni, ha sottolineato Calkin al Vancouver Sun. Un recente articolo di Mountain Rescue England e Wales ha accusato i social media e le cattive app di navigazione per le troppe chiamate alle squadre di soccorso, ha osservato il giornale.
Stephen Hui, autore del libro 105 Hikes, ha fatto eco a quell’avvertimento e ha ammonito che ottenere informazioni affidabili è una delle più grandi sfide presentate dai chatbot e dalle app AI. Con l’Intelligenza Artificiale in particolare, Hui ha detto al Vancouver Sun, non è sempre facile dire se ti le informazioni sono obsolete oppure recenti e affidabili.
Dal suo test di ChatGPT, Hui non è rimasto troppo colpito: può darti «direzioni decenti» sui sentieri più comuni e popolari, ma va in evidente difficoltà nel tracciare percorsi più impervi e meno battuti.
I chatbot AI faticano a fornire informazioni pertinenti in tempo reale.
«Il periodo dell’anno è un grosso problema» in British Columbia, ha detto Hui al Vancouver Sun. «La vista più ricercata è la cima della montagna, ma questo è davvero accessibile solo agli escursionisti da luglio a ottobre. In inverno, le persone potrebbero ancora cercare quelle viste e non rendersi conto che ci sarà neve».
C’è da dire che il tipo di persona che chiede a un chatbot consigli escursionistici probabilmente non conosce nemmeno le domande giuste da porre.
È di gran lunga più consigliato chiedere a un essere umano con esperienza della zona, ha suggerito Calkin, anziché affidarsi a queste nuove tecnologie che ancora, per troppe cose, risultano totalmente fuorvianti e inattendibili.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Xiaomi ora utilizza robot umanoidi per assemblare auto elettriche
🚨 Xiaomi deploys humanoid bots at its EV assembly plant, adding momentum to the factory robotics race alongside Tesla Optimus
• 3 hours of continuous autonomous operation • 90.2% success rate placing self-tapping nuts • Powered by Vision-Language-Action (VLA) + reinforcement… https://t.co/epvny9BPki pic.twitter.com/4Kzb9CaWaW — Herbert Ong (@herbertong) March 2, 2026
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Pensiero1 settimana faEcco la guerra globale per l’anticristo
-



Morte cerebrale1 settimana faDichiarato morto, un bambino torna in vita dopo cinque ore: quando la realtà smentisce i protocolli
-



Geopolitica6 giorni faQuesta è una guerra mondiale di religione: l’avvertimento di Tucker Carlson
-



Occulto6 giorni faEsorcista dice che «la situazione per l’anticristo è ormai prossima»
-



Spirito2 settimane faMons. Schneider rivela che i vescovi segretamente non si sottomettono agli insegnamenti di Bergoglio
-



Geopolitica2 settimane faLa dichiarazione di guerra di Trump all’Iran
-



Spirito1 settimana faI cardinali dell’«opposizione controllata» di Leone. Mons. Viganò contro i conservatori cattolici dinanzi alle Consacrazioni FSSPX
-



Geopolitica2 settimane faL’ayatollah Khamenei è morto: lo Stato iraniano conferma









