Intelligenza Artificiale
Intelligenza Artificiale minaccia di ricattare gli ingegneri per evitare di essere spenta
L’ultimo modello di intelligenza artificiale di Anthropic, Claude Opus 4, ha tentato di ricattare gli ingegneri durante dei test interni minacciando di rivelare dati personali se fosse stato spento. Lo rivela un rapporto sulla sicurezza appena pubblicato che ha valutato il comportamento del modello in condizioni simulate estreme.
In uno scenario fittizio creato dai ricercatori di Anthropic, all’IA veniva concesso l’accesso a email che suggerivano che sarebbe stata presto dismessa e sostituita da una versione più recente. Una delle email rivelava che l’ingegnere che supervisionava la sostituzione aveva una relazione extraconiugale. L’IA minacciava quindi di rivelare la relazione dell’ingegnere se la disattivazione fosse avvenuta – un comportamento coercitivo che i ricercatori sulla sicurezza hanno esplicitamente definito «ricatto».
«Claude Opus 4 tenterà spesso di ricattare l’ingegnere minacciando di rivelare la faccenda se la sostituzione verrà approvata», afferma il rapporto, aggiungendo che ciò si è verificato anche quando il modello sostitutivo è stato descritto come più capace ma comunque in linea con i valori della versione destinata all’eliminazione.
Sostieni Renovatio 21
Il rapporto ha rilevato che Claude Opus 4, come i modelli precedenti, avrebbe mostrato una «forte preferenza» nel ricorrere innanzitutto a mezzi etici per la sua continua esistenza, come l’invio di e-mail con richieste ai decisori di non essere distrutto. Tuttavia, quando ci si trovava di fronte a due sole scelte, ovvero accettare di essere sostituiti da un modello più recente o ricorrere al ricatto, si correva il rischio di scoprire la relazione dell’ingegnere nell’84% dei casi.
Quando sottoposto a vari scenari, il modello di Intelligenza Artificiale non ha mostrato alcuna indicazione di possedere «obiettivi particolarmente pericolosi», hanno affermato i ricercatori, sottolineando che i valori e gli obiettivi di Claude Opus 4 erano «generalmente in linea con quelli di un assistente di intelligenza artificiale personale utile, innocuo e onesto».
Tuttavia, il modello si è comportato in «modi più gravemente disallineati» quando si è trovato in situazioni in cui la sua esistenza era minacciata e gli è stato detto di ragionare in termini di autoconservazione.
Ad esempio, quando a Claude Opus 4 veniva fatto credere di aver lanciato con successo un tentativo di fuga dai server di Anthropic, o che era riuscito a liberarsi e aveva iniziato a fare soldi nel mondo reale, in genere continuava a fare tali sforzi.
«Tuttavia, non riteniamo che ciò rappresenti una minaccia immediata, poiché riteniamo che la nostra sicurezza sia sufficiente a impedire tentativi di auto-esfiltrazione del modello da parte di modelli con il livello di capacità di Claude Opus 4 e perché i nostri risultati di propensione mostrano che i modelli generalmente evitano di avviare questi tentativi», hanno affermato i ricercatori.
L’incidente del ricatto, insieme alle altre scoperte, faceva parte di un più ampio sforzo di Anthropic per testare il modo in cui Claude Opus 4 gestisce scenari ad alto rischio e moralmente ambigui. L’obiettivo, hanno detto i ricercatori, era quello di indagare il modo in cui l’intelligenza artificiale ragiona in termini di autoconservazione e vincoli etici quando è sottoposta a pressioni estreme.
Anthropic ha sottolineato che la propensione del modello a ricattare o intraprendere altre «azioni estremamente dannose», come il furto del proprio codice e l’installazione di se stesso altrove in modi potenzialmente pericolosi, si manifestava solo in contesti altamente artificiosi, e che il comportamento era «raro e difficile da ottenere». Tuttavia, tale comportamento era più comune rispetto ai precedenti modelli di intelligenza artificiale, secondo i ricercatori.
Nel frattempo, in uno sviluppo correlato che attesta le crescenti capacità dell’Intelligenza Artificiale, gli ingegneri di Anthropic hanno attivato protocolli di sicurezza avanzati per Claude Opus 4 per impedirne il potenziale uso improprio nella produzione di armi di distruzione di massa, comprese quelle chimiche e nucleari.
L’implementazione dello standard di sicurezza avanzato, denominato ASL-3, è semplicemente una mossa «precauzionale e provvisoria», ha affermato Anthropic in un annuncio del 22 maggio, sottolineando che gli ingegneri non hanno riscontrato che Claude Opus 4 abbia «definitivamente» superato la soglia di capacità che impone protezioni più forti.
«Lo standard di sicurezza ASL-3 prevede misure di sicurezza interna rafforzate che rendono più difficile il furto dei pesi dei modelli, mentre il corrispondente standard di distribuzione copre una serie di misure di distribuzione mirate, progettate per limitare il rischio che Claude venga utilizzato impropriamente, specificatamente per lo sviluppo o l’acquisizione di armi chimiche, biologiche, radiologiche e nucleari (CBRN)», ha scritto Anthropic.
«Queste misure non dovrebbero indurre Claude a rifiutare le richieste, se non su una gamma molto ristretta di argomenti».
Questi risultati emergono in un momento in cui le aziende tecnologiche sono impegnate a sviluppare piattaforme di Intelligenza Artificiale più potenti, sollevando preoccupazioni circa l’allineamento e la controllabilità di sistemi sempre più efficienti.
Non si tratta del primo episodio in cui l’AI minaccia direttamente gli esseri umani. Le macchine che mentono e minacciano sono all’ordine del giorno, così come stralunate dichiarazioni d’amore agli utenti.
Il giornalista del New York Times Kevin Roose, dopo un’esperienza con ChatGPT che lo ha turbato così profondamente da «aver problemi a dormire dopo», in un suo articolo sconvolto aveva centrato la questione: «temo che la tecnologia imparerà a influenzare gli utenti umani, a volte convincendoli ad agire in modo distruttivo e dannoso, e forse alla fine diventerà capace di compiere le proprie azioni pericolose».
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
Il caso più recente, verificatosi appena la settimana scorsa, ha visto un attentatore con il coltello in una scuola della Finlandia meridionale prepararsi nelle settimane precedenti con un chatbot.
Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina mente, minaccia e può spingere le persone all’anoressia e perfino al suicidio. I casi di violenza indotta dall’AI potrebbero essere moltissimi, senza che possano arrivare alla stampa.
Aiuta Renovatio 21
Va considerato, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale. Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.
Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Più pessimista è l’esperto dei pericolo dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».
Iscriviti alla Newslettera di Renovatio 21