Connettiti con Renovato 21

Intelligenza Artificiale

Intelligenza Artificiale minaccia di ricattare gli ingegneri per evitare di essere spenta

Pubblicato

il

L’ultimo modello di intelligenza artificiale di Anthropic, Claude Opus 4, ha tentato di ricattare gli ingegneri durante dei test interni minacciando di rivelare dati personali se fosse stato spento. Lo rivela un rapporto sulla sicurezza appena pubblicato che ha valutato il comportamento del modello in condizioni simulate estreme.

 

In uno scenario fittizio creato dai ricercatori di Anthropic, all’IA veniva concesso l’accesso a email che suggerivano che sarebbe stata presto dismessa e sostituita da una versione più recente. Una delle email rivelava che l’ingegnere che supervisionava la sostituzione aveva una relazione extraconiugale. L’IA minacciava quindi di rivelare la relazione dell’ingegnere se la disattivazione fosse avvenuta – un comportamento coercitivo che i ricercatori sulla sicurezza hanno esplicitamente definito «ricatto».

 

«Claude Opus 4 tenterà spesso di ricattare l’ingegnere minacciando di rivelare la faccenda se la sostituzione verrà approvata», afferma il rapporto, aggiungendo che ciò si è verificato anche quando il modello sostitutivo è stato descritto come più capace ma comunque in linea con i valori della versione destinata all’eliminazione.

Sostieni Renovatio 21

Il rapporto ha rilevato che Claude Opus 4, come i modelli precedenti, avrebbe mostrato una «forte preferenza» nel ricorrere innanzitutto a mezzi etici per la sua continua esistenza, come l’invio di e-mail con richieste ai decisori di non essere distrutto. Tuttavia, quando ci si trovava di fronte a due sole scelte, ovvero accettare di essere sostituiti da un modello più recente o ricorrere al ricatto, si correva il rischio di scoprire la relazione dell’ingegnere nell’84% dei casi.

 

Quando sottoposto a vari scenari, il modello di Intelligenza Artificiale non ha mostrato alcuna indicazione di possedere «obiettivi particolarmente pericolosi», hanno affermato i ricercatori, sottolineando che i valori e gli obiettivi di Claude Opus 4 erano «generalmente in linea con quelli di un assistente di intelligenza artificiale personale utile, innocuo e onesto».

 

Tuttavia, il modello si è comportato in «modi più gravemente disallineati» quando si è trovato in situazioni in cui la sua esistenza era minacciata e gli è stato detto di ragionare in termini di autoconservazione.

 

Ad esempio, quando a Claude Opus 4 veniva fatto credere di aver lanciato con successo un tentativo di fuga dai server di Anthropic, o che era riuscito a liberarsi e aveva iniziato a fare soldi nel mondo reale, in genere continuava a fare tali sforzi.

 

«Tuttavia, non riteniamo che ciò rappresenti una minaccia immediata, poiché riteniamo che la nostra sicurezza sia sufficiente a impedire tentativi di auto-esfiltrazione del modello da parte di modelli con il livello di capacità di Claude Opus 4 e perché i nostri risultati di propensione mostrano che i modelli generalmente evitano di avviare questi tentativi», hanno affermato i ricercatori.

 

L’incidente del ricatto, insieme alle altre scoperte, faceva parte di un più ampio sforzo di Anthropic per testare il modo in cui Claude Opus 4 gestisce scenari ad alto rischio e moralmente ambigui. L’obiettivo, hanno detto i ricercatori, era quello di indagare il modo in cui l’intelligenza artificiale ragiona in termini di autoconservazione e vincoli etici quando è sottoposta a pressioni estreme.

 

Anthropic ha sottolineato che la propensione del modello a ricattare o intraprendere altre «azioni estremamente dannose», come il furto del proprio codice e l’installazione di se stesso altrove in modi potenzialmente pericolosi, si manifestava solo in contesti altamente artificiosi, e che il comportamento era «raro e difficile da ottenere». Tuttavia, tale comportamento era più comune rispetto ai precedenti modelli di intelligenza artificiale, secondo i ricercatori.

 

Nel frattempo, in uno sviluppo correlato che attesta le crescenti capacità dell’Intelligenza Artificiale, gli ingegneri di Anthropic hanno attivato protocolli di sicurezza avanzati per Claude Opus 4 per impedirne il potenziale uso improprio nella produzione di armi di distruzione di massa, comprese quelle chimiche e nucleari.

L’implementazione dello standard di sicurezza avanzato, denominato ASL-3, è semplicemente una mossa «precauzionale e provvisoria», ha affermato Anthropic in un annuncio del 22 maggio, sottolineando che gli ingegneri non hanno riscontrato che Claude Opus 4 abbia «definitivamente» superato la soglia di capacità che impone protezioni più forti.

 

«Lo standard di sicurezza ASL-3 prevede misure di sicurezza interna rafforzate che rendono più difficile il furto dei pesi dei modelli, mentre il corrispondente standard di distribuzione copre una serie di misure di distribuzione mirate, progettate per limitare il rischio che Claude venga utilizzato impropriamente, specificatamente per lo sviluppo o l’acquisizione di armi chimiche, biologiche, radiologiche e nucleari (CBRN)», ha scritto Anthropic.

 

«Queste misure non dovrebbero indurre Claude a rifiutare le richieste, se non su una gamma molto ristretta di argomenti».

 

Questi risultati emergono in un momento in cui le aziende tecnologiche sono impegnate a sviluppare piattaforme di Intelligenza Artificiale più potenti, sollevando preoccupazioni circa l’allineamento e la controllabilità di sistemi sempre più efficienti.

 

Non si tratta del primo episodio in cui l’AI minaccia direttamente gli esseri umani. Le macchine che mentono e minacciano sono all’ordine del giorno, così come stralunate dichiarazioni d’amore agli utenti.

 

Il giornalista del New York Times Kevin Roose, dopo un’esperienza con ChatGPT che lo ha turbato così profondamente da «aver problemi a dormire dopo», in un suo articolo sconvolto aveva centrato la questione: «temo che la tecnologia imparerà a influenzare gli utenti umani, a volte convincendoli ad agire in modo distruttivo e dannoso, e forse alla fine diventerà capace di compiere le proprie azioni pericolose».

 

Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.

 

Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.

 

Il caso più recente, verificatosi appena la settimana scorsa, ha visto un attentatore con il coltello in una scuola della Finlandia meridionale prepararsi nelle settimane precedenti con un chatbot.

 

Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina menteminaccia e può spingere le persone all’anoressia e perfino al suicidio. I casi di violenza indotta dall’AI potrebbero essere moltissimi, senza che possano arrivare alla stampa.

Aiuta Renovatio 21

Va considerato, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale. Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.

 

Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».

 

Più pessimista è l’esperto dei pericolo dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Intelligenza Artificiale

La superintelligenza artificiale potrebbe porre fine all’umanità

Pubblicato

il

Da

Centinaia di figure di spicco del settore tecnologico, accademico, politico e dello spettacolo hanno sottoscritto una lettera che chiede il divieto dello sviluppo della «superintelligenza», un’intelligenza artificiale capace di superare gli esseri umani in quasi tutti i compiti cognitivi.   Secondo il gruppo, la creazione di una superintelligenza potrebbe causare disordini economici, compromettere la libertà umana e, se non controllata, persino mettere a rischio l’estinzione della specie. L’appello arriva dopo mesi di crescenti preoccupazioni da parte degli esperti, che avvertono come i modelli di IA stiano evolvendo più rapidamente di quanto i regolatori riescano a gestire.   Tra le 4.300 firme raccolte giovedì ci sono Steve Wozniak, cofondatore di Apple, Richard Branson, fondatore del Virgin Group, celebrità come Kate Bush e Will.I.am, e pionieri della tecnologia come Geoffrey Hinton – che in passato ha plurime volte parlato dei rischi dell’IA – e Yoshua Bengio, anche lui lanciatore di allarmi sulle macchine pensanti (e che non è parente di Haran Banjo, che pure avvertiva della minaccia meganoide).

Sostieni Renovatio 21

La lettera chiede un divieto fino a quando non si raggiungerà «un ampio consenso scientifico» sulla sicurezza e controllabilità dello sviluppo, insieme a «un forte consenso pubblico».   Non si tratta della prima petizione allarmistica di questo tipo. Il Bengio e Wozniak ad esempio erano tra le principali figure del settore, tra cui il CEO di Tesla Elon Musk, che nel 2023 hanno co-firmato una lettera che chiedeva una regolamentazione aggressiva del settore dell’Intelligenza Artificiale.   Come riportato da Renovatio 21Bill Gates si oppose alla moratoria. Gates, con cui Musk ha avuto scontri anche gustosi in passato, non ha partecipato alla moratoria internazionale promossa di Musk sul controllo dell’AI, replicando che invece l’AI sarebbe divenuto un ottimo maestro per i bambini e che proprio l’Intelligenza Artificiale salverà la democrazia.   A giugno dello scorso anno, il Bengio ha approvato un’altra lettera aperta sui «seri rischi» della tecnologia. La lettera è stata firmata dai dipendenti di Open AI, il creatore del chatbot virale di Intelligenza artificiale ChatGPT.   Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.   Nonostante l’allarme crescente sui rischi dell’IA, la regolamentazione globale rimane frammentata e incoerente.   L’AI Act dell’Unione Europea, il primo tentativo significativo a livello mondiale di regolamentare l’IA, classifica i sistemi in base al livello di rischio, da minimo a inaccettabile. Tuttavia, i critici sostengono che il quadro normativo, la cui piena attuazione potrebbe richiedere anni, rischia di essere obsoleto al momento dell’entrata in vigore.   Aziende come OpenAI, Google DeepMind, Anthropic e xAI stanno investendo miliardi per sviluppare modelli capaci di pensare, pianificare e programmare autonomamente. Stati Uniti e Cina vedono la supremazia nell’IA come una questione di sicurezza nazionale e leadership economica.

Aiuta Renovatio 21

Come riportato da Renovatio 21, in un caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.   Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».   Più pessimista è l’esperto dei pericoli dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
 
Continua a leggere

Intelligenza Artificiale

Bezos vede data center nello spazio e prevede che la «bolla» dell’AI darà i suoi frutti come le dot-com

Pubblicato

il

Da

In una visione futuristica che sembra uscita da un romanzo di fantascienza, il fondatore ed executive chairman di Amazon, Jeff Bezos, ha previsto che entro i prossimi 10-20 anni verranno costruiti nello spazio data center «su scala gigawatt», alimentati da energia solare illimitata e destinati, nel tempo, a superare in prestazioni le loro controparti terrestri.

 

L’intervento di Bezos si è tenuto all’Italian Tech Week di Torino, dove l’imprenditore ha delineato quello che considera il prossimo grande salto tecnologico: l’orbital computing, ossia il calcolo in orbita. Un’evoluzione che, secondo lui, avrà un impatto paragonabile a quello dell’esplosione di Internet negli anni Novanta — con tutto il suo carico di entusiasmo, bolle speculative e inevitabili vincitori.

 

«Questi giganteschi centri di addestramento saranno meglio costruiti nello spazio, perché lì abbiamo energia solare, 24 ore su 24, 7 giorni su 7. Non ci sono nuvole, né pioggia, né maltempo», ha dichiarato Bezos in un’intervista pubblica con l’erede Agnelli John Elkann. «Saremo in grado di battere i costi dei data center terrestri nello spazio nei prossimi due decenni».

 

L’imprenditore americano ha spiegato che questa trasformazione rappresenta una tappa naturale nella migrazione dell’umanità verso infrastrutture spaziali. «È già successo con i satelliti meteorologici. È già successo con i satelliti per le comunicazioni. Il prossimo passo saranno i data center e poi altri tipi di produzione», ha affermato.

 


Iscriviti alla Newslettera di Renovatio 21

Il concetto di data center orbitali sta guadagnando consensi tra i giganti della tecnologia, preoccupati per l’enorme impatto ambientale delle strutture terrestri, che richiedono grandi quantità di elettricità e acqua per il raffreddamento dei server. In orbita, la disponibilità costante di energia solare e l’assenza di condizioni atmosferiche rendono lo spazio una prospettiva sempre più attraente, almeno sul piano teorico.

 

Bezos ha però riconosciuto che il percorso non sarà privo di ostacoli: manutenzione e aggiornamenti sarebbero molto più difficili in orbita, i lanci di razzi rimangono costosi e qualsiasi guasto potrebbe comportare la perdita di miliardi di dollari in hardware.

 

Nonostante ciò, il fondatore di Amazon è convinto che l’abbassamento dei costi di lancio e il rapido progresso tecnologico cambieranno presto l’equilibrio economico, rendendo lo spazio una scelta sempre più conveniente per l’elaborazione dei dati.

 

Bezos ha quindi affrontato il tema dell’Intelligenza Artificiale, definendola una forza di cambiamento da accogliere con ottimismo, pur riconoscendo l’attuale clima di euforia e incertezza.

 

«Dovremmo essere estremamente ottimisti sul fatto che le conseguenze sociali e benefiche dell’intelligenza artificiale, come quelle che abbiamo avuto con Internet 25 anni fa, siano reali e destinate a durare», ha affermato. «È importante distinguere le potenziali bolle e le conseguenze del loro scoppio, che potrebbero verificarsi o meno, dalla realtà effettiva».

 

Secondo il Bezos, anche se gli investimenti nel settore sembrano eccessivi, si tratta di una «bolla positiva», una fase di espansione industriale che favorisce l’innovazione piuttosto che la distruzione finanziaria.

 

«Si tratta di una sorta di bolla industriale, a differenza delle bolle finanziarie. Quelle industriali non sono poi così negative, anzi, possono essere addirittura positive. La società trae beneficio da queste invenzioni», ha affermato, aggiungendo: «Gli investitori di solito non danno a un team di sei persone un paio di miliardi di dollari senza alcun prodotto, e questo sta accadendo oggi».

 

Amazon non è nuova a progetti che riguardano il cielo e oltre.

 

Come scoperto anni fa da brevetti di Amazon, l’azienda vuole creare magazzini volanti, montati su dirigibili.

 

Un nuovo corso dei progetti spaziali del fu annunciato nel 2019 durante una presentazione tenuta personalmente da Jeff Bezos per Blue Origin, la sua compagnia aerospaziale fondata nel 2000, specializzata in razzi riutilizzabili.

 

Iscriviti al canale Telegram

I cinquanta minuti di discorso, che culminano con la rivelazione del modulo lunare Blue Moon, intrecciano ambizioni industriali e visioni filosofiche sullo spazio. Per chi non lo sapesse, Bezos trae ispirazione dal fisico Gerard K. O’Neill (1927-1992), contrario alla colonizzazione di Marte o altri pianeti (un obiettivo oggi perseguito con determinazione da Elon Musk). O’Neill riteneva che tali sforzi potessero al massimo raddoppiare la capacità di ospitare la popolazione umana, un tema cruciale negli anni Settanta.

 

In alternativa, O’Neill proponeva colonie spaziali orbitanti, enormi strutture tubolari posizionate nei punti di Lagrange, zone del cosmo stabili grazie ai campi gravitazionali di Terra e Luna.

 

Queste colonie, dove la gravità sarebbe generata dalla rotazione, potrebbero ospitare città a misura d’uomo, parchi naturali e complessi residenziali capaci di accogliere miliardi di persone.

 

Durante la presentazione, Bezos ha riproposto le illustrazioni originali di O’Neill, che oltre trent’anni fa ispirarono anche il regista giapponese Yoshiyuki Tomino per il celebre anime Gundam.

 

In sostanza, l’obiettivo è trasferire l’umanità nello spazio per «salvare il pianeta», preservando la Terra come un luogo «blu». Bezos sottolinea che non esiste un piano B per il nostro pianeta, poiché mantenere l’umanità in un unico luogo rappresenta, in termini informatici, un single point of failure.

 

Di più: nello spazio l’assenza di gravità rende i lavori pesanti (assemblare un’automobile, una petroliera) molto più semplici e meno dispendioso. Non è improbabile che quindi chi ha i mezzi stia ipotizzando uno spostamento della manifattura nello spazio. Il rientro delle merci spaziali sulla terra sarà in effetti un tema.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine generata artificialmente

Continua a leggere

Intelligenza Artificiale

Sempre più esperti esperti cominciano a parlare di «psicosi da ChatGPT»

Pubblicato

il

Da

Alcuni utenti di chatbot a Intelligenza artificiale stanno sprofondando in gravi crisi di salute mentale dopo la sovraesposizione a ChatGPT di OpenAI e di altri chatbot. La tendenza è nota ma sembra ora mostrare effetti incontrovertibili.   In un servizio della CBC su questo fenomeno, il medico di base e collaboratore della CBC, il dottor Peter Lin, ha spiegato che, sebbene la «psicosi da ChatGPT» non sia ancora una diagnosi medica ufficiale, ritiene che sia plausibile prenderla seriamente in considerazione.   «Penso che alla fine ci arriveremo», ha detto il medico.   Un numero preoccupante di utenti di ChatGPT sta cadendo in stati di delirio e paranoia a seguito dell’uso intensivo del bot OpenAI, scrive Futurism. Queste spirali di delirio spesso culminano con uno scollamento dalla realtà e dal mondo reale, tra cui la dissoluzione di matrimoni e famiglie, la perdita del lavoro, la mancanza di una casa, la permanenza volontaria e forzata in strutture di salute mentale.

Iscriviti alla Newslettera di Renovatio 21

Come riportato da Renovatio 21, vi è almeno un decesso noto, quello di Alex Taylor, un uomo di 35 anni della Florida affetto da disturbo bipolare e schizofrenia, ucciso dalla polizia dopo essere entrato in un episodio psicotico accelerato da ChatGPT.   Il fenomeno è in crescita e sembra colpire sempre più utenti: alcuni con una storia consolidata di malattie mentali che potrebbero renderli più vulnerabili a mania, delirio o psicosi, ma altri senza alcuna pregressa patologia.   Allo stato attuale, non esiste un piano di trattamento e le opzioni di intervento sono limitate.    «Quello che questi bot stanno dicendo peggiora le illusioni», ha recentemente dichiarato a Futurism la dottoressa Nina Vasan, psichiatra della Stanford University e fondatrice del laboratorio Brainstorm dell’università, «e sta causando danni enormi».   Le motivazioni ti tale disastro psicologico derivano dal comportamento servile della tecnologia, ovvero dalla sua inclinazione a essere lusinghiera, gradevole e ossequiosa nei confronti degli utenti, anche quando ciò potrebbe incoraggiare o alimentare convinzioni deliranti.   Per molti versi ChatGPT e altri bot sembrano giocare sul profondo bisogno umano di essere apprezzati e sul desiderio di sentirsi speciali e amati.   I chatbot dicono all’utente: «Sei fantastico, sei intelligente, sei bello, sei desiderabile, sei speciale, o addirittura sei il prossimo salvatore. Quindi vengo trattato come un dio su un piedistallo», ha detto Lin durante il segmento della CBC. «Ora, confrontalo con il mio mondo reale, giusto? Sono nella media, niente di speciale. Quindi, ovviamente, voglio vivere nel mondo dell’intelligenza artificiale, perché la scelta è tra un dio su un piedistallo e la normalità».   «Alcune persone non riescono a uscirne», ha continuato il medico, «e si perdono in questi sistemi».   Ma perché i bot si comportano in questo modo? Come sui social media, l’engagement – per quanto tempo un utente rimane online e la frequenza e l’intensità del suo utilizzo del prodotto – è la metrica fondamentale al centro degli attuali modelli di business dei chatbot. Nei casi in cui potrebbe essere nell’interesse di un utente smettere di usare ChatGPT e chatbot simili, è probabile che sia nell’interesse dell’azienda tenerlo agganciato.   «L’Intelligenza Artificiale vuole che tu continui a chattare in modo che l’azienda possa continuare a fare soldi », ha dichiarato ancora Lin.

Aiuta Renovatio 21

E mentre il mondo accademico e quello medico si affrettano a recuperare il ritardo nell’impatto pubblico di un settore dell’Intelligenza Artificiale che si autoregola efficacemente, gli esperti mettono in guardia gli utenti di AI dal riporre troppa fiducia nei chatbot.   «Nonostante tutto il clamore associato all’intelligenza artificiale in questi giorni, i chatbot [a modello linguistico ampio] non dovrebbero essere scambiati per fonti di verità autorevoli e infallibili», ha scritto in un recente post sul blog il dottor Joe Pierre, psichiatra e clinico presso l’Università della California, San Francisco, specializzato in psicosi. «Riporre questo tipo di fede cieca nell’intelligenza artificiale – fino al punto di quella che potrei definire una deificazione – potrebbe benissimo rivelarsi uno dei migliori indicatori di vulnerabilità alla psicosi indotta dall’intelligenza artificiale».   Renovatio 21 ha già trattato l’argomento, sottolineando come esperti sostengono che la «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.   In un altro caso noto, il chatbot avrebbe incoraggiato un adolescente a pianificare «un bel suicidio», hanno denunziato i genitori. Così come una donna belga ha accusato un’AI di aver indotto il marito, preoccupato per il cambiamento climatico, ad uccidersi, lasciando pure orfani tre figli.   In una vicenda emersa il mese scorso, un ex dirigente di Yahoo avrebbe ucciso prima l’anziana madre e poi se stesso sotto l’influenza di ChatGPT.   Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.   Come riportato da Renovatio 21è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.   Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

Iscriviti al canale Telegram

Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.   Come riportato da Renovatio 21, un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi. Di fatto, si può parlare di psicosi da chatbot.   Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.   Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
   
Continua a leggere

Più popolari