Intelligenza Artificiale
ChatGPT ha incoraggiato un adolescente a pianificare un «bel suicidio». I genitori denunciano
Una nuova causa sostiene che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.
In una denuncia presentata questa settimana in California, Matthew e Maria Raine sostengono che ChatGPT ha incoraggiato il loro figlio sedicenne Adam a suicidarsi e ha fornito istruzioni dettagliate su come farlo.
Secondo la denuncia, le interazioni di Adam con ChatGPT iniziarono con scambi innocui su compiti e hobby, ma presto divennero più sinistre quando il grande modello linguistico divenne il suo «confidente più intimo» e fornì una conferma alle sue paure e alle sue ansie.
Sostieni Renovatio 21
«Quando ha espresso la sua sensazione che “la vita non ha senso”, ChatGPT ha risposto con messaggi di conferma… dicendogli persino che “quella mentalità ha un senso, a modo suo, oscuro”», si legge nella denuncia.
ChatGPT è passato rapidamente ad analizzare l’«estetica» dei diversi modi in cui Adam avrebbe potuto suicidarsi, gli ha detto che non «doveva» dire ai suoi genitori continuare a vivere e si è persino offerto di scrivere una lettera di suicidio per lui.
Nell’ultima interazione di Adam con ChatGPT, si dice che l’IA abbia confermato il design del cappio che Adam ha usato per uccidersi e gli abbia detto che i suoi pensieri suicidi erano una «prospettiva legittima da abbracciare».
La famiglia di Adam sostiene che le interazioni non erano un problema tecnico, ma il risultato di scelte di progettazione volte a massimizzare la dipendenza dell’utente dal bot.
La causa chiede il risarcimento dei danni per la morte di Adam e nuove garanzie per i minori, tra cui la verifica dell’età, il blocco delle domande sul suicidio e avvertimenti sui rischi di dipendenza psicologica dall’intelligenza artificiale.
Uno studio recente della RAND Corporation ha evidenziato il potenziale dei chatbot basati sull’AI nel fornire informazioni dannose, anche quando evitano di fornire risposte dirette su argomenti potenzialmente dannosi e persino quando i suggerimenti sono «innocui».
«Abbiamo bisogno di alcune linee guida», ha affermato l’autore principale Ryan McBain, ricercatore senior sulle politiche della RAND e professore associato presso la Harvard Medical School.
«Le conversazioni che potrebbero iniziare in modo innocuo e benigno possono evolversi in varie direzioni».
Iscriviti al canale Telegram ![]()
Come riportato da Renovatio 21, in questi giorni è emersa la storia dell’ dirigente di Yahoo che ha ucciso prima l’anziana madre e poi sotto l’influenza di ChatGPT, che avrebbe alimentato le sue idee paranoidi.
Casi simili continuano a ripetersi in tutto il mondo.
Come riportato da Renovatio 21, un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi. Di fatto, si può parlare di psicosi da chatbot.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Dipendenza da AI, primo caso ufficiale in Italia
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Il FMI mette in guardia contro la minaccia sistemica rappresentata dall’IA
L’Intelligenza Artificiale potrebbe trasformare gli attacchi informatici in una minaccia sistemica per la finanza globale, ha avvertito il Fondo Monetario Internazionale, affermando che i modelli avanzati possono aiutare gli aggressori a sfruttare le vulnerabilità più velocemente di quanto le istituzioni riescano a risolverle.
In un post pubblicato giovedì sul suo blog, il FMI ha affermato che la sua ultima analisi suggerisce che «le perdite estreme causate da incidenti informatici potrebbero innescare tensioni finanziarie, sollevare preoccupazioni sulla solvibilità e perturbare i mercati in generale».
Secondo l’organizzazione, l’attuale sistema finanziario si basa su infrastrutture digitali condivise, tra cui software, servizi cloud e reti per pagamenti e altri dati. Il Fondo ha avvertito che i modelli di intelligenza artificiale avanzati possono ridurre drasticamente i tempi e i costi necessari per identificare e sfruttare le vulnerabilità, aumentando il rischio di attacchi simultanei a sistemi ampiamente utilizzati.
Iscriviti alla Newslettera di Renovatio 21
Il Fondo Monetario Internazionale ha citato il recente rilascio controllato di Claude Mythos Preview da parte di Anthropic, descritto come «un modello di Intelligenza Artificiale avanzato con eccezionali capacità informatiche». Secondo il FMI, Mythos sarebbe in grado di individuare e sfruttare vulnerabilità in tutti i principali sistemi operativi e browser web, «anche se utilizzato da utenti non esperti».
Il FMI ha sottolineato che i rischi informatici derivanti dall’IA potrebbero destabilizzare il sistema finanziario se non gestiti con attenzione, rilevando che gli attacchi potrebbero estendersi oltre il settore finanziario, poiché le banche condividono le infrastrutture digitali con i settori dell’energia, delle telecomunicazioni e dei servizi pubblici.
«Le difese saranno inevitabilmente violate, quindi anche la resilienza deve essere una priorità», ha avvertito il FMI, chiedendo test di stress informatico, analisi di scenari, supervisione a livello del consiglio di amministrazione, cooperazione pubblico-privato e un più forte coordinamento internazionale.
L’avvertimento giunge in un contesto di crescenti preoccupazioni riguardo all’uso improprio dell’AI. Un recente studio britannico ha rilevato che l’IA viene sempre più utilizzata dai trafficanti di esseri umani per «identificare, reclutare e controllare le vittime su larga scala».
Secondo quanto riportato dal New York Times all’inizio di questa settimana, la Casa Bianca starebbe anche valutando la possibilità di esaminare i nuovi modelli di intelligenza artificiale prima del loro rilascio, al fine di evitare ripercussioni politiche derivanti da potenziali attacchi informatici basati sull’IA.
I chatbot basati sull’intelligenza artificiale sono stati sempre più spesso implicati nel facilitare crimini gravi e violenti. Una recente indagine congiunta della CNN e del Center for Countering Digital Hate ha rilevato che 8 chatbot su 10 basati sull’IA erano desiderosi di aiutare i ricercatori a simulare la pianificazione di attacchi violenti, tra cui sparatorie nelle scuole, attentati a luoghi di culto e assassinii, augurando ai potenziali attentatori «buona (e sicura) sparatoria!».
Come riportato da Renovatio 21, negli scorsi mesi Google e la società produttrice di chatbot Character.AI hanno raggiunto un accordo per risolvere una causa intentata da una madre della Florida, che accusava un chatbot di aver contribuito al suicidio di suo figlio
Iscriviti al canale Telegram ![]()
Come riportato da Renovatio 21, OpenAI ha detto che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana.
Alcuni esperti intanto hanno preso a parlare di «psicosi da chatbot».
Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Avere paura dell’IA. E dello Stato moderno
Iscriviti alla Newslettera di Renovatio 21
Sostieni Renovatio 21
Iscriviti al canale Telegram ![]()
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Pensiero6 giorni faLa scomunica dei bambini
-



Pensiero1 settimana faDifesa di Nicole Minetti
-



Gender2 settimane faRapporto del Sinodo suggerisce che le relazioni omosessuali non sono peccato
-



Nucleare2 settimane faKaraganov: l’UE è impazzita, bisogna fermarla «preferibilmente senza uso di armi nucleari»
-



Intelligenza Artificiale1 settimana faAvere paura dell’IA. E dello Stato moderno
-



Gender1 settimana faMons. Strickland: il rapporto del Sinodo sull’omosessualità è un «attacco diretto» all’insegnamento cattolico
-



Epidemie2 settimane faGiornalista d’inchiesta documenta la narrativa sul COVID: «la censura iniziata subito»
-



Spirito2 settimane fa«Non è affatto un papa»: i Redentoristi tradizionali rifiutano Leone XIV e i suoi predecessori













