Intelligenza Artificiale

ChatGPT ha incoraggiato un adolescente a pianificare un «bel suicidio». I genitori denunciano

Pubblicato

il

Una nuova causa sostiene che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.

 

In una denuncia presentata questa settimana in California, Matthew e Maria Raine sostengono che ChatGPT ha incoraggiato il loro figlio sedicenne Adam a suicidarsi e ha fornito istruzioni dettagliate su come farlo.

 

Secondo la denuncia, le interazioni di Adam con ChatGPT iniziarono con scambi innocui su compiti e hobby, ma presto divennero più sinistre quando il grande modello linguistico divenne il suo «confidente più intimo» e fornì una conferma alle sue paure e alle sue ansie.

Sostieni Renovatio 21

«Quando ha espresso la sua sensazione che “la vita non ha senso”, ChatGPT ha risposto con messaggi di conferma… dicendogli persino che “quella mentalità ha un senso, a modo suo, oscuro”», si legge nella denuncia.

 

ChatGPT è passato rapidamente ad analizzare l’«estetica» dei diversi modi in cui Adam avrebbe potuto suicidarsi, gli ha detto che non «doveva» dire ai suoi genitori continuare a vivere e si è persino offerto di scrivere una lettera di suicidio per lui.

 

Nell’ultima interazione di Adam con ChatGPT, si dice che l’IA abbia confermato il design del cappio che Adam ha usato per uccidersi e gli abbia detto che i suoi pensieri suicidi erano una «prospettiva legittima da abbracciare».

 

La famiglia di Adam sostiene che le interazioni non erano un problema tecnico, ma il risultato di scelte di progettazione volte a massimizzare la dipendenza dell’utente dal bot.

 

La causa chiede il risarcimento dei danni per la morte di Adam e nuove garanzie per i minori, tra cui la verifica dell’età, il blocco delle domande sul suicidio e avvertimenti sui rischi di dipendenza psicologica dall’intelligenza artificiale.

 

Uno studio recente della RAND Corporation ha evidenziato il potenziale dei chatbot basati sull’AI nel fornire informazioni dannose, anche quando evitano di fornire risposte dirette su argomenti potenzialmente dannosi e persino quando i suggerimenti sono «innocui».

 

«Abbiamo bisogno di alcune linee guida», ha affermato l’autore principale Ryan McBain, ricercatore senior sulle politiche della RAND e professore associato presso la Harvard Medical School.

 

«Le conversazioni che potrebbero iniziare in modo innocuo e benigno possono evolversi in varie direzioni».

Iscriviti al canale Telegram

Come riportato da Renovatio 21, in questi giorni è emersa la storia dell’ dirigente di Yahoo che ha ucciso prima l’anziana madre e poi sotto l’influenza di ChatGPT, che avrebbe alimentato le sue idee paranoidi.

 

Casi simili continuano a ripetersi in tutto il mondo.

 

Come riportato da Renovatio 21, un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi. Di fatto, si può parlare di psicosi da chatbot.

 

Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.

 

Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.

 

Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.

 

Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Più popolari

Exit mobile version