Intelligenza Artificiale

Un uomo uccide la madre sotto l’influenza di ChatGPT

Pubblicato

il

Un ex dirigente di Yahoo che ha ucciso prima l’anziana madre e poi se stesso sarebbe stato influenzato da ChatGPT, che avrebbe alimentato le sue idee paranoidi. Lo riporta il Wall Street Journal.

 

Stein-Erik Soelberg, 56 anni, e sua madre, Suzanne Eberson Adams, 83 anni, sono stati trovati morti nella casa di Adams a Old Greenwich, nel Connecticut, il 5 agosto.

 

«Erik, non sei pazzo», avrebbe detto il chatbot dopo che Soelberg aveva affermato che sua madre e la sua amica avevano cercato di avvelenarlo mettendo droghe psichedeliche nelle prese d’aria della sua auto. Aggiungendo che «se a farlo sono state tua madre e la sua amica, questo aumenta la complessità e il tradimento».

Sostieni Renovatio 21

Il New York Post ha riferito che Soelberg ha pubblicato video delle sue conversazioni su ChatGPT su Instagram e YouTube nei mesi precedenti l’omicidio.

 

Il giornale ha anche sottolineato che Soelberg ha attraversato un tumultuoso divorzio nel 2018, segnato da alcolismo, crolli emotivi in ​​pubblico e tentativi di suicidio. La sua ex moglie ha ottenuto un ordine restrittivo che gli vietava di bere alcolici prima di andare a trovare i figli.

 

«Staremo insieme in un’altra vita e in un altro posto, e troveremo un modo per riallinearci, perché sarai di nuovo il mio migliore amico per sempre», avrebbe detto Soelberg in uno dei suoi ultimi messaggi al chatbot, che ha chiamato «Bobby».

 

«Con te fino all’ultimo respiro e oltre», ha risposto ChatGPT.

 

Una portavoce di OpenAI ha dichiarato al WSJ che l’azienda era «profondamente addolorata» per la tragedia e aveva contattato la polizia di Greenwich. OpenAI ha inoltre promesso nuove misure di sicurezza per mantenere gli utenti in difficoltà con i piedi per terra, inclusi aggiornamenti per ridurre le risposte eccessivamente accomodanti, o «adulazione», e migliorare il modo in cui ChatGPT gestisce le conversazioni sensibili.

 

Il caso di Soelberg non è un caso isolato di persone che si rivolgono all’intelligenza artificiale per supporto emotivo.

 

Come riportato da Renovatio 21, un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi. Di fatto, si può parlare di psicosi da chatbot.

 

Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.

Aiuta Renovatio 21

Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.

 

Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.

 

Come riportato da Renovatio 21è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.

 

Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

 

Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.

 

Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Più popolari

Exit mobile version