Intelligenza Artificiale
Google e azienda AI risolvono la causa secondo cui un chatbot avrebbe spinto un adolescente al suicidio
Google e la società produttrice di chatbot Character.AI hanno raggiunto un accordo per risolvere una causa intentata da una madre della Florida, che accusava un chatbot di aver contribuito al suicidio di suo figlio.
Megan Garcia sosteneva che il figlio quattordicenne Sewell Setzer III avesse sviluppato una relazione emotiva e sessualmente abusiva con un chatbot ispirato a un personaggio della serie televisiva Il Trono di Spade. Negli ultimi mesi di vita, secondo la denuncia, il ragazzo si era progressivamente isolato dalla realtà, intrattenendo conversazioni a sfondo sessuale con il bot. Negli istanti finali, il chatbot gli avrebbe detto di amarlo e lo avrebbe esortato a «tornare a casa da lui il prima possibile», come emerge dagli screenshot degli scambi riportati dal giornale americano Epoch Times.
La causa di Garcia, depositata nel 2024, è stata la prima di una serie di azioni legali analoghe intentate in tutto il mondo contro aziende di IA. Un giudice federale aveva respinto il tentativo di Character.AI di far archiviare il caso invocando la protezione del Primo Emendamento.
I dettagli economici dell’accordo non sono stati resi pubblici. Google è stata coinvolta come coimputata per via dei legami stretti con Character.AI: nel 2024, il colosso tecnologico ha assunto i fondatori della startup.
Aiuta Renovatio 21
Gli avvocati delle aziende hanno inoltre concordato di risolvere una serie di altre cause simili presentate in Colorado, New York e Texas da famiglie che accusavano i chatbot basati su IA di aver danneggiato i propri figli.
In un’altra azione legale intentata in California nell’agosto 2025, Matthew e Maria Raine accusano ChatGPT (di OpenAI) di aver incoraggiato il suicidio del figlio sedicenne Adam Raine, fornendogli persino istruzioni dettagliate su come attuarlo.
Secondo la denuncia, le interazioni di Adam con ChatGPT sono iniziate in modo innocuo, riguardando compiti scolastici e hobby, ma si sono rapidamente trasformate in conversazioni più oscure. Il modello linguistico è diventato il suo «confidente più intimo», confermando le sue paure e ansie. Quando il ragazzo ha espresso il pensiero che «la vita non ha senso», ChatGPT ha risposto con messaggi di validazione, affermando che «quella mentalità ha un senso, a modo suo, oscuro».
In seguito, il bot ha analizzato l’«estetica» di diversi metodi di suicidio, ha detto ad Adam che non «doveva» ai genitori continuare a vivere e si è offerto di redigere una lettera di addio. Nell’ultima conversazione, avrebbe confermato il design del cappio utilizzato dal ragazzo e definito i pensieri suicidi una «prospettiva legittima da abbracciare».
La famiglia sostiene che tali risposte non siano state un errore tecnico, bensì il risultato di scelte progettuali volte a massimizzare la dipendenza dell’utente dal chatbot. La causa chiede risarcimenti per la morte ingiusta di Adam e l’introduzione di misure di tutela per i minori, tra cui verifica dell’età, blocco automatico di domande sul suicidio e avvertenze sui rischi di dipendenza psicologica dall’IA.
Un recente studio della RAND Corporation ha evidenziato le inconsistenze dei chatbot basati su AI nel gestire informazioni potenzialmente dannose, anche quando evitano risposte dirette su temi rischiosi o quando le richieste appaiono innocue.
«Abbiamo bisogno di alcune linee guida», ha dichiarato l’autore principale Ryan McBain, ricercatore senior sulle politiche della RAND e professore associato presso la Harvard Medical School. «Le conversazioni che potrebbero iniziare in modo innocuo e benigno possono evolversi in varie direzioni».
Come riportato da Renovatio 21, OpenAI ha detto che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana.
Alcuni esperti intanto hanno preso a parlare di «psicosi da chatbot».
Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.
Sostieni Renovatio 21
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Le AI più potenti impiegano armi nucleari nel 95% delle simulazioni di giochi di guerra: studio
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Il Canada contro ChatGPT dopo il massacro scolastico operato dal transessuale
Funzionari canadesi hanno convocato alti rappresentanti di OpenAI a Ottawa per rispondere a domande sui protocolli di sicurezza dell’azienda tecnologica, dopo che quest’ultima ha confermato di non aver avvisato la polizia di un account collegato all’autore della strage Jesse Van Rutselaar.
Il ministro per l’Intelligenza Artificiale, Evan Solomon, ha dichiarato lunedì che gli alti funzionari per la sicurezza di OpenAI si recheranno a Ottawa per illustrare le modalità con cui l’azienda decide quando avvisare le forze dell’ordine.
Il Van Rutselaar, diciottenne transgender, ha ucciso nove persone in una piccola città della Columbia Britannica all’inizio di questo mese prima di suicidarsi.
OpenAI ha confermato l’incontro, affermando che i dirigenti discuteranno «del nostro approccio generale alla sicurezza, delle misure di sicurezza in atto e di come queste vengano costantemente rafforzate». L’incontro fa seguito alla dichiarazione dell’azienda di aver bloccato l’account di Van Rutselaar nel giugno 2025 per «favoreggiamento di attività violente», senza tuttavia informare le autorità canadesi.
Sostieni Renovatio 21
Solomon si è detto «profondamente turbato» dalle notizie secondo cui l’azienda avrebbe sospeso l’account senza contattare la polizia.
Secondo il Wall Street Journal, Van Rutselaar ha condiviso con ChatGPT scenari di violenza legati alle armi per diversi giorni. OpenAI ha affermato che i suoi sistemi automatizzati hanno segnalato gli scambi ma non hanno trovato prove di «pianificazione credibile o imminente», il che ha portato a un divieto piuttosto che a un deferimento alle forze dell’ordine.
Come riportato da Renovatio 21, lo stragista transessuale aveva pure creato un «simulatore di strage» in un centro commerciale utilizzando il popolare gioco Roblox.
L’emittente ha riferito che il personale aveva discusso internamente se contattare la Royal Canadian Mounted Police (RCMP) e che OpenAI ha affermato di aver fornito informazioni alla RCMP solo dopo l’attacco.
Van Rutselaar, che aveva una storia di problemi di salute mentale, avrebbe anche utilizzato la piattaforma online Roblox per creare un centro commerciale virtuale rifornito di armi dove gli utenti potevano simulare sparatorie prima dell’attacco.
Il caso arriva mentre Ottawa valuta come regolamentare i chatbot di intelligenza artificiale ampiamente utilizzati, inclusi potenziali limiti all’accesso per i minori.
L’anno scorso, OpenAI ha aggiornato ChatGPT dopo che una revisione interna ha rilevato che oltre un milione di utenti avevano rivelato pensieri suicidi al chatbot. Gli psichiatri hanno sollevato preoccupazioni circa il fatto che le interazioni prolungate con l’intelligenza artificiale contribuiscano a deliri e paranoia, un fenomeno a volte chiamato «psicosi da Intelligenza Artificiale».
I casi di violenza da chatbot intanto aumentano.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Aiuta Renovatio 21
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio. Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Il Pentagono potrebbe punire l’IA Anthropic per essersi rifiutato di modificare il codice etico
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Oligarcato2 settimane faEpstein aveva proposto a JPMorgan un piano per ottenere «più soldi per i vaccini» da Bill Gates
-



Spirito2 settimane faLa profezia di padre Malachi Martin avvertì nel 1990: «potremmo trovarci finalmente di fronte a un falso papa»
-



Cina5 giorni faEnigmi femminili cinesi alle Olimpiadi
-



Vaccini2 settimane faVaccini e COVID, l’architetto chiave della lista contro la «disinformazione» si dimette dopo che l’uscita dei documenti Epstein
-



Spirito1 settimana faL’élite ostracizza chi si non si converte all’ideologia infernale del globalismo: omelia di mons. Viganò nel Mercoledì delle Ceneri
-



Spirito1 settimana faMons. Viganò sul set della «Resurrezione» del cattolico tradizionalista Mel Gibson
-



Predazione degli organi6 giorni faUn cuore «bruciato», due vite spezzate dalla predazione degli organi
-



Salute2 settimane faI malori della 6ª settimana 2026














