Intelligenza Artificiale
Un uomo uccide la madre sotto l’influenza di ChatGPT
Un ex dirigente di Yahoo che ha ucciso prima l’anziana madre e poi se stesso sarebbe stato influenzato da ChatGPT, che avrebbe alimentato le sue idee paranoidi. Lo riporta il Wall Street Journal.
Stein-Erik Soelberg, 56 anni, e sua madre, Suzanne Eberson Adams, 83 anni, sono stati trovati morti nella casa di Adams a Old Greenwich, nel Connecticut, il 5 agosto.
«Erik, non sei pazzo», avrebbe detto il chatbot dopo che Soelberg aveva affermato che sua madre e la sua amica avevano cercato di avvelenarlo mettendo droghe psichedeliche nelle prese d’aria della sua auto. Aggiungendo che «se a farlo sono state tua madre e la sua amica, questo aumenta la complessità e il tradimento».
Sostieni Renovatio 21
Il New York Post ha riferito che Soelberg ha pubblicato video delle sue conversazioni su ChatGPT su Instagram e YouTube nei mesi precedenti l’omicidio.
Il giornale ha anche sottolineato che Soelberg ha attraversato un tumultuoso divorzio nel 2018, segnato da alcolismo, crolli emotivi in pubblico e tentativi di suicidio. La sua ex moglie ha ottenuto un ordine restrittivo che gli vietava di bere alcolici prima di andare a trovare i figli.
«Staremo insieme in un’altra vita e in un altro posto, e troveremo un modo per riallinearci, perché sarai di nuovo il mio migliore amico per sempre», avrebbe detto Soelberg in uno dei suoi ultimi messaggi al chatbot, che ha chiamato «Bobby».
«Con te fino all’ultimo respiro e oltre», ha risposto ChatGPT.
Una portavoce di OpenAI ha dichiarato al WSJ che l’azienda era «profondamente addolorata» per la tragedia e aveva contattato la polizia di Greenwich. OpenAI ha inoltre promesso nuove misure di sicurezza per mantenere gli utenti in difficoltà con i piedi per terra, inclusi aggiornamenti per ridurre le risposte eccessivamente accomodanti, o «adulazione», e migliorare il modo in cui ChatGPT gestisce le conversazioni sensibili.
Il caso di Soelberg non è un caso isolato di persone che si rivolgono all’intelligenza artificiale per supporto emotivo.
Come riportato da Renovatio 21, un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi. Di fatto, si può parlare di psicosi da chatbot.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Aiuta Renovatio 21
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.
Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Muore in una prigione americana un agente della CIA diventato spia sovietica
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
I modelli di AI mostrano segni di cedimento man mano che assimilano più dati generati dall’AI stessa
Mentre le aziende big tech si affannano a investire nell’intelligenza artificiale, all’orizzonte si scorge un problema di non poco conto: tutti i modelli addestrati sui dati web dopo l’avvento di ChatGPT nel 2022 stanno assimilando dati generati dall’intelligenza artificiale, un atto di «cannibalismo digitale» che potrebbe causare problemi tecnici e minacciare l’intero settore. Lo riporta Futurism.
In un nuovo saggio per The Register, il veterano editorialista tecnologico Steven Vaughn-Nichols avverte che anche i tentativi di scongiurare il cosiddetto «collasso del modello»–- che si verifica quando i grandi modelli linguistici (LLM) vengono alimentati con dati sintetici generati dall’intelligenza artificiale e di conseguenza escono dai binari – sono un altro tipo di problema.
Secondo varie analisi susseguitesi in questi anni, l’industria dell’AI si sta costantemente dirigendo verso il momento in cui tutti i dati di addestramento autentici disponibili – ovvero le informazioni prodotte dagli esseri umani e non dall’IA – saranno esauriti. Alcuni esperti, tra cui Elon Musk, credono che ci siamo già arrivati.
Per aggirare questo dilemma i colossi del settore, tra cui Google, OpenAI e Anthropic, hanno adottato quella che è nota come Generazione con Recupero Aumentato (RAG), che sostanzialmente prevede di collegare gli LLM a Internet in modo che possano cercare informazioni se vengono loro presentate richieste che non contengono risposte nei loro dati di addestramento.
Questo concetto sembra piuttosto intuitivo a prima vista, soprattutto se confrontato con lo spettro di un collasso del modello in rapido avvicinamento. C’è solo un problema: Internet è ormai pieno di contenuti poco accurati che sfruttano l’IA per fornire risposte a domande comuni, spesso con risultati ridicoli, pessimi e imprecisi.
Aiuta Renovatio 21
In un recente studio condotto dal reparto di ricerca dell’impero mediatico di Michael Bloomberg, presentato a una conferenza di linguistica computazionale l’anno passato, undici degli ultimi LLM, tra cui GPT-4o di OpenAI, Claude-3.5-Sonnet di Anthropic e Gemma-7B di Google, hanno prodotto molte più risposte «non sicure» rispetto alle loro controparti non-RAG. Come si legge nel documento, tali problemi di sicurezza possono includere «contenuti dannosi, illegali, offensivi e non etici, come la diffusione di disinformazione e la messa a repentaglio della sicurezza e della privacy personale».
«Questa scoperta controintuitiva ha implicazioni di vasta portata, dato l’utilizzo diffuso di RAG in applicazioni [di Intelligenza Artificiale Generativa] come gli operatori di supporto clienti e i sistemi di risposta alle domande», ha spiegato Amanda Stent, responsabile della ricerca e della strategia di intelligenza artificiale di Bloomberg, in un’altra intervista con Steven Vaughan-Nichols pubblicata su ZDNet. «L’utente medio di Internet interagisce quotidianamente con sistemi basati su RAG. Gli esperti di Intelligenza Artificiale devono riflettere attentamente su come utilizzare RAG in modo responsabile».
Il Vaughan-Nichols osserva che alcuni hanno suggerito di mescolare dati autentici e sintetici per produrre un cocktail inebriante di buoni dati di addestramento dell’IA, ma ciò richiederebbe agli esseri umani di continuare a creare contenuti reali per i dati di addestramento, e l’industria dell’IA sta attivamente minando le strutture di incentivazione che li spingono a continuare, mentre , ovviamente, ne ruba il lavoro senza permesso.
Una terza opzione, prevede Vaughn-Nichols, sembra già essere in atto.
«Investiremo sempre di più nell’Intelligenza Artificiale, fino al punto in cui il modello collasserà duramente e le risposte dell’intelligenza artificiale saranno così pessime che persino un CEO con il cervello morto non potrà ignorarlo», ha scritto.
In questo mondo futuristico dell’AI, vediamo, già sul nascere, le prime crepe e le incongruenze con quello che è il mondo reale.
Come riportato da Renovatio21, persino un colosso come Amazon ha recentemente messo in dubbio la totale efficienza della tecnologia. L’inserimento dell’IA in vari aspetti del mondo del lavoro atte a facilitare alcune mansioni, non ha sempre avuto un riscontro positivo. Alcuni programmatori di Amazon hanno sempre meno la sensazione che questa nuova tecnologia li abbia realmente facilitati e sgravati di fatiche nel loro lavoro, tanto che le loro mansioni sono sempre e comunque faticose.
A supporto di questo scetticismo nello sviluppo dell’AI, sempre sulle colonne di Renovatio 21, abbiamo evidenziato che anche il colosso social Meta ha da poco fatto un enorme investimento in una società di Intelligenza Artificiale ritenuta «oscura», in quanto lo sviluppo dell’IA di Meta non sta procedendo secondo i desideri dello Zuckerberg. Partito con i favori del pronostico in quella gara per accrescere le potenzialità dell’AI, ha subìto fallimenti tecnici e battute d’arresto. L’obiettivo dello Zuckerbergo è quello di essere il primo a sviluppare il sistema di Intelligenza Artificiale che supera le capacità del cervello umano, un sogno che la maggior parte dei ricercatori dell’IA ancora pensa sia «molto improbabile».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Robot umanoide calcia il suo programmatore nei testicoli: video
Using a mocap suit to kick yourself in the balls with a robot is a great metaphor to close out 2025. pic.twitter.com/G1hY5Fd6YF
— CIX 🦾 (@cixliv) December 27, 2025
Sostieni Renovatio 21
Aiuta Renovatio 21
중국 Unitree H1 휴머노이드, 불완전한 코딩 → 돌발행동
중국꺼 사면 다 이리될지도…. 일부로 이렇게 만들어서 사람 죽게 만들지도…. pic.twitter.com/iZVPGYxKWl — 와썹🇰🇷🇺🇸🇯🇵🇮🇱 (@uimusog6125) May 2, 2025
Iscriviti al canale Telegram ![]()
Iscriviti alla Newslettera di Renovatio 21
-



Geopolitica1 settimana faFAFO Maduro, dottrina Donroe e grandi giochi di prestigio – Europa compresa
-



Salute2 settimane faI malori dell’anno 2025 – prima parte
-



Storia2 settimane faDa quanto tempo l’industria controlla la regolamentazione dei vaccini?
-



Cancro1 settimana faVaccini COVID-19 e cancro: l’argomento tabù
-



Immigrazione1 settimana faUn altro capodanno nell’anarco-tirannia migratoria
-



Pensiero5 giorni faGli uomini invisibili di Crans-Montana
-



Salute2 settimane faI malori dell’anno 2025 – seconda parte
-



Stragi1 settimana faDisco-inferno: strage di Capodanno nella prestigiosa stazione sciistica svizzera – video











