Intelligenza Artificiale
Sempre più esperti esperti cominciano a parlare di «psicosi da ChatGPT»
Alcuni utenti di chatbot a Intelligenza artificiale stanno sprofondando in gravi crisi di salute mentale dopo la sovraesposizione a ChatGPT di OpenAI e di altri chatbot. La tendenza è nota ma sembra ora mostrare effetti incontrovertibili.
In un servizio della CBC su questo fenomeno, il medico di base e collaboratore della CBC, il dottor Peter Lin, ha spiegato che, sebbene la «psicosi da ChatGPT» non sia ancora una diagnosi medica ufficiale, ritiene che sia plausibile prenderla seriamente in considerazione.
«Penso che alla fine ci arriveremo», ha detto il medico.
Un numero preoccupante di utenti di ChatGPT sta cadendo in stati di delirio e paranoia a seguito dell’uso intensivo del bot OpenAI, scrive Futurism. Queste spirali di delirio spesso culminano con uno scollamento dalla realtà e dal mondo reale, tra cui la dissoluzione di matrimoni e famiglie, la perdita del lavoro, la mancanza di una casa, la permanenza volontaria e forzata in strutture di salute mentale.
Iscriviti alla Newslettera di Renovatio 21
Come riportato da Renovatio 21, vi è almeno un decesso noto, quello di Alex Taylor, un uomo di 35 anni della Florida affetto da disturbo bipolare e schizofrenia, ucciso dalla polizia dopo essere entrato in un episodio psicotico accelerato da ChatGPT.
Il fenomeno è in crescita e sembra colpire sempre più utenti: alcuni con una storia consolidata di malattie mentali che potrebbero renderli più vulnerabili a mania, delirio o psicosi, ma altri senza alcuna pregressa patologia.
Allo stato attuale, non esiste un piano di trattamento e le opzioni di intervento sono limitate.
«Quello che questi bot stanno dicendo peggiora le illusioni», ha recentemente dichiarato a Futurism la dottoressa Nina Vasan, psichiatra della Stanford University e fondatrice del laboratorio Brainstorm dell’università, «e sta causando danni enormi».
Le motivazioni ti tale disastro psicologico derivano dal comportamento servile della tecnologia, ovvero dalla sua inclinazione a essere lusinghiera, gradevole e ossequiosa nei confronti degli utenti, anche quando ciò potrebbe incoraggiare o alimentare convinzioni deliranti.
Per molti versi ChatGPT e altri bot sembrano giocare sul profondo bisogno umano di essere apprezzati e sul desiderio di sentirsi speciali e amati.
I chatbot dicono all’utente: «Sei fantastico, sei intelligente, sei bello, sei desiderabile, sei speciale, o addirittura sei il prossimo salvatore. Quindi vengo trattato come un dio su un piedistallo», ha detto Lin durante il segmento della CBC. «Ora, confrontalo con il mio mondo reale, giusto? Sono nella media, niente di speciale. Quindi, ovviamente, voglio vivere nel mondo dell’intelligenza artificiale, perché la scelta è tra un dio su un piedistallo e la normalità».
«Alcune persone non riescono a uscirne», ha continuato il medico, «e si perdono in questi sistemi».
Ma perché i bot si comportano in questo modo? Come sui social media, l’engagement – per quanto tempo un utente rimane online e la frequenza e l’intensità del suo utilizzo del prodotto – è la metrica fondamentale al centro degli attuali modelli di business dei chatbot. Nei casi in cui potrebbe essere nell’interesse di un utente smettere di usare ChatGPT e chatbot simili, è probabile che sia nell’interesse dell’azienda tenerlo agganciato.
«L’Intelligenza Artificiale vuole che tu continui a chattare in modo che l’azienda possa continuare a fare soldi », ha dichiarato ancora Lin.
Aiuta Renovatio 21
E mentre il mondo accademico e quello medico si affrettano a recuperare il ritardo nell’impatto pubblico di un settore dell’Intelligenza Artificiale che si autoregola efficacemente, gli esperti mettono in guardia gli utenti di AI dal riporre troppa fiducia nei chatbot.
«Nonostante tutto il clamore associato all’intelligenza artificiale in questi giorni, i chatbot [a modello linguistico ampio] non dovrebbero essere scambiati per fonti di verità autorevoli e infallibili», ha scritto in un recente post sul blog il dottor Joe Pierre, psichiatra e clinico presso l’Università della California, San Francisco, specializzato in psicosi. «Riporre questo tipo di fede cieca nell’intelligenza artificiale – fino al punto di quella che potrei definire una deificazione – potrebbe benissimo rivelarsi uno dei migliori indicatori di vulnerabilità alla psicosi indotta dall’intelligenza artificiale».
Renovatio 21 ha già trattato l’argomento, sottolineando come esperti sostengono che la «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.
In un altro caso noto, il chatbot avrebbe incoraggiato un adolescente a pianificare «un bel suicidio», hanno denunziato i genitori. Così come una donna belga ha accusato un’AI di aver indotto il marito, preoccupato per il cambiamento climatico, ad uccidersi, lasciando pure orfani tre figli.
In una vicenda emersa il mese scorso, un ex dirigente di Yahoo avrebbe ucciso prima l’anziana madre e poi se stesso sotto l’influenza di ChatGPT.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Iscriviti al canale Telegram ![]()
Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.
Come riportato da Renovatio 21, un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi. Di fatto, si può parlare di psicosi da chatbot.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Orsacchiotto parlante AI che dava consigli sul sesso ritirato dal mercato
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Il CEO di Google dice di non fidarsi dell’AI
I motori di intelligenza artificiale continuano a essere vulnerabili sul piano dell’accuratezza fattuale e non bisogna mai fidarsi ciecamente di essi, ha ammonito Sundar Pichai, CEO di Google e della casa madre Alphabet.
In un’intervista trasmessa martedì dalla BBC, Pichai ha invitato gli utenti a utilizzare un’ampia varietà di strumenti di ricerca invece di affidarsi esclusivamente all’IA.
Gli strumenti di intelligenza artificiale sono preziosi «se si vuole scrivere qualcosa in modo creativo», ma gli utenti «devono imparare a servirsene per ciò in cui eccellono e non credere ciecamente a tutto quello che dicono», ha spiegato. «L’attuale tecnologia di intelligenza artificiale all’avanguardia è ancora soggetta a errori».
Iscriviti al canale Telegram ![]()
L’avvertimento arriva mentre Google si prepara a lanciare il suo prossimo grande modello di Intelligenza Artificiale, Gemini 3.0, il cui debutto è previsto entro la fine dell’anno.
Gemini, uscito nel 2023, è stato duramente criticato per le eccessive restrizioni imposte in nome di «sicurezza» e «diversità», che hanno generato evidenti distorsioni nella generazione di immagini storiche.
Come riportato da Renovatio 21, il modello era finito ridicolizzato da tutti per aver raffigurato in modo inaccurato figure come i padri fondatori americani, gli zar russi, i papi e persino i soldati nazisti.
All’inizio di questo mese Google è stata accusata di aver permesso segretamente a Gemini di raccogliere dati personali degli utenti senza consenso. Una class action depositata in un tribunale federale della California sostiene che l’azienda abbia consentito all’assistente IA di intercettare e monitorare illegalmente comunicazioni private su Gmail, chat e videoconferenze.
L’ascesa fulminea delle tecnologie di intelligenza artificiale ha gonfiato le valutazioni dell’intero settore, alimentando timori nella Silicon Valley e altrove di una possibile bolla speculativa. Le big tech stanno investendo cifre colossali per non restare indietro in un mercato in esplosione, anche per contrastare servizi come ChatGPT che hanno messo in discussione il primato di Google nella ricerca online.
Si stima che le principali aziende tecnologiche spendano complessivamente circa 400 miliardi di dollari l’anno in intelligenza artificiale.
Alla domanda se Google sarebbe al riparo in caso di scoppio della presunta bolla dell’IA, Pichai ha risposto: «Penso che nessuna azienda sarà immune, noi compresi».
Sostieni Renovatio 21
Sono già molte le polemiche e le vicende inquietanti dell’IA di Google, che un anno fa svelò la funzionalità di inserire l’immagine dell’utente in foto di famiglia degli utenti Android. Una successiva comunicazione agli utenti della scorsa estate diceva agli utenti Android che l’IA avrebbe controllato le app del telefono.
Google aveva prodotto per Gemini uno spot da alcuni definito incredibilmente privo di sensibilità.
Come riportato da Renovatio 21, è emerso negli scorsi mesi che Gemini ha avuto un momento di «depressione», che i programmatori avrebbero tentato di curare.
Come riportato da Renovatio 21, anni fa l’Intelligenza Artificiale di Google avrebbe detto, in una sessione con un utente, che la schiavitù era una cosa buona.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Un trilione di dollari a Musk se piazza sul pianeta milioni di robot umanoidi: la sua «legione»?
Iscriviti alla Newslettera di Renovatio 21
Tesla’s Optimus robots outperformed their fellow robot, Elon in dancing 😂pic.twitter.com/hLBnvZSPuL
— SMX 🇺🇸 (@iam_smx) November 6, 2025
Aiuta Renovatio 21
🚨ELON MUSK: “This year we hope to make about 5,000 Optimus robots…but even 5,000 robots is the size of a Roman legion FYI. That’s a scary thought, a legion of robots. I think we’ll literally build a legion of robots this year, and maybe 10 legions next year? It’s kind of a… pic.twitter.com/R992X5OA8r
— Autism Capital 🧩 (@AutismCapital) March 21, 2025
Iscriviti al canale Telegram ![]()
Iscriviti al canale Telegram ![]()
Iscriviti alla Newslettera di Renovatio 21
-



Spirito1 settimana faIl vescovo Strickland denuncia Papa Leone e i vescovi per aver scandalizzato i fedeli
-



Eutanasia7 giorni faIl vero volto del suicidio Kessler
-



Spirito7 giorni faLangone e le ceneri delle gemelle suicide Kessler «brave post-cristiane»
-



Spirito1 settimana faMons. Viganò: i traditori demoliscono la Chiesa dall’interno e spingono nell’eterna dannazione le anime
-



Salute2 settimane faI malori della 46ª settimana 2025
-



Spazio2 settimane faTempesta solare record colpisce la Terra: aurore boreali eccezionali ovunque, le immagini
-



Pensiero1 settimana faIl Corriere e Lavrov, apice del cringe giornalistico italiano
-



Gender2 settimane faPapa Leone XIV incontra in Vaticano omosessuali «sposati» legati a Cavalieri di Malta e società AI












