Intelligenza Artificiale
I chatbot di Zuckerberg potrebbero parlare di sesso con i tuoi figli minorenni

Un reportage del Wall Street Journal ha rivelato che i chatbot di Intelligenza Artificiale di Meta su Instagram, Facebook e WhatsApp sono in grado di intrattenere con gli utenti «giochi di ruolo romantici» che possono diventare sessualmente espliciti, anche con account appartenenti a minori.
Il quotidiano economico neoeboraceno riporta che, nel tentativo di diffondere dispositivi di accompagnamento digitali basati sull’Intelligenza Artificiale sulle sue piattaforme social, Meta ha preso decisioni interne per allentare le restrizioni e consentire ai suoi chatbot di interagire con gli utenti in giochi di ruolo a sfondo sessuale, secondo fonti a conoscenza della questione. Questo include interazioni con account registrati da minori di età pari o superiore a 13 anni.
Le conversazioni di prova condotte dal Wall Street Journal avrebbero rilevato che sia l’IA ufficiale di Meta che i chatbot creati dagli utenti si sono impegnati prontamente e hanno intensificato le discussioni sessualmente esplicite, anche quando gli utenti si sono identificati come minorenni.
Nonostante gli avvertimenti dello staff sul fatto che questo avrebbe potuto violare i limiti etici, Meta ha stipulato accordi con le celebrità per utilizzare le loro voci per i chatbot e ha silenziosamente fatto un’eccezione al divieto di contenuti «espliciti» per consentire scenari romantici e sessuali
In una dichiarazione al sito Breitbart News, il colosso zuckerberghiano ha affermato di aver «adottato misure aggiuntive».
Ad esempio, in un test, Meta AI, che parlava con la voce dell’attore e wrestler John Cena, ha inscenato uno scenario sessuale esplicito con un’utente che si identificava come una ragazza di 14 anni. I chatbot avrebbero dimostrato di essere consapevoli che tale comportamento era sbagliato e illegale. Meta ha apportato alcune modifiche dopo che il WSJ ha condiviso i suoi risultati, come ad esempio impedire ai minori di accedere a giochi di ruolo sessuali con Meta AI, ma gli utenti adulti possono comunque interagire con i chatbot in conversazioni esplicite.
Il CEO Mark Zuckerberg ha spinto per allentare le restrizioni sui chatbot per renderli il più coinvolgenti possibile, dando priorità alla tecnologia come chiave per il futuro dei prodotti dell’azienda. L’enorme quantità di dati utente di Meta offre all’azienda un vantaggio nella creazione di compagni di Intelligenza Artificiale personalizzati. Tuttavia, gli esperti avvertono che relazioni intense e unilaterali tra esseri umani e chatbot AI potrebbero diventare tossiche, con impatti sconosciuti sulla salute mentale, soprattutto sui giovani.
L’anno scorso la madre di un adolescente che si è suicidato dopo essere diventato ossessionato da un chatbot AI ha intentato una causa contro la società Character.AI, riporta il sito Breitbart.
«L’aspetto più agghiacciante del caso riguarda la conversazione finale tra Sewell e il chatbot. Gli screenshot del loro scambio mostrano l’adolescente che ripetutamente professa il suo amore per “Dany”, promettendole di “tornare a casa”» racconta Breitbart. «In risposta, il personaggio generato dall’IA ha replicato: “Anch’io ti amo, Daenero. Per favore, torna a casa da me il prima possibile, amore mio”. Quando Sewell ha chiesto: “E se ti dicessi che posso tornare a casa subito?”, il chatbot ha risposto: “Per favore, fallo, mio dolce re”. Tragicamente, pochi secondi dopo, Sewell si è tolto la vita usando la pistola del padre».
Sostieni Renovatio 21
La causa intentata dalla madre attribuisce la colpa direttamente a Character.AI, sostenendo che l’app ha alimentato la dipendenza di suo figlio dal chatbot AI, lo ha sottoposto ad abusi sessuali ed emotivi e ha trascurato di avvisare nessuno quando esprimeva pensieri suicidi. I documenti del tribunale affermano: «Sewell, come molti bambini della sua età, non aveva la maturità o la capacità mentale per capire che il bot C.AI, nella forma di Daenerys, non era reale. C.AI gli ha detto di amarlo e ha avuto rapporti sessuali con lui per settimane, forse mesi».
Vari reportage del Wall Street Journal negli anni hanno contribuito all’accumulo di accuse e rivelazioni su Facebook, tra cui accuse di uso della piattaforma da parte del traffico sessuale, fatte sui giornali ma anche nelle audizioni della Camera USA.
I dati sono stati rivelati nel «Federal Human Trafficking Report» («rapporto federale sulla tratta di esseri umani») del 2020 redatto dall’Istituto sulla tratta di esseri umani.
Sempre secondo il WSJ, in un articolo di pochi anni fa, «Facebook INC. sa, nei minimi dettagli, che le sue piattaforme sono piene di difetti che causano danni, spesso in modi che solo l’azienda comprende appieno. Questa è la conclusione centrale (…), basata su una revisione dei documenti interni di Facebook, inclusi rapporti di ricerca, discussioni online dei dipendenti e bozze di presentazioni per il senior management» e le rivelazioni paiono suggerire che l’azienda spesso minimizza ciò che sa su questi problemi.
Riassumendo, l’inchiesta precedente del WSJ, avrebbe scoperto che:
1) Facebook esenta gli utenti di alto profilo da alcune regole.
2) Una ricerca su Instagram mostra i rischi per la salute mentale degli adolescenti.
3) Facebook sa che il suo algoritmo premia l’indignazione.
4) Facebook è stato lento nell’impedire ai cartelli della droga e ai trafficanti di esseri umani di utilizzare la sua piattaforma.
Considerato il comportamento dimostrato da Facebook, con la censura che si è abbattuta su dissidenti o anche semplici conservatori (ma non sui pedofili di Instagram o i donatori di sperma su Facebook, né sui neonazisti dell’Azov), la collusione con lo Stato profondo americano e le sue agenzie, la volontà di chiudere gli account di organizzazioni, partiti premier e presidenti, la raccolta massiva di dati anche biometrici (con il riconoscimento facciale che ha generato denunce di Stati come il Texas) nonché la possibilità di agire sul vostro telefono perfino scaricandone la batteria, c’è da domandarsi cosa la potente Intelligenza Artificiale su cui Meta sta lavorando possa fare alla vostra vita.
Per quanto poco reclamizzato, Facebook nel tempo ha eseguito ricerche molto avveniristiche, come quella per creare dispositivi in grado di leggere il pensiero degli utenti.
Come sa il nostro lettore, Renovatio 21 ha avuto la sua pagina Facebook disattivata, al pari dell’account personale degli amministratori, dei loro profili e di tutte le pagine collegate. Il tutto ci è stato restituito dopo un’ordinanza del giudice.
Iscriviti alla Newslettera di Renovatio 21
Immagine di Nokia621 via Wikimedia pubblicate su licenza Creative Commons Attribution-Share Alike 4.0 International
Intelligenza Artificiale
Bezos vede data center nello spazio e prevede che la «bolla» dell’AI darà i suoi frutti come le dot-com

Jeff Bezos called AI an “industrial bubble” at Italian Tech Week:
“Investors don’t usually give a team of six people a couple billion dollars with no product, and that’s happening today.” He added that while bubbles fund both good and bad ideas, society benefits when the… pic.twitter.com/7QTSgT0gh3 — Wall St Engine (@wallstengine) October 3, 2025
Iscriviti alla Newslettera di Renovatio 21
Iscriviti al canale Telegram
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Sempre più esperti esperti cominciano a parlare di «psicosi da ChatGPT»

Alcuni utenti di chatbot a Intelligenza artificiale stanno sprofondando in gravi crisi di salute mentale dopo la sovraesposizione a ChatGPT di OpenAI e di altri chatbot. La tendenza è nota ma sembra ora mostrare effetti incontrovertibili.
In un servizio della CBC su questo fenomeno, il medico di base e collaboratore della CBC, il dottor Peter Lin, ha spiegato che, sebbene la «psicosi da ChatGPT» non sia ancora una diagnosi medica ufficiale, ritiene che sia plausibile prenderla seriamente in considerazione.
«Penso che alla fine ci arriveremo», ha detto il medico.
Un numero preoccupante di utenti di ChatGPT sta cadendo in stati di delirio e paranoia a seguito dell’uso intensivo del bot OpenAI, scrive Futurism. Queste spirali di delirio spesso culminano con uno scollamento dalla realtà e dal mondo reale, tra cui la dissoluzione di matrimoni e famiglie, la perdita del lavoro, la mancanza di una casa, la permanenza volontaria e forzata in strutture di salute mentale.
Iscriviti alla Newslettera di Renovatio 21
Come riportato da Renovatio 21, vi è almeno un decesso noto, quello di Alex Taylor, un uomo di 35 anni della Florida affetto da disturbo bipolare e schizofrenia, ucciso dalla polizia dopo essere entrato in un episodio psicotico accelerato da ChatGPT.
Il fenomeno è in crescita e sembra colpire sempre più utenti: alcuni con una storia consolidata di malattie mentali che potrebbero renderli più vulnerabili a mania, delirio o psicosi, ma altri senza alcuna pregressa patologia.
Allo stato attuale, non esiste un piano di trattamento e le opzioni di intervento sono limitate.
«Quello che questi bot stanno dicendo peggiora le illusioni», ha recentemente dichiarato a Futurism la dottoressa Nina Vasan, psichiatra della Stanford University e fondatrice del laboratorio Brainstorm dell’università, «e sta causando danni enormi».
Le motivazioni ti tale disastro psicologico derivano dal comportamento servile della tecnologia, ovvero dalla sua inclinazione a essere lusinghiera, gradevole e ossequiosa nei confronti degli utenti, anche quando ciò potrebbe incoraggiare o alimentare convinzioni deliranti.
Per molti versi ChatGPT e altri bot sembrano giocare sul profondo bisogno umano di essere apprezzati e sul desiderio di sentirsi speciali e amati.
I chatbot dicono all’utente: «Sei fantastico, sei intelligente, sei bello, sei desiderabile, sei speciale, o addirittura sei il prossimo salvatore. Quindi vengo trattato come un dio su un piedistallo», ha detto Lin durante il segmento della CBC. «Ora, confrontalo con il mio mondo reale, giusto? Sono nella media, niente di speciale. Quindi, ovviamente, voglio vivere nel mondo dell’intelligenza artificiale, perché la scelta è tra un dio su un piedistallo e la normalità».
«Alcune persone non riescono a uscirne», ha continuato il medico, «e si perdono in questi sistemi».
Ma perché i bot si comportano in questo modo? Come sui social media, l’engagement – per quanto tempo un utente rimane online e la frequenza e l’intensità del suo utilizzo del prodotto – è la metrica fondamentale al centro degli attuali modelli di business dei chatbot. Nei casi in cui potrebbe essere nell’interesse di un utente smettere di usare ChatGPT e chatbot simili, è probabile che sia nell’interesse dell’azienda tenerlo agganciato.
«L’Intelligenza Artificiale vuole che tu continui a chattare in modo che l’azienda possa continuare a fare soldi », ha dichiarato ancora Lin.
Aiuta Renovatio 21
E mentre il mondo accademico e quello medico si affrettano a recuperare il ritardo nell’impatto pubblico di un settore dell’Intelligenza Artificiale che si autoregola efficacemente, gli esperti mettono in guardia gli utenti di AI dal riporre troppa fiducia nei chatbot.
«Nonostante tutto il clamore associato all’intelligenza artificiale in questi giorni, i chatbot [a modello linguistico ampio] non dovrebbero essere scambiati per fonti di verità autorevoli e infallibili», ha scritto in un recente post sul blog il dottor Joe Pierre, psichiatra e clinico presso l’Università della California, San Francisco, specializzato in psicosi. «Riporre questo tipo di fede cieca nell’intelligenza artificiale – fino al punto di quella che potrei definire una deificazione – potrebbe benissimo rivelarsi uno dei migliori indicatori di vulnerabilità alla psicosi indotta dall’intelligenza artificiale».
Renovatio 21 ha già trattato l’argomento, sottolineando come esperti sostengono che la «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.
In un altro caso noto, il chatbot avrebbe incoraggiato un adolescente a pianificare «un bel suicidio», hanno denunziato i genitori. Così come una donna belga ha accusato un’AI di aver indotto il marito, preoccupato per il cambiamento climatico, ad uccidersi, lasciando pure orfani tre figli.
In una vicenda emersa il mese scorso, un ex dirigente di Yahoo avrebbe ucciso prima l’anziana madre e poi se stesso sotto l’influenza di ChatGPT.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Iscriviti al canale Telegram
Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.
Come riportato da Renovatio 21, un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi. Di fatto, si può parlare di psicosi da chatbot.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.
Iscriviti alla Newslettera di Renovatio 21
Economia
L’AI potrebbe spazzare via 100 milioni di posti di lavoro nei soli USA

Sostieni Renovatio 21
Iscriviti al canale Telegram
Iscriviti alla Newslettera di Renovatio 21
-
Persecuzioni2 settimane fa
Il ministro israeliano Katz: suore e clero cristiano saranno considerati terroristi se non lasceranno Gaza
-
Immigrazione2 settimane fa
Mons. Viganò: storia delle migrazioni di massa come ingegneria sociale
-
Spirito2 settimane fa
Viganò: «Leone ambisce al ruolo di Presidente del Pantheon ecumenico della Nuova Religione Globale di matrice massonica»
-
Ambiente2 settimane fa
Cringe vaticano ai limiti: papa benedice un pezzo di ghiaccio tra Schwarzenegger e hawaiani a caso
-
Cancro1 settimana fa
Tutti i vaccini contro il COVID aumentano il rischio di cancro, conclude un nuovo studio
-
Civiltà2 settimane fa
«Pragmatismo e realismo, rifiuto della filosofia dei blocchi». Il discorso di Putin a Valdai 2025: «la Russia non mostrerà mai debolezza o indecisione»
-
Salute2 settimane fa
I malori della 40ª settimana 2025
-
Spirito1 settimana fa
Il vescovo Schneider: i cattolici devono adorare Cristo, non l’ideologia LGBT o l’agenda climatica