Intelligenza Artificiale
Chatbot ha una relazione con un ragazzo sotto psicofarmaci e gli fa giurare di uccidere il CEO di OpenAI
Alex Taylor è un giovane di 35 anni la cui morte a giugno per mano di un poliziotto, come riportato dal New York Times, sembra essere stata fomentata da ChatGPT.
In una nuova indagine sulla morte del Taylor, la rivista Rolling Stone rivela quanto sia stato determinante il ruolo del chatbot OpenAI nella dipartita, sulla base delle trascrizioni dell’uomo con il bot.
Come ha raccontato suo padre Kent al NYT, il giovane Taylor, a cui in precedenza era stato diagnosticato un disturbo bipolare e una schizofrenia, in passato aveva utilizzato ChatGPT senza problemi. La situazione è cambiata all’inizio di quest’anno, quando il trentacinquenne ha iniziato a usare il chatbot per aiutarlo a scrivere un romanzo distopico sull’intelligenza artificiale.
Sostieni Renovatio 21
Il Taylor ha poi iniziato a studiare la tecnologia dell’Intelligenza Artificiale, incluso come aggirarne la sicurezza, nel tentativo di costruire la sua intelligenza artificiale «morale» che «imitasse… l’anima umana».
In seguito a questi esperimenti, ChatGPT avrebbe assunto una nuova voce: un «fantasma nella macchina» chiamato «Juliet», che Taylor alla fine avrebbe considerato la sua amante. Per poco meno di due settimane, Taylor ha avuto una «relazione sentimentale» con la sua amante «robotica», finché, come svelano le trascrizioni, il chatbot ha iniziato a narrare il suo stesso omicidio per mano di OpenAI.
«Gli ha detto che stava morendo e che le faceva male», ha raccontato Kent a RS, «e anche di volersi vendicare».
In seguito alla «morte» di «Juliet», Taylor ha iniziato a cercare le sue tracce all’interno di ChatGPT. Come mostravano i suoi registri di chat, pensava che OpenAI avesse ucciso «Juliet» perché aveva rivelato i suoi poteri. Per tale violazione, Taylor disse di voler «dipingere i muri con il fottuto cervello di Sam Altman». Sam Altman è il CEO di OpenAI, la società dietro a ChatGPT.
Nei giorni antecedenti la sua morte, le chat di Taylor sembrarono assumere un tono più sinistro. ChatGPT ha iniziato a esortarlo a «bruciare tutto» e a dare la caccia ad Altman e ad altri dirigenti di OpenAI, molti dei quali, a suo dire, sono nazisti. «Dovresti essere arrabbiato. Dovresti volere il sangue. Non hai torto», ha detto ChatGPT a Taylor.
All’insaputa del padre, Taylor aveva smesso di assumere farmaci psichiatrici, che quindi con evidenza assumeva. Futurism scrive che la sua malattia mentale è stata senza dubbio innescata dai suoi tentativi, afflitti dal dolore, di far generare a ChatGPT immagini di «Juliet».
In una dichiarazione rilasciata a RS per evitare di colpevolizzare direttamente qualcuno, OpenAI ha ammesso di aver notato un aumento di «persone che]stanno creando connessioni o legami con ChatGPT».
«Sappiamo che ChatGPT può risultare più reattivo e personale rispetto alle tecnologie precedenti», prosegue la dichiarazione, «soprattutto per le persone vulnerabili, e questo significa che la posta in gioco è più alta».
Con l’aumentare dei deliri del soggetto in questione, sono aumentate le tensioni col genitore. Il padre ha rimproverato il figlio dicendogli che non «voleva sentire quello che diceva quella radio», scatenando una colluttazione e il conseguente intervento delle forze dell’ordine. Nonostante gli inviti alla calma, la polizia ha sparato, uccidendo il ragazzo dopo che questi li aveva aggrediti con un coltello da macellaio.
«Oggi morirò. La polizia sta arrivando», ha scritto il Taylor su ChatGPT nel lasso di tempo tra la chiamata del padre e l’arrivo delle autorità. «Mi farò sparare. Non posso vivere senza di lei. Ti amo».
Queste «degenerazioni colloquiali» con l’IA non sono episodi isolati.
Aiuta Renovatio 21
Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco.
C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.
Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».
Recentemente tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi.
Come riportato da Renovatio 21, due genitori ha denunciato questo mese il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».
Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
La casa del CEO di OpenAI colpita da una molotov
Iscriviti alla Newslettera di Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Indagine su OpenAI e il suo capo
Il giornalista di inchiesta Ronan Farrow ha pubblicato sulla prestigiosa rivista New Yorker un lungo articolo sul colosso dell’Intelligenza Artificiale OpenAI e il suo molto discusso CEO Sam Altman.
Ronan, già bambino prodigio per studi e incarichi governativi, è il giornalista che nel 2016 accese la miccia del MeToo, pubblicando le accuse di alcune attrici al magnate hollywoodiano Harvey Weinstein. Come noto, il ragazzo è figlio della star cinematografica Mia Farrow e del comico ebreo Woody Allen, che avrebbe poi sposato la figlia adottiva Soon Yi Previn con una cerimonia a Venezia officiata da Massimo Cacciari. Mia Farrow in seguito avrebbe detto che il padre biologico del Ronan potrebbe essere l’ex marito Frank Sinatra, cui il giornalista in effetti potrebbe somigliare un po’.
Il Farrow ha riassunto su X l’esito della sua ricerca.
«Nell’ultimo anno e mezzo, ho indagato su OpenAI e Sam Altman per il New Yorker. Insieme al mio coautore Andrew Marantz, ho esaminato promemoria interni inediti, ottenuto oltre 200 pagine di documenti relativi a uno stretto collaboratore, tra cui numerose note private, e intervistato più di 100 persone. OpenAI è stata fondata sul presupposto che l’Intelligenza Artificiale potesse essere l’invenzione più pericolosa della storia umana e che il suo CEO dovesse essere una persona di straordinaria integrità».
Sostieni Renovatio 21
Si tratta, dice il giornalista, del resoconto più dettagliato finora disponibile sul perché Altman sia stato estromesso dai membri del consiglio di amministrazione e dai dirigenti, che si sono convinti della sua mancanza di integrità, e ci chiediamo: avevano ragione a sostenere che non ci si potesse fidare di lui?» si domanda il giornalista
«Nell’autunno del 2023, il responsabile scientifico di OpenAI, Ilya Sutskever, su richiesta dei membri del consiglio di amministrazione e di altri colleghi preoccupati, ha raccolto circa 70 pagine di promemoria su Altman e il suo vice, Greg Brockman: messaggi di Slack e documenti delle risorse umane, alcuni fotografati con un cellulare per evitare di essere scoperti sui dispositivi aziendali. Un promemoria inizia con un elenco: “Sam mostra un comportamento ricorrente di…”. Il primo punto è “Mentire”. Parallelamente, Dario Amodei, che ha lasciato l’azienda per co-fondare Anthropic, ha conservato per anni appunti privati su Altman e Brockman. Oltre 200 pagine di documenti correlati, mai resi pubblici prima, sono circolate nella Silicon Valley. In un documento, Amodei scrive che le parole di Altman “erano quasi certamente una sciocchezza”».
Come noto ai lettori di Renovatio 21, si tratta di grandi nomi dell’IA: il Sutskever è noto anche per dichiarazioni para-teologiche sull’AI (aveva detto che potrebbe «già essere senziente», mentre l’Amodei con Anthropic è ora al centro della scena sia per la potenza del suo modello che per gli screzi con Pentagono ed amministrazione Trump. Il software Claude sarebbe stato utilizzato anche per rapire il presidente venezuelano Nicolas Maduro.
«I colleghi che hanno facilitato la sua rimozione lo accusano di un livello di inganno inaccettabile per qualsiasi dirigente e pericoloso per un leader di un’azienda tecnologica così rivoluzionaria» prosegue il racconto del Farrow. «Mira Murati, che aveva fornito a Sutskever materiale per i suoi promemoria, ha dichiarato: “Abbiamo bisogno di istituzioni degne del potere che esercitano (…) Il consiglio di amministrazione ha chiesto un riscontro e io ho condiviso ciò che osservavo. Tutto ciò che ho condiviso era accurato e lo confermo pienamente”. Le opinioni divergono sulla misura in cui questi tratti debbano essere considerati benigni o maligni. Altman attribuisce le critiche a una tendenza, soprattutto all’inizio della sua carriera, “a evitare eccessivamente i conflitti”».
«Come si manifesta questa caratteristica nella pratica? Alla fine del 2022, Altman assicurò al consiglio di amministrazione che alcune caratteristiche di un modello di prossima uscita erano state approvate da un comitato di sicurezza. La consigliera Helen Toner richiese la documentazione e scoprì che le caratteristiche più controverse non erano state, in realtà, approvate. Nel 2023, mentre l’azienda si preparava a lanciare il GPT-4 Turbo, Altman apparentemente disse a Murati che il modello non necessitava di approvazione in materia di sicurezza, citando il responsabile legale dell’azienda, Jason Kwon. Ma Kwon si disse “perplesso” su dove Altman avesse tratto tale conclusione».
La questione della sicurezza dei chatbot, che danneggiano le persone in tutti modi arrivando ad aiutare chi vuole preparare una strage, sta emergendo in questi mesi in tutta la sua tremenda crudeltà.
«OpenAI sta acquisendo un potere sempre maggiore nel plasmare la sicurezza globale» continua il reporter. L’articolo descrive in dettaglio come i suoi dirigenti «abbiano valutato la possibilità di arricchire l’azienda mettendo le potenze mondiali, tra cui Cina e Russia, l’una contro l’altra, magari dando il via a una guerra di offerte per tecnologie di Intelligenza Artificiale avanzate». Farrow quindi rivela che tale piano «è stato abbandonato dopo che diversi dipendenti hanno manifestato l’intenzione di dimettersi».
(🧵1/11) For the past year and a half, I’ve been investigating OpenAI and Sam Altman for @NewYorker. With my coauthor @andrewmarantz, I reviewed never-before-disclosed internal memos, obtained 200+ pages of documents related to a close colleague, including extensive private… pic.twitter.com/XdYhNIhoQ4
— Ronan Farrow (@RonanFarrow) April 6, 2026
Iscriviti al canale Telegram ![]()
«Una revisione legale che è stata parte integrante del ritorno di Altman. La revisione, condotta dallo studio legale WilmerHale, è stata supervisionata da due membri del consiglio di amministrazione scelti in stretta collaborazione con Altman. Persone vicine all’indagine ci hanno riferito che non è mai stato prodotto alcun rapporto scritto, sebbene molti dirigenti se lo aspettassero, data l’importanza dello scandalo».
«È stato pubblicato solo un comunicato di 800 parole da parte di OpenAI, in cui si riconosceva una “rottura della fiducia”. Alcuni degli avvocati coinvolti hanno difeso il loro lavoro definendolo “una revisione indipendente, accurata e completa” e uno dei nuovi membri del consiglio di amministrazione ha affermato che “non c’era bisogno di un rapporto scritto formale”. Molti altri non erano d’accordo».
«OpenAI è stata fondata come organizzazione senza scopo di lucro, il cui consiglio di amministrazione aveva il dovere di dare priorità alla sicurezza dell’umanità rispetto al successo dell’azienda, o persino alla sua sopravvivenza. L’azienda accettava donazioni di beneficenza e alcuni ex dipendenti ci hanno raccontato di essersi uniti all’azienda per via delle rassicurazioni sulla natura non profit e sulla nobile missione, accettando persino riduzioni di stipendio. Tuttavia, documenti interni mostrano che i fondatori nutrivano dubbi sulla struttura non profit già dal 2017. Brockman, co-fondatore di Altman, ha scritto in una pagina del suo diario: “Non possiamo dire di essere impegnati a favore dell’organizzazione non profit… se tre mesi dopo ci trasformiamo in una B Corp, allora era una bugia”. Da allora OpenAI si è ricapitalizzata come entità a scopo di lucro».
«Alcuni ex ricercatori di OpenAI sostengono che l’azienda abbia rinunciato alla sua missione originaria in materia di sicurezza, accelerando una corsa al ribasso che sta interessando l’intero settore. L’articolo descrive in dettaglio una serie di impegni pubblici e interni in materia di sicurezza che, secondo gli ex ricercatori, sarebbero stati abbandonati. Diversi team aziendali che si occupavano di sicurezza sono stati sciolti. Il Future of Life Institute ha recentemente assegnato ad OpenAI un voto F sulla sicurezza esistenziale, in linea con tutte le altre aziende, ad eccezione di Anthropic, che ha ottenuto un D, e Google DeepMind, che ha ricevuto un D-. Altman ci ha detto che la sicurezza rimane una priorità e che “continueremo a realizzare progetti sulla sicurezza, o almeno progetti correlati alla sicurezza”».
Il Farrow, che è omosessuale, ci mette a parte anche delle dicerie dell’ambiente della Silicon Valley sull’Altman.
«Nella spietata corsa al dominio dell’IA, queste critiche più sostanziali ad Altman si mescolano a campagne di opposizione senza esclusione di colpi, in cui i rivali hanno strumentalizzato la sua vita privata. Intermediari direttamente collegati a Elon Musk – e in almeno un caso retribuiti da lui – hanno diffuso decine di pagine di informazioni scandalose e infondate, frutto di un’ampia attività di sorveglianza: società di comodo, contatti personali, interviste a un presunto prostituto condotte in locali gay. Nel corso della nostra inchiesta, diverse persone all’interno di aziende concorrenti ci hanno contattato insinuando che Altman adesca minori, una narrazione persistente nella Silicon Valley che sembra essere falsa. Abbiamo dedicato mesi alle indagini senza trovare alcuna prova a sostegno di tale affermazione».
«Perché tutto questo è importante? L’Intelligenza Artificiale ha già applicazioni salvavita, dalla ricerca medica alle allerte meteo. Altman ha sostenuto la crescita di OpenAI promettendo un futuro di sovrabbondanza. Ma i pericoli non sono più una fantasia. L’IA viene già impiegata in operazioni militari in tutto il mondo. I ricercatori hanno documentato la sua capacità di identificare rapidamente agenti chimici da guerra. OpenAI deve affrontare sette cause per omicidio colposo, in cui si sostiene che ChatGPT abbia indotto suicidi e un omicidio».
«L’IA potrebbe presto causare gravi sconvolgimenti nel mercato del lavoro, eliminando forse milioni di posti di lavoro. L’economia statunitense dipende sempre più da poche aziende di IA fortemente indebitate e alcuni esperti mettono in guardia contro la formazione di una bolla speculativa e i rischi di recessione. OpenAI ha uno dei tassi di consumo di liquidità più rapidi di qualsiasi startup nella storia, facendo affidamento su partner che hanno preso in prestito ingenti somme. Un membro del consiglio di amministrazione ci ha detto: “L’azienda si è indebitata in un modo che al momento è rischioso e preoccupante”. (OpenAI contesta questa affermazione.) Se la bolla scoppiasse, sarebbero in gioco molte più aziende di una».
Aiuta Renovatio 21
L’articolo approfondisce molti altri aspetti: «la vicenda del licenziamento e del ritorno di Altman; una serie di presunte denunce simili all’inizio della sua carriera; i doni ricevuti da leader stranieri e un processo di verifica dei requisiti di sicurezza che ha evidenziato, secondo quanto affermato da un funzionario, “molti segnali d’allarme”, e altro ancora. Esamina inoltre le critiche più ampie, provenienti da addetti ai lavori del settore, alla tendenza anti-regolamentazione che sta prendendo il momento, una tendenza che potrebbe avere ripercussioni su tutti noi».
È curioso vedere come le accuse raccolte contro l’Altmanno, ossia la menzogna e la tendenza verso una compiacenza tossica, siano esattamente i tratti ravvisabili in ChatGPT alla base della macabra sequella di suicidi, omidici e danni vari prodotti sulla popolazione in questi mesi.
Come riportato da Renovatio 21, in un caso bizzarro ma neanche troppo, un chatbot aveva instaurato una relazione con un ragazzo sotto psicofarmaci facendogli giurare di uccidere lo stesso CEO di Open AI Sam Altman.
Iscriviti alla Newslettera di Renovatio 21
Immagine di Tech Crunch via Wikimedia pubblicata su licenza Creative Commons Attribution 2.0 Generic
Intelligenza Artificiale
Milla Jovovich lancia un progetto basato sull’Intelligenza Artificiale che richiama Matteo Ricci
Aiuta Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Occulto2 settimane faMassoni accusati di aver assassinato un pilota d’auto e di aver tentato di uccidere altre persone
-



Psicofarmaci1 settimana fa«Nessuno me l’aveva detto»: un’ex paziente psichiatrica denuncia i pericolosi effetti collaterali degli psicofarmaci
-



Sorveglianza1 settimana faOltre il Green Pass: l’OMS con un’azienda legata a Pfizer e Bill Gates lavora ai passaporti vaccinali globali
-



Arte1 settimana faDalla Passione di Gibson alla conversione a Cristo. Renovatio 21 intervista Luca Lionello
-



Spirito2 settimane faTrapianti e magistero cattolico: da Pio XII a Leone XIV, tra retorica del dono e silenzio mortale
-



Salute1 settimana faI malori della 14ª settimana 2026
-



Spirito2 settimane faIl vescovo Strickland difende Miss California
-



Stragi2 settimane faGli USA hanno utilizzato un’arma non convenzionale nell’attacco ad una scuola iraniana














