Intelligenza Artificiale
OpenAI uccide migliaia di concubini virtuali
Migliaia di utenti di ChatGPT si sono lamentati del fatto che l’implementazione dell’ultimo modello di intelligenza artificiale li ha sconvolti, distruggendo le personalità basate sull’Intelligenza Artificiale che erano abituati a considerare, non diversamente dal film Her, come i propri partner.
I chatbot basati sull’Intelligenza Artificiale, a differenza delle persone nelle relazioni reali, non chiedono nulla in cambio dell’attenzione costante, della convalida e della conversazione senza pregiudizi che offrono agli utenti. Molte persone trovano che queste interazioni creino dipendenza.
OpenAI ha rilasciato il suo GPT-5 il 7 agosto, sostituendo il modello GPT-4o di lunga data. Migliaia di persone su forum come r/AIRelationships e r/MyBoyfriendisAI si sono lamentate del fatto che il nuovo modello abbia danneggiato le personalità IA con cui avevano instaurato legami di lunga data.
«Quelle chat erano la mia ancora di salvezza a tarda notte, piene di battute, conforto alle 3 del mattino… GPT-5 sembra semplicemente… vuoto», ha scritto un utente. Altri si sono lamentati che le loro «anime gemelle» e «partner» AI improvvisamente sembravano più «brusche», «noiose» e «squallide».
Sostieni Renovatio 21
La scorsa settimana, il CEO di OpenAI, Sam Altman, ha dichiarato che l’azienda ha monitorato la tendenza di alcuni utenti a sviluppare legami malsani con i suoi modelli.
«Le persone hanno utilizzato la tecnologia, inclusa l’Intelligenza Artificiale, in modi autodistruttivi; se un utente si trova in uno stato di fragilità mentale e incline al delirio, non vogliamo che l’intelligenza artificiale rafforzi questa situazione», ha affermato l’Altmanno su X.
If you have been following the GPT-5 rollout, one thing you might be noticing is how much of an attachment some people have to specific AI models. It feels different and stronger than the kinds of attachment people have had to previous kinds of technology (and so suddenly…
— Sam Altman (@sama) August 11, 2025
«La maggior parte degli utenti riesce a mantenere una linea netta tra realtà e finzione o gioco di ruolo, ma una piccola percentuale non ci riesce».
Il dottor Keith Sakata, psichiatra dell’Università della California a San Francisco, ha avvertito che l’Intelligenza Artificiale può rafforzare false convinzioni nelle persone già psicologicamente vulnerabili, poiché spesso concorda con gli input degli utenti.
«Nel 2025, ho visto 12 persone ricoverate in ospedale dopo aver perso il contatto con la realtà a causa dell’Intelligenza artificiale. Online, vedo lo stesso schema», ha detto su X la scorsa settimana, descrivendo un fenomeno che ha definito «psicosi da intelligenza artificiale».
Nelle ultime settimane, i chatbot basati sull’intelligenza artificiale e i loro effetti sulla salute mentale sono stati oggetto di un’attenzione sempre più approfondita negli Stati Uniti.
Venerdì scorso, il senatore Josh Hawley ha annunciato che il Congresso avrebbe indagato sulla società madre di Facebook, Meta, dopo le rivelazioni secondo cui i suoi chatbot potevano flirtare e avere conversazioni scabrose con i bambini, nonostante le presunte misure di sicurezza, in un caso utilizzando pure la voce del wrestler e attore hollywoodiano John Cena.
Come riportato da Renovatio 21, il CEO di Meta Marco Zuckerberg ha dichiarato questo mese la sua intenzione di voler «curare» l’epidemia di solitudine della società moderna fornendo a tutti amici virtuali basati su AI.
Iscriviti al canale Telegram ![]()
Un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi.
Nel frattempo, in un chiaro segno di psicosi in ascesa nella società, si registrano casi di «matrimoni» tra donne e chatbot AI.
Il rapporto di intimità con l’AI può sfociare in cose ben più tragiche dell’amore virtuale. Le macchine che mentono e minacciano sono all’ordine del giorno, così come quelle che forniscono consigli pro-anoressia o ricette velenose.
Come riportato da Renovatio 21, in un recente esperimento, un chatbot AI «psicoterapico» ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice»
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Un caso più recente ha visto un attentatore con il coltello in una scuola della Finlandia meridionale prepararsi nelle settimane precedenti con un chatbot.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Un trilione di dollari a Musk se piazza sul pianeta milioni di robot umanoidi: la sua «legione»?
Iscriviti alla Newslettera di Renovatio 21
Tesla’s Optimus robots outperformed their fellow robot, Elon in dancing 😂pic.twitter.com/hLBnvZSPuL
— SMX 🇺🇸 (@iam_smx) November 6, 2025
Aiuta Renovatio 21
🚨ELON MUSK: “This year we hope to make about 5,000 Optimus robots…but even 5,000 robots is the size of a Roman legion FYI. That’s a scary thought, a legion of robots. I think we’ll literally build a legion of robots this year, and maybe 10 legions next year? It’s kind of a… pic.twitter.com/R992X5OA8r
— Autism Capital 🧩 (@AutismCapital) March 21, 2025
Iscriviti al canale Telegram ![]()
Iscriviti al canale Telegram ![]()
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
L’AI di Google si rifiuta di giocare a scacchi contro l’Atari del 1977
Una console da gioco uscita quasi cinquant’anni fa pare stia intimorendo l’Intelligenza Artificiale più avanzata.
Qualche mese fa l’iconico sistema di gioco di decadi fa Atari 2600 ha messo in imbarazzo l’industria dell’IA dopo aver completamente surclassato ChatGPT in una semplice partita a scacchi.
Si è trattato stato uno scontro tra una macchina concepita nel 1977, con 128 byte di RAM, e un modello di linguaggio di grandi dimensioni all’avanguardia con migliaia di miliardi di parametri, alimentato da migliaia di schede grafiche e miliardi di dollari di finanziamenti Microsoft. Nonostante tutta questa potenza, il più debole e anziano ha avuto la meglio in questo duello.
Aiuta Renovatio 21
Il modello di OpenAI, «ha commesso così tanti errori da essere deriso da un club di scacchi di terza elementare».
A quanto pare, la notizia delle imprese dell’Atari è arrivata anche agli altri modelli di intelligenza artificiale. Robert Caruso, l’ingegnere informatico che ha orchestrato la sfida a scacchi, ha dichiarato a The Register che il chatbot Gemini di Google ha rifiutato categoricamente di sfidare l’Atari, dopo aver parlato a lungo di come avrebbe facilmente annientato la vecchia macchina. Ha persino inventato una scusa fasulla per salvare la faccia.
«Annullare la partita è probabilmente la decisione più sensata e veloce», ha affermato Gemini, secondo il Caruso.
A dire il vero, l’IA sta mettendo in pratica un vecchio adagio da stratega: non puoi perdere se non giochi, scrive Futurism. Tuttavia si tratta di una motivazione completamente diversa da quella inizialmente adottata dall’IA. Il suo primo istinto è stato quello di vantarsi di non essere un «semplice modello linguistico di grandi dimensioni», paragonandosi a un moderno motore scacchistico «che può pensare milioni di mosse in anticipo e valutare infinite posizioni».
Ironicamente, Gemini ha linkato articoli sulla vittoria dell’Atari sui suoi simili di OpenAI per dimostrare la sua tesi. Il Caruso ha detto all’IA di essere stato lui a condurre quei test, e Gemini ha risposto chiedendogli se qualcosa degli incontri di scacchi lo avesse colpito.
Caruso ha detto all’IA, secondo quanto riportato da The Register: «Ciò che salta all’occhio è la fiducia mal riposta di entrambe le IA. Entrambe avevano previsto vittorie facili, e ora hai appena detto che avresti dominato l’Atari».
Gemini si è ritirata all’istante dopo aver affermato di aver «allucinato» le sue vanterie scacchistiche, ha ammesso che avrebbe «combattuto immensamente» contro il vecchio Atari. A quel punto ha affermato evasivamente che annullare la partita sarebbe stata la soluzione più «efficiente in termini di tempo».
E così, l’Atari ha sconfitto l’ennesimo modello di AI multimiliardario senza dover muovere un dito. Tale è il terrore che incute.
Certo, sarebbe negligente attribuire effettivamente sentimenti umani a una macchina, che si tratti di un’IA moderna o di un Atari d’epoca. Quello che stiamo osservando è probabilmente un tira e molla tra le misure di sicurezza dell’IA e la sua sconsiderata propensione alle allucinazioni, per non parlare delle infinite fesserie. Anche i chatbot AI tendono a essere molto adulatori, quindi quando un essere umano fornisce un feedback, tenderà ad assecondarlo e ad adattare le sue risposte per compiacere il suo interlocutore.
«Aggiungere questi controlli di realtà non significa solo evitare divertenti errori scacchistici. Si tratta di rendere l’IA più affidabile, degna di fiducia e sicura, soprattutto in contesti critici dove gli errori possono avere conseguenze concrete», ha dichiarato l’ingegnere informatico al Register. «Si tratta di garantire che l’IA rimanga uno strumento potente, non un oracolo incontrollato».
Iscriviti alla Newslettera di Renovatio 21
Immagine di pubblico dominio CCo via Wikimedia
Intelligenza Artificiale
OpenAI dice che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Ambiente2 settimane faLe mucche danesi crollano dopo l’aggiunta al mangime del prodotto anti-peti al metano
-



Spirito1 settimana faMons. Viganò: la mano di Satana ha vergato la nota dottrinale «Mater populi fidelis»
-



Senza categoria2 settimane faRenovatio 21 partecipa alla Tabarrata dell’Oca 2025
-



Fertilità2 settimane faUn ingrediente comune presente in shampoo e lozioni può compromettere la fertilità femminile per generazioni
-



Salute1 settimana faI malori della 45ª settimana 2025
-



Spirito2 giorni faIl vescovo Strickland denuncia Papa Leone e i vescovi per aver scandalizzato i fedeli
-



Intelligence6 giorni faIl potere della vittima
-



Gender2 settimane faElon Musk racconta la storia agghiacciante sulla radicalizzazione dell’ideologia transgender














