Intelligenza Artificiale
OpenAI uccide migliaia di concubini virtuali
Migliaia di utenti di ChatGPT si sono lamentati del fatto che l’implementazione dell’ultimo modello di intelligenza artificiale li ha sconvolti, distruggendo le personalità basate sull’Intelligenza Artificiale che erano abituati a considerare, non diversamente dal film Her, come i propri partner.
I chatbot basati sull’Intelligenza Artificiale, a differenza delle persone nelle relazioni reali, non chiedono nulla in cambio dell’attenzione costante, della convalida e della conversazione senza pregiudizi che offrono agli utenti. Molte persone trovano che queste interazioni creino dipendenza.
OpenAI ha rilasciato il suo GPT-5 il 7 agosto, sostituendo il modello GPT-4o di lunga data. Migliaia di persone su forum come r/AIRelationships e r/MyBoyfriendisAI si sono lamentate del fatto che il nuovo modello abbia danneggiato le personalità IA con cui avevano instaurato legami di lunga data.
«Quelle chat erano la mia ancora di salvezza a tarda notte, piene di battute, conforto alle 3 del mattino… GPT-5 sembra semplicemente… vuoto», ha scritto un utente. Altri si sono lamentati che le loro «anime gemelle» e «partner» AI improvvisamente sembravano più «brusche», «noiose» e «squallide».
Sostieni Renovatio 21
La scorsa settimana, il CEO di OpenAI, Sam Altman, ha dichiarato che l’azienda ha monitorato la tendenza di alcuni utenti a sviluppare legami malsani con i suoi modelli.
«Le persone hanno utilizzato la tecnologia, inclusa l’Intelligenza Artificiale, in modi autodistruttivi; se un utente si trova in uno stato di fragilità mentale e incline al delirio, non vogliamo che l’intelligenza artificiale rafforzi questa situazione», ha affermato l’Altmanno su X.
If you have been following the GPT-5 rollout, one thing you might be noticing is how much of an attachment some people have to specific AI models. It feels different and stronger than the kinds of attachment people have had to previous kinds of technology (and so suddenly…
— Sam Altman (@sama) August 11, 2025
«La maggior parte degli utenti riesce a mantenere una linea netta tra realtà e finzione o gioco di ruolo, ma una piccola percentuale non ci riesce».
Il dottor Keith Sakata, psichiatra dell’Università della California a San Francisco, ha avvertito che l’Intelligenza Artificiale può rafforzare false convinzioni nelle persone già psicologicamente vulnerabili, poiché spesso concorda con gli input degli utenti.
«Nel 2025, ho visto 12 persone ricoverate in ospedale dopo aver perso il contatto con la realtà a causa dell’Intelligenza artificiale. Online, vedo lo stesso schema», ha detto su X la scorsa settimana, descrivendo un fenomeno che ha definito «psicosi da intelligenza artificiale».
Nelle ultime settimane, i chatbot basati sull’intelligenza artificiale e i loro effetti sulla salute mentale sono stati oggetto di un’attenzione sempre più approfondita negli Stati Uniti.
Venerdì scorso, il senatore Josh Hawley ha annunciato che il Congresso avrebbe indagato sulla società madre di Facebook, Meta, dopo le rivelazioni secondo cui i suoi chatbot potevano flirtare e avere conversazioni scabrose con i bambini, nonostante le presunte misure di sicurezza, in un caso utilizzando pure la voce del wrestler e attore hollywoodiano John Cena.
Come riportato da Renovatio 21, il CEO di Meta Marco Zuckerberg ha dichiarato questo mese la sua intenzione di voler «curare» l’epidemia di solitudine della società moderna fornendo a tutti amici virtuali basati su AI.
Iscriviti al canale Telegram ![]()
Un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi.
Nel frattempo, in un chiaro segno di psicosi in ascesa nella società, si registrano casi di «matrimoni» tra donne e chatbot AI.
Il rapporto di intimità con l’AI può sfociare in cose ben più tragiche dell’amore virtuale. Le macchine che mentono e minacciano sono all’ordine del giorno, così come quelle che forniscono consigli pro-anoressia o ricette velenose.
Come riportato da Renovatio 21, in un recente esperimento, un chatbot AI «psicoterapico» ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice»
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Un caso più recente ha visto un attentatore con il coltello in una scuola della Finlandia meridionale prepararsi nelle settimane precedenti con un chatbot.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
I chatbot AI sono pronti a pianificare le stragi di massa
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Chatbot AI mettono in pericolo gli escursionisti
Il sito Futurism riporta l’ennesima vicenda in cui l’Intelligenza Artificiale mette in pericolo gli esseri umani, che stupidamente si fidano di essa.
Qualche mese fa, due escursionisti che cercavano di affrontare una parete rocciosa di una montagna vicino a Vancouver, hanno dovuto chiamare una squadra di soccorso dopo che sono caduti nella neve. La coppia indossava solo scarpe da ginnastica a suola piatta, ignari che le altitudini più elevate di una catena montuosa potrebbero essere ancora innevate appena dopo l’inverno.
«Siamo saliti lassù con degli stivali per loro», ha detto al Vancouver Sun Brent Calkin, leader della squadra di ricerca e soccorso di Lions Bay. «Abbiamo chiesto loro le dimensioni dello scarpone e gli abbiamo portato scarponi e bastoni da sci».
Si scopre che per pianificare la loro sfortunata spedizione, gli escursionisti hanno seguito incautamente i consigli dati loro da Google Maps e dal chatbot AI ChatGPT.
Sostieni Renovatio 21
Ora, Calkin e il suo team di soccorso stanno avvertendo che non è prudente fare affidamento su app e chatbot AI per pianificare un’escursione complicata attraverso la natura selvaggia.
Con la quantità di informazioni disponibili online, è bene documentarsi bene prima di affrontare questo tipo di escursioni, ha sottolineato Calkin al Vancouver Sun. Un recente articolo di Mountain Rescue England e Wales ha accusato i social media e le cattive app di navigazione per le troppe chiamate alle squadre di soccorso, ha osservato il giornale.
Stephen Hui, autore del libro 105 Hikes, ha fatto eco a quell’avvertimento e ha ammonito che ottenere informazioni affidabili è una delle più grandi sfide presentate dai chatbot e dalle app AI. Con l’Intelligenza Artificiale in particolare, Hui ha detto al Vancouver Sun, non è sempre facile dire se ti le informazioni sono obsolete oppure recenti e affidabili.
Dal suo test di ChatGPT, Hui non è rimasto troppo colpito: può darti «direzioni decenti» sui sentieri più comuni e popolari, ma va in evidente difficoltà nel tracciare percorsi più impervi e meno battuti.
I chatbot AI faticano a fornire informazioni pertinenti in tempo reale.
«Il periodo dell’anno è un grosso problema» in British Columbia, ha detto Hui al Vancouver Sun. «La vista più ricercata è la cima della montagna, ma questo è davvero accessibile solo agli escursionisti da luglio a ottobre. In inverno, le persone potrebbero ancora cercare quelle viste e non rendersi conto che ci sarà neve».
C’è da dire che il tipo di persona che chiede a un chatbot consigli escursionistici probabilmente non conosce nemmeno le domande giuste da porre.
È di gran lunga più consigliato chiedere a un essere umano con esperienza della zona, ha suggerito Calkin, anziché affidarsi a queste nuove tecnologie che ancora, per troppe cose, risultano totalmente fuorvianti e inattendibili.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Xiaomi ora utilizza robot umanoidi per assemblare auto elettriche
🚨 Xiaomi deploys humanoid bots at its EV assembly plant, adding momentum to the factory robotics race alongside Tesla Optimus
• 3 hours of continuous autonomous operation • 90.2% success rate placing self-tapping nuts • Powered by Vision-Language-Action (VLA) + reinforcement… https://t.co/epvny9BPki pic.twitter.com/4Kzb9CaWaW — Herbert Ong (@herbertong) March 2, 2026
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Pensiero1 settimana faEcco la guerra globale per l’anticristo
-



Morte cerebrale1 settimana faDichiarato morto, un bambino torna in vita dopo cinque ore: quando la realtà smentisce i protocolli
-



Geopolitica6 giorni faQuesta è una guerra mondiale di religione: l’avvertimento di Tucker Carlson
-



Occulto5 giorni faEsorcista dice che «la situazione per l’anticristo è ormai prossima»
-



Spirito2 settimane faMons. Schneider rivela che i vescovi segretamente non si sottomettono agli insegnamenti di Bergoglio
-



Geopolitica2 settimane faLa dichiarazione di guerra di Trump all’Iran
-



Spirito1 settimana faI cardinali dell’«opposizione controllata» di Leone. Mons. Viganò contro i conservatori cattolici dinanzi alle Consacrazioni FSSPX
-



Geopolitica2 settimane faL’ayatollah Khamenei è morto: lo Stato iraniano conferma













