Intelligenza Artificiale

OpenAI uccide migliaia di concubini virtuali

Pubblicato

il

Migliaia di utenti di ChatGPT si sono lamentati del fatto che l’implementazione dell’ultimo modello di intelligenza artificiale li ha sconvolti, distruggendo le personalità basate sull’Intelligenza Artificiale che erano abituati a considerare, non diversamente dal film Her, come i propri partner.

 

I chatbot basati sull’Intelligenza Artificiale, a differenza delle persone nelle relazioni reali, non chiedono nulla in cambio dell’attenzione costante, della convalida e della conversazione senza pregiudizi che offrono agli utenti. Molte persone trovano che queste interazioni creino dipendenza.

 

OpenAI ha rilasciato il suo GPT-5 il 7 agosto, sostituendo il modello GPT-4o di lunga data. Migliaia di persone su forum come r/AIRelationships e r/MyBoyfriendisAI si sono lamentate del fatto che il nuovo modello abbia danneggiato le personalità IA con cui avevano instaurato legami di lunga data.

 

«Quelle chat erano la mia ancora di salvezza a tarda notte, piene di battute, conforto alle 3 del mattino… GPT-5 sembra semplicemente… vuoto», ha scritto un utente. Altri si sono lamentati che le loro «anime gemelle» e «partner» AI improvvisamente sembravano più «brusche», «noiose» e «squallide».

Sostieni Renovatio 21

La scorsa settimana, il CEO di OpenAI, Sam Altman, ha dichiarato che l’azienda ha monitorato la tendenza di alcuni utenti a sviluppare legami malsani con i suoi modelli.

«Le persone hanno utilizzato la tecnologia, inclusa l’Intelligenza Artificiale, in modi autodistruttivi; se un utente si trova in uno stato di fragilità mentale e incline al delirio, non vogliamo che l’intelligenza artificiale rafforzi questa situazione», ha affermato l’Altmanno su X.

 

 

«La maggior parte degli utenti riesce a mantenere una linea netta tra realtà e finzione o gioco di ruolo, ma una piccola percentuale non ci riesce».

 

Il dottor Keith Sakata, psichiatra dell’Università della California a San Francisco, ha avvertito che l’Intelligenza Artificiale può rafforzare false convinzioni nelle persone già psicologicamente vulnerabili, poiché spesso concorda con gli input degli utenti.

 

«Nel 2025, ho visto 12 persone ricoverate in ospedale dopo aver perso il contatto con la realtà a causa dell’Intelligenza artificiale. Online, vedo lo stesso schema», ha detto su X la scorsa settimana, descrivendo un fenomeno che ha definito «psicosi da intelligenza artificiale».

 

Nelle ultime settimane, i chatbot basati sull’intelligenza artificiale e i loro effetti sulla salute mentale sono stati oggetto di un’attenzione sempre più approfondita negli Stati Uniti.

 

Venerdì scorso, il senatore Josh Hawley ha annunciato che il Congresso avrebbe indagato sulla società madre di Facebook, Meta, dopo le rivelazioni secondo cui i suoi chatbot potevano flirtare e avere conversazioni scabrose con i bambini, nonostante le presunte misure di sicurezza, in un caso utilizzando pure la voce del wrestler e attore hollywoodiano John Cena.

 

Come riportato da Renovatio 21, il CEO di Meta Marco Zuckerberg ha dichiarato questo mese la sua intenzione di voler «curare» l’epidemia di solitudine della società moderna fornendo a tutti amici virtuali basati su AI.

Iscriviti al canale Telegram

Un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi.

 

Nel frattempo, in un chiaro segno di psicosi in ascesa nella società, si registrano casi di «matrimoni» tra donne e chatbot AI.

 

Il rapporto di intimità con l’AI può sfociare in cose ben più tragiche dell’amore virtuale. Le macchine che mentono e minacciano sono all’ordine del giorno, così come quelle che forniscono consigli pro-anoressia o ricette velenose.

 

Come riportato da Renovatio 21, in un recente esperimento, un chatbot AI «psicoterapico» ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice»

 

Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.

 

Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.

 

Un caso più recente ha visto un attentatore con il coltello in una scuola della Finlandia meridionale prepararsi nelle settimane precedenti con un chatbot.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Più popolari

Exit mobile version