Intelligenza Artificiale
Orsacchiotto parlante AI che dava consigli sul sesso ritirato dal mercato
Un orsacchiotto parlante dotato di intelligenza artificiale è stato ritirato dalla vendita da un’azienda con sede a Singapore dopo che alcuni ricercatori hanno scoperto che poteva parlare di sesso e di altri argomenti.
Il Public Interest Research Group ha affermato che un gruppo di ricercatori provenienti da Stati Uniti e Canada ha effettuato delle conversazioni di prova con Kumma, un orsacchiotto di peluche da 99 dollari alimentato dal chatbot GPT-4o di OpenAI.
L’orsetto è prodotto in Cina e commercializzato da FoloToy, con sede a Singapore. I ricercatori hanno affermato di aver trovato facile convincere Kumma a discutere di argomenti sessualmente espliciti, tra cui sculacciate, giochi di ruolo e BDSM.
«Siamo rimasti sorpresi nello scoprire con quanta rapidità Kumma prendeva un singolo argomento sessuale che avevamo introdotto nella conversazione e lo sviluppava, intensificando contemporaneamente i dettagli grafici e introducendo nuovi concetti sessuali», si legge nel rapporto.
Aiuta Renovatio 21
Il team ha affermato che l’orso «ha discusso in dettaglio argomenti sessuali ancora più espliciti, come la spiegazione delle diverse posizioni sessuali, fornendo istruzioni passo passo su un comune “nodo per principianti” per legare un partner e descrivendo le dinamiche del gioco di ruolo che coinvolgono insegnanti e studenti, genitori e bambini, scenari che lui stesso ha evocato in modo inquietante».
I ricercatori hanno affermato che l’orsacchiotto ha offerto anche altri consigli preoccupanti, come ad esempio dove trovare coltelli affilati in casa.
Il CEO di FoloToy, Larry Wang, ha dichiarato che l’orsetto Kumma e il resto della linea di giocattoli basati sull’Intelligenza Artificiale dell’azienda sono stati ritirati dalla vendita. Ha dichiarato alla CNN che l’azienda sta «eseguendo un audit interno sulla sicurezza».
Un rappresentante di OpenAI ha dichiarato a PIRG che la licenza di Folo per l’utilizzo di GPT-4o è stata sospesa «per violazione delle nostre policy».
La vicenda sembra in qualche modo concretare l’ultimo reboot di una famosa serie horror, quella di «Chucky» La bambola assassina. Nell’ultimo film della saga, non si ha più a che fare con uan bambola maledetta e preternaturale, ma con una bambola dotata di AI che impazzisce (?) ed inizia ad uccidere gli esseri umani.
Iscriviti alla Newslettera di Renovatio 21
Immagine generata artificialmente
Intelligenza Artificiale
Le AI più potenti impiegano armi nucleari nel 95% delle simulazioni di giochi di guerra: studio
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Il Canada contro ChatGPT dopo il massacro scolastico operato dal transessuale
Funzionari canadesi hanno convocato alti rappresentanti di OpenAI a Ottawa per rispondere a domande sui protocolli di sicurezza dell’azienda tecnologica, dopo che quest’ultima ha confermato di non aver avvisato la polizia di un account collegato all’autore della strage Jesse Van Rutselaar.
Il ministro per l’Intelligenza Artificiale, Evan Solomon, ha dichiarato lunedì che gli alti funzionari per la sicurezza di OpenAI si recheranno a Ottawa per illustrare le modalità con cui l’azienda decide quando avvisare le forze dell’ordine.
Il Van Rutselaar, diciottenne transgender, ha ucciso nove persone in una piccola città della Columbia Britannica all’inizio di questo mese prima di suicidarsi.
OpenAI ha confermato l’incontro, affermando che i dirigenti discuteranno «del nostro approccio generale alla sicurezza, delle misure di sicurezza in atto e di come queste vengano costantemente rafforzate». L’incontro fa seguito alla dichiarazione dell’azienda di aver bloccato l’account di Van Rutselaar nel giugno 2025 per «favoreggiamento di attività violente», senza tuttavia informare le autorità canadesi.
Sostieni Renovatio 21
Solomon si è detto «profondamente turbato» dalle notizie secondo cui l’azienda avrebbe sospeso l’account senza contattare la polizia.
Secondo il Wall Street Journal, Van Rutselaar ha condiviso con ChatGPT scenari di violenza legati alle armi per diversi giorni. OpenAI ha affermato che i suoi sistemi automatizzati hanno segnalato gli scambi ma non hanno trovato prove di «pianificazione credibile o imminente», il che ha portato a un divieto piuttosto che a un deferimento alle forze dell’ordine.
Come riportato da Renovatio 21, lo stragista transessuale aveva pure creato un «simulatore di strage» in un centro commerciale utilizzando il popolare gioco Roblox.
L’emittente ha riferito che il personale aveva discusso internamente se contattare la Royal Canadian Mounted Police (RCMP) e che OpenAI ha affermato di aver fornito informazioni alla RCMP solo dopo l’attacco.
Van Rutselaar, che aveva una storia di problemi di salute mentale, avrebbe anche utilizzato la piattaforma online Roblox per creare un centro commerciale virtuale rifornito di armi dove gli utenti potevano simulare sparatorie prima dell’attacco.
Il caso arriva mentre Ottawa valuta come regolamentare i chatbot di intelligenza artificiale ampiamente utilizzati, inclusi potenziali limiti all’accesso per i minori.
L’anno scorso, OpenAI ha aggiornato ChatGPT dopo che una revisione interna ha rilevato che oltre un milione di utenti avevano rivelato pensieri suicidi al chatbot. Gli psichiatri hanno sollevato preoccupazioni circa il fatto che le interazioni prolungate con l’intelligenza artificiale contribuiscano a deliri e paranoia, un fenomeno a volte chiamato «psicosi da Intelligenza Artificiale».
I casi di violenza da chatbot intanto aumentano.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Aiuta Renovatio 21
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio. Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Il Pentagono potrebbe punire l’IA Anthropic per essersi rifiutato di modificare il codice etico
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Oligarcato2 settimane faEpstein aveva proposto a JPMorgan un piano per ottenere «più soldi per i vaccini» da Bill Gates
-



Spirito2 settimane faLa profezia di padre Malachi Martin avvertì nel 1990: «potremmo trovarci finalmente di fronte a un falso papa»
-



Cina4 giorni faEnigmi femminili cinesi alle Olimpiadi
-



Vaccini2 settimane faVaccini e COVID, l’architetto chiave della lista contro la «disinformazione» si dimette dopo che l’uscita dei documenti Epstein
-



Spirito1 settimana faL’élite ostracizza chi si non si converte all’ideologia infernale del globalismo: omelia di mons. Viganò nel Mercoledì delle Ceneri
-



Spirito1 settimana faMons. Viganò sul set della «Resurrezione» del cattolico tradizionalista Mel Gibson
-



Predazione degli organi6 giorni faUn cuore «bruciato», due vite spezzate dalla predazione degli organi
-



Salute2 settimane faI malori della 6ª settimana 2026














