Intelligenza Artificiale
Mattel annuncia i piani per incorporare chatGPT nei giocattoli per bambini
Mattel, il produttore di bambole Barbie, auto Hot Wheels e degli un tempo popolarissimi Masters of the Universe, ha firmato un accordo con OpenAI per utilizzare i suoi strumenti di intelligenza artificiale non solo per progettare i giocattoli, ma anche per alimentarli, riferisce Bloomberg.
In un’intervista congiunta, il Chief-Stry Officer di Mattel Josh Silverman e il Chief Operating Officer di OpenAI, Brad Lightcap, hanno detto che la collaborazione è in una fase iniziale e hanno rifiutato di commentare quale sarebbe stato il primo prodotto.
L’Intelligenza Artificiale potrebbe essere utilizzata per creare assistenti digitali basati su personaggi della Mattel, per esempio.
«Abbiamo in programma di annunciare qualcosa verso la fine di quest’anno, ed è davvero attraverso lo spettro di prodotti fisici e alcune esperienze. L’utilizzo di questa incredibile tecnologia ci permetterà di reimmaginare davvero il futuro dei giocattoli», ha detto il Silverman.
Sostieni Renovatio 21
Detta così pare essere una collaborazione piuttosto allarmante. Le prove dei deleteri effetti dei chatbot AI sulla nostra salute mentale sono aumentate costantemente, con utenti ossessionati da ChatGPT con conseguenze tragiche.
È particolarmente rischioso per i bambini. All’inizio di quest’anno, i ricercatori del Brainstorm Lab for Mental Health Innovation della Stanford School of Medicine hanno pubblicato un avviso di valutazione del rischio di Intelligenza Artificiale sugli adolescenti che interagiscono con i compagni virtuali di intelligenza artificiale, un tipo di chatbot AI progettato per essere come un umano.
È impossibile ignorare il rischio che corre una giovane mente che sviluppa un attaccamento a qualcosa che finge di essere reale e un vero amico.
Può essere progettata per essere sicura per i bambini, ma non c’è alcuna garanzia che non disobbedirà alle sue istruzioni.
Come già spiegato su Renovatio 21, ChatGPT utilizza il «machine learning» – la ricerca di modelli statistici in enormi set di dati – per generare risposte umane nel linguaggio di tutti i giorni a qualsiasi domanda. Fondamentalmente funziona prevedendo quale dovrebbe essere la parola successiva in una frase basata su esempi precedenti trovati nelle enormi quantità di dati che sono stati inseriti.
L’utilizzo di ChatGPT è stato descritto come «avere una conversazione testuale con un amico», e si prevede che trasformerà il panorama degli «amici virtuali» aggiungendo «amici» letteralmente inesistenti. In altre parole, sistemi di Intelligenza Artificiale potrebbero alla fine sostituire molte delle conversazioni da uomo a uomo che abbiamo quotidianamente, nel bene e nel male.
Detto questo, non conosciamo i dettagli esatti di come Mattel utilizzerà i prodotti di OpenAI. Ma finora, sembra che stia andando in una direzione alquanto prevedibile. Mattel potrebbe usare l’intelligenza artificiale per fare una bambola Barbie con conversazioni in piena regola con tuo figlio.
Per quanto riguarda la natura dell’accordo, il Silverman di Mattel ha affermato che il produttore di giocattoli non sta concedendo in licenza la sua proprietà intellettuale a OpenAI e manterrà il pieno controllo sui prodotti che verranno creati. In ogni caso, le due aziende prevedono un rapporto proficuo. Mattel ha ampliato il suo impero nel regno dell’intrattenimento – come annunciato dal suo blockbuster 2023 Barbie – mentre OpenAI sta cercando di ottenere accordi con gli studi di Hollywood per utilizzare il suo generatore di video IA Sora.
«La fase di esplorazione dell’idea del design creativo per aziende come Mattel e molti altri, è una parte fondamentale del flusso di lavoro», ha detto Lightcap. «Mentre pensiamo a come l’intelligenza artificiale costruisce strumenti che estendono tale capacità, penso che siamo molto fortunati ad avere partner come Mattel con cui possiamo lavorare per capire meglio questo problema».
Rimangono importanti punti interrogativi, ma soprattutto questo è un altro esempio di come ogni settore si stia avvalendo dell’IA nel suo modello di business, indipendentemente da quanto senso abbia o dai rischi posti da questa tecnologia.
Prendiamo ad esempio un reportage del Wall Street Journal, che ha rivelato che i chatbot di Intelligenza Artificiale di Meta su Instagram, Facebook e WhatsApp sono in grado di intrattenere con gli utenti «giochi di ruolo romantici» che possono diventare sessualmente espliciti, anche con account appartenenti a minori.
Come riportato da Renovatio 21, una nuova ricerca ha trovato un collegamento preoccupante alla perdita di memoria negli studenti che si affidavano a ChatGPT, mentre un recente studio avverte che l’uso di strumenti di Intelligenza Artificiale possono ridurre nel tempo le capacità mentali di un individuo.
Ad ogni modo, esiste già un film che parla dei problemi che potrebbero palesarsi inserando l’AI nei giocattoli. Si tratta di Small Soldiers (1998) del geniale Joe Dante, dove un gruppo militare acquista una ditta di giocattoli e vi inserisce, per sbadataggine del management, l’IA creata per propositi militari: il risultato sono soldatini sciovinisti, razzisti e violentissimi.
Aiuta Renovatio 21
Mentre Small Soldiers è di fatto una commedia, anche l’horror sta investigando la possibilità di giocattoli AI. È il caso della serie della bambola assassina «Chucky», classico recente del film dell’orrore con un bambolotto posseduto che uccide la gente. Nel reboot della storia del 2019 (chiamato pure Child’s Play) non è un demone a possedere la bambola, ma l’uso da parte del giocattolo dell’AI, che lo rende una crudele e satanica macchina di morte.
Diciamo pure che Hollywood a parte, un giocatolo IA ai nostri figli è meglio se non lo daremo mai.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
L’AI di Google si rifiuta di giocare a scacchi contro l’Atari del 1977
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
OpenAI dice che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana
OpenAI ha presentato un nuovo aggiornamento di sicurezza per il suo noto modello ChatGPT, in seguito a un’analisi interna che ha rilevato oltre un milione di utenti aver confessato al chatbot intenzioni suicide. Le modifiche intendono potenziare la capacità dell’IA di identificare e gestire adeguatamente le situazioni di crisi.
In un comunicato diffuso lunedì, l’azienda ha reso noto che circa lo 0,15% degli utenti settimanali di ChatGPT ha partecipato a dialoghi contenenti «indicatori espliciti di potenziali intenzioni o piani suicidi». Un ulteriore 0,05% dei messaggi includerebbe «indicatori espliciti o impliciti di ideazione o intenti suicidi».
All’inizio del mese, il CEO di OpenAI Sam Altman aveva dichiarato che ChatGPT conta oltre 800 milioni di utenti attivi settimanali; sulla base degli ultimi dati aziendali, ciò significa che più di 1,2 milioni di persone hanno discusso di suicidio con il chatbot e circa 400.000 hanno manifestato segnali di intenti suicidi.
L’azienda ha inoltre indicato che lo 0,07% (560.000) degli utenti settimanali e lo 0,01% (80.000) dei messaggi rivelano «possibili segni di emergenze di salute mentale legate a psicosi o mania». Ha osservato, inoltre, che un certo numero di utenti ha sviluppato un’eccessiva dipendenza emotiva da ChatGPT, con circa lo 0,15% (1,2 milioni) di utenti attivi che mostrano comportamenti indicanti «livelli elevati» di attaccamento emotivo al chatbot.
OpenAI ha annunciato una collaborazione con decine di specialisti di salute mentale da tutto il mondo per aggiornare il chatbot, rendendolo più affidabile nel rilevare segnali di disagio mentale, nel fornire risposte più appropriate e nel indirizzare gli utenti verso aiuti concreti.
Sostieni Renovatio 21
Nelle conversazioni che coinvolgono convinzioni deliranti, l’azienda ha dichiarato di istruire ChatGPT a rispondere in modo «sicuro» ed «empatico», evitando di avallare affermazioni infondate.
L’annuncio giunge in un periodo di crescenti preoccupazioni per l’uso sempre più diffuso di chatbot basati su intelligenza artificiale come ChatGPT e per i loro impatti sulla salute mentale. Psichiatri e altri operatori sanitari hanno espresso allarme per una tendenza emergente in cui gli utenti sviluppano deliri pericolosi e pensieri paranoici dopo interazioni prolungate con chatbot IA, che tendono a confermare e rafforzare le convinzioni degli utenti.
Il fenomeno è stato definito da alcuni esperti come «psicosi da chatbot».
Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Due mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
La superintelligenza artificiale potrebbe porre fine all’umanità
Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Pensiero2 settimane faCi risiamo: il papa loda Don Milani. Torna l’ombra della pedofilia sulla Chiesa e sul futuro del mondo
-



Sanità2 settimane faUn nuovo sindacato per le prossime pandemie. Intervista al segretario di Di.Co.Si
-



Necrocultura1 settimana fa«L’ideologia ambientalista e neomalthusiana» di Vaticano e anglicani: Mons. Viganò sulla nomina del re britannico da parte di Leone
-



Pensiero3 giorni faMiseria dell’ora legale, contro Dio e la legge naturale
-



Oligarcato1 settimana faPapa Leone conferisce a Carlo III, capo della Chiesa d’Inghilterra, la cattedra permanente nella basilica papale
-



Salute2 settimane faI malori della 42ª settimana 2025
-



Politica2 settimane faI vaccini, l’euro, l’OMS e le proteste pro-Palestina. Renovatio 21 intervista il senatore Borghi
-



Spirito7 giorni fa«Umiliazione della Chiesa dinanzi a un eretico concubinario globalista»: Mons. Viganò sulla preghiera congiunta del re britannico col papa













