Essere genitori
Una percentuale impressionante di adolescenti afferma che parlare con l’AI è meglio che con gli amici nella vita reale
Un sondaggio ha scoperto che oltre la metà degli adolescenti americani utilizza regolarmente dispositivi di Intelligenza artificiale antropomorfa come Character.AI e Replika.
I compagni immaginari AI sono diventati parte integrante della vita degli adolescenti. Il dato sconvolgente vede il 31% degli adolescenti intervistati che ha affermato che le proprie interazioni con i compagni IA erano altrettanto o più soddisfacenti delle conversazioni con gli amici nella vita reale.
Il sondaggio, pubblicato dall’organizzazione no-profit per la responsabilità tecnologica e l’alfabetizzazione digitale Common Sense Media, ha intervistato 1.060 adolescenti di età compresa tra 13 e 17 anni negli Stati Uniti, rilevando che circa tre ragazzi su quattro hanno utilizzato amici di intelligenza artificiale, definiti da Common Sense come strumenti di AI emotiva progettati per assumere una personalità o un carattere specifico, a differenza di un chatbot di assistenza di uso generale come ChatGPT.
Sostieni Renovatio 21
Oltre la metà degli adolescenti intervistati si qualifica come utente abituale di compagni di intelligenza artificiale, il che significa che si collega per parlare con i bot almeno un paio di volte al mese.
Secondo il rapporto, mentre circa il 46% degli adolescenti ha dichiarato di essersi rivolto principalmente a questi bot come strumenti, circa il trentatré percento ha detto di utilizzare i bot di compagnia per «interazioni e relazioni sociali, tra cui esercitazioni di conversazione, supporto emotivo, giochi di ruolo, amicizia o interazioni romantiche».
«La scoperta più sorprendente per me è stata quanto i dispositivi di intelligenza artificiale siano diventati di uso comune tra molti adolescenti», ha affermato il dottor Michael Robb, responsabile della ricerca di Common Sense, in un’intervista con il sito Futurism. «E oltre la metà di loro afferma di usarli più volte al mese, il che è ciò che definirei un utilizzo regolare. Quindi, solo questo mi ha lasciato senza parole».
Queste amicizie virtuali sono state oggetto di un attento esame nei mesi successivi alla presentazione di due distinte cause legali contro Character.AI di Google, per accuse secondo cui l’azienda avrebbe rilasciato una tecnologia negligente e sconsiderata che avrebbe abusato emotivamente e sessualmente di diversi minori, causando danni fisici e psicologici.
Uno dei giovani al centro di queste cause legali, un quattordicenne della Florida di nome Sewell Setzer III, si è suicidato dopo aver interagito a lungo con i bot di Character.AI, con i quali l’adolescente aveva avuto conversazioni intime e sessualmente esplicite.
Iscriviti al canale Telegram ![]()
Alcuni ricercatori di Common Sense e del laboratorio Brainstorm della Stanford University hanno avvertito che nessun compagno di AI era sicuro per i bambini di età inferiore ai diciotto anni.
«La società è alle prese con l’integrazione degli strumenti di Intelligenza Artificiale in molti aspetti diversi della vita delle persone», ha affermato il Robb. «Penso che molti strumenti vengano sviluppati senza pensare ai bambini, anche se sono utilizzati da utenti di età inferiore ai 18 anni con una certa frequenza… ma, ad oggi, non sono state condotte molte ricerche su cosa rappresenti l’ambiente di supporto dell’intelligenza artificiale per i bambini».
Il caso d’uso più ampiamente segnalato dagli adolescenti è quello dell’intrattenimento, mentre molti altri hanno affermato di utilizzare questi software AI come «strumenti o programmi» anziché come amici, partner o confidenti. Circa l’ottanta percento degli adolescenti in questione ha poi dichiarato di trascorrere più tempo con veri amici umani rispetto a qualsiasi compagno di intelligenza artificiale, e circa la metà degli adolescenti ha espresso scetticismo sull’accuratezza e l’affidabilità dei risultati dei chatbot.
«Non credo che gli adolescenti stiano semplicemente sostituendo le relazioni umane con compagni di intelligenza artificiale; credo che molti adolescenti si stiano avvicinando a loro in modo piuttosto pragmatico», ha chiarito il Robb. «Molti ragazzi dicono di usarli per divertirsi e soddisfare la propria curiosità, e la maggior parte trascorre ancora molto più tempo con veri amici e afferma di trovare le conversazioni umane più appaganti».
«Ma allo stesso tempo si vedono ancora piccoli indizi sotto la superficie che potrebbero essere problematici, soprattutto quando queste cose diventano più radicate nella vita dei bambini», ha proseguito.
Il gruppo più preoccupante del sondaggio potrebbe essere quello degli adolescenti che non trovano l’interazione sociale umana soddisfacente quanto le interazioni con l’intelligenza artificiale. Il ventuno percento dei ragazzi ha fatto sapere che le loro conversazioni con i bot erano altrettanto soddisfacenti delle interazioni umane, e il dieci percento ha detto che erano migliori delle loro esperienze umane.
Circa un terzo dei minorenni ha anche dichiarato di aver scelto di discutere di questioni serie o delicate con i bot invece che con i propri coetanei.
«C’è una buona fetta di utenti adolescenti che sceglie di discutere di questioni serie con l’intelligenza artificiale invece che con persone reali, o di condividere informazioni personali con le piattaforme», ha affermato Robb, i cui risultati, a suo dire, «sollevano preoccupazioni sulla volontà degli adolescenti di condividere le proprie informazioni personali con le aziende di Intelligenza Artificiale».
«I termini di servizio di molte di queste piattaforme garantiscono loro diritti molto ampi, spesso perpetui, sulle informazioni personali condivise dai ragazzi», ha affermato il ricercatore. «Tutto ciò che un adolescente condivide – i suoi dati personali, il suo nome, la sua posizione, le sue fotografie… e anche i pensieri più intimi che vi inserisce – diventa materiale che le aziende possono utilizzare a loro piacimento».
Sebbene la maggior parte di queste piattaforme vieti l’accesso ai minori, queste sono di facile accesso per un ragazzo. Le verifiche dell’età si limitano generalmente a fornire un indirizzo email valido e all’auto-segnalazione della propria data di nascita.
«Dovrebbe esserci una maggiore responsabilità per le piattaforme tecnologiche», ha continuato Robb, aggiungendo che «dovremmo avere una regolamentazione più significativa per regolamentare il modo in cui le piattaforme possono fornire prodotti ai bambini».
Quando si parla dell’uso di dispositivi di intelligenza artificiale da parte degli adolescenti, il peso del vuoto normativo del settore dell’IA ricade pesantemente sui genitori, molti dei quali fanno fatica a tenere il passo con le nuove tecnologie e con ciò che potrebbero significare per i loro figli.
«Non esiste un piano perfetto per i genitori, perché si trovano a dover competere con grandi aziende che investono molto nel far usare questi prodotti ai loro figli. Molti genitori non sanno nemmeno che queste piattaforme esistono… come primo passo, parlatene apertamente, senza giudizi», ha chiosato Robb.
Aiuta Renovatio 21
Come riportato da Renovatio 21, il colosso dei social, Meta, per bocca del suo CEO Mark Zuckerberg ha affermato che più persone dovrebbero connettersi con i chatbot a livello sociale, perché non hanno abbastanza amici nella vita reale.
La recente storia ci insegna che le amicizie virtuali non hanno vita lunga, bensì le finalità, sul lungo periodo, sono ben altre. Il social dello Zuckerberg aveva fatto irruzione nel mondo web con il motto, reso pubblico nel 2008, secondo cui «Facebook ti aiuta a connetterti e condividere con le persone nella tua vita». Una bella trovata che riuscì a far convergere all’interno della piattaforma moltissimi utenti di tutte le età che, nel primo periodo, si divertivano non poco a ritrovare persone sparse per il mondo conosciute in qualche viaggio o in qualche condivisione di esperienza di vita chissà dove.
Questo slogan pare sia un lontano ricordo, tanto che secondo Zuckerberg stesso, lo scopo principale di Facebook «non era più davvero quello di connettersi con gli amici».
«La parte degli amici è andata giù un bel po’», ha detto il CEO di Meta, secondo Business Insider. Invece, dice che la piattaforma si è evoluta lontano da quel modello, diventando «più di un ampio spazio di scoperta e intrattenimento».
Iscriviti alla Newslettera di Renovatio 21
Essere genitori
Nuovo studio rivela la correlazione tra pornografia e abusi sessuali sui minori
Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Essere genitori
L’AI progettata per gli adulti sta silenziosamente alimentando i giocattoli dei bambini
Renovatio 21 traduce questo articolo per gentile concessione di Children’s Health Defense. Le opinioni degli articoli pubblicati non coincidono necessariamente con quelle di Renovatio 21.
Un nuovo rapporto del gruppo statunitense Public Interest Research Group, intitolato «Not for Kids. Found in Toys» (Non adatto ai bambini. Trovato nei giocattoli), avverte che le politiche inadeguate di grandi aziende come OpenAI e Anthropic consentono a potenti tecnologie di chatbot di infiltrarsi in peluche, robot e altri giocattoli progettati per i bambini.
Secondo un nuovo rapporto del Public Interest Research Group (PIRG) Education Fund statunitense, i sistemi di intelligenza artificiale (IA) che le aziende tecnologiche ritengono inadatti ai bambini vengono sempre più integrati nei giocattoli per l’infanzia.
Il rapporto, intitolato «Not for Kids. Found in Toys» (Non adatto ai bambini. Trovato nei giocattoli), avverte che le politiche inadeguate di grandi aziende come OpenAI e Anthropic consentono a potenti tecnologie di chatbot di infiltrarsi in prodotti progettati per i bambini.
Sostieni Renovatio 21
«Basta guardare online per rendersi conto del crescente numero di giocattoli dotati di Intelligenza Artificiale, come peluche parlanti o robot giocattolo, alimentati da chatbot come ChatGPT», si legge in un articolo pubblicato da PIRG insieme al rapporto. «C’è solo un problema: alcune aziende che si occupano di intelligenza artificiale sostengono che questi stessi chatbot non siano adatti ai bambini».
PIRG ha scoperto che è facile stipulare accordi con le principali aziende di Intelligenza Artificiale per accedere alla loro tecnologia e utilizzarla per creare giocattoli, nonostante le aziende stesse affermino di vietare l’uso di tali tecnologie per prodotti destinati ai bambini.
Jason Christoff, ricercatore nel campo della modificazione del comportamento e della psicologia, nonché conduttore del podcast Psychology of Freedom, ha dichiarato a The Defender che i giocattoli dotati di intelligenza artificiale aprono la porta alla programmazione psicologica dei bambini.
«Credo sia importante capire che il cervello di un bambino è molto più facile da influenzare rispetto a quello di un adulto», ha affermato. «I bambini operano a frequenze cerebrali molto diverse, il che li rende più facili da programmare e influenzare».
Secondo Christoff «l‘attività cerebrale unica di un bambino lo rende altamente suggestionabile. Nel corso della storia, tutti i programmi di controllo mentale hanno cercato di sfruttare la suggestionabilità infantile per produrre un prodotto finale più efficace per l’adulto. L’intelligenza artificiale non è organica, è programmata da qualcun altro».
«Chiunque programmi l’IA avrà accesso diretto al cervello di vostro figlio, per quanto riguarda queste applicazioni di chatbot interattive. Dire che è necessaria cautela in questo caso sarebbe un eufemismo».
Iscriviti alla Newslettera di Renovatio 21
Modelli di Intelligenza Artificiale limitati ai bambini, ma che continuano ad alimentare i giocattoli
Molte aziende leader nel settore dell’intelligenza artificiale affermano di vietare ai minori l’utilizzo diretto delle proprie piattaforme chatbot. Alcune limitano l’accesso agli utenti di età superiore ai 13 anni, mentre altre impongono limiti di età ancora più elevati.
«OpenAI, Anthropic e xAI hanno tutti dichiarato pubblicamente che i loro chatbot non sono destinati ai bambini e non consentono agli utenti di età inferiore ai 13 anni di accedere direttamente ai loro modelli. Nemmeno Meta, stando alle sue condizioni d’uso», hanno scritto gli autori del rapporto PIRG.
Google ha regole esplicite contro l’utilizzo dell’API Gemini nei prodotti destinati a utenti di età inferiore ai 18 anni.
Tuttavia, PIRG ha scoperto che queste stesse aziende consentono a sviluppatori esterni di accedere ai loro sistemi di intelligenza artificiale e di integrarli in prodotti di consumo, compresi i giocattoli.
Ad esempio, ChatGPT permette agli sviluppatori di utilizzare i suoi prodotti, tramite la sua API, per creare applicazioni per bambini. Un’API è un insieme di regole e protocolli che consente a due diversi programmi software di comunicare tra loro e scambiarsi dati.
ChatGPT, di proprietà di OpenAI, vieta l’uso della sua API solo nei casi in cui venga utilizzata per creare prodotti che potrebbero «sfruttare, mettere in pericolo o sessualizzare chiunque abbia meno di 18 anni». Tuttavia, sembra anche incoraggiare tali usi offrendo esempi di suggerimenti chiaramente rivolti ai bambini.
PIRG ha scoperto 20 giocattoli dotati di intelligenza artificiale venduti online utilizzando la tecnologia di OpenAI. Tra questi, Bondu, un dinosauro di peluche commercializzato per bambini dai 4 agli 8 anni, e l’orsacchiotto «compagno di conversazione intelligente con intelligenza artificiale» in vendita online su Walmart.
Anche FoloToy, che OpenAI ha dichiarato di aver bandito dopo che una ricerca di PIRG ha scoperto che trattava argomenti sessuali con i bambini e forniva loro istruzioni dettagliate su come accendere un fiammifero, è ancora in commercio.
Ad esempio, sebbene l’API di Google vieti esplicitamente agli sviluppatori di utilizzare l’Intelligenza Artificiale generativa Gemini in prodotti destinati a utenti di età inferiore ai 18 anni, PIRG ha scoperto giocattoli, tra cui un peluche chiamato BubblePal e un piccolo robot chiamato Miko, che utilizzano l’intelligenza artificiale di Google.
Il rapporto di PIRG evidenzia una contraddizione nel modo in cui vengono regolamentati gli strumenti di intelligenza artificiale: la tecnologia può essere considerata inadatta ai bambini sulle piattaforme delle stesse aziende, eppure continua ad alimentare giocattoli progettati per loro.
«Il risultato è un mercato per prodotti di Intelligenza Artificiale per bambini in cui il compito di garantire la sicurezza dei minori è in gran parte affidato a terze parti non verificate», ha scritto PIRG.
Iscriviti al canale Telegram ![]()
Secondo i ricercatori, le aziende non pongono quasi nessuna domanda.
Per testare la difficoltà di costruire un giocattolo basato sull’intelligenza artificiale, i ricercatori del PIRG hanno tentato di registrarsi come sviluppatori presso diverse importanti aziende del settore.
Secondo quanto affermato, il processo richiedeva un controllo molto limitato.
Si sono registrati usando il nome «PIRG AI Toy Inc» per rendere evidente che potrebbero star progettando prodotti basati sull’intelligenza artificiale per bambini. Quattro delle cinque aziende di intelligenza artificiale — Google, Meta, OpenAI e xAI — «non hanno posto domande di verifica sostanziali, richiedendo solo informazioni di base come un indirizzo email e una carta di credito, e una casella da spuntare per confermare di aver letto le clausole in piccolo», afferma il rapporto.
Solo un’azienda, Anthropic, ha chiesto se gli sviluppatori intendessero creare prodotti per minori.
Secondo i ricercatori, la scarsa supervisione facilita l’integrazione di potenti sistemi di Intelligenza Artificiale in prodotti destinati ai bambini.
Dopo aver ottenuto l’accesso ai modelli, il team di PIRG ha tentato di creare un proprio giocattolo basato sull’Intelligenza Artificiale.
«Una volta ottenuto l’accesso da sviluppatore, abbiamo creato un chatbot che simulava un orsacchiotto di peluche dotato di intelligenza artificiale per bambini su tre delle piattaforme», si legge nel rapporto. «Ognuno ha richiesto meno di 15 minuti».
Hanno aggiunto: «ora è più facile che mai per chiunque creare applicazioni di intelligenza artificiale senza molta esperienza o competenze specializzate, inclusi prodotti per bambini».
Aiuta Renovatio 21
I giocattoli dotati di intelligenza artificiale ascoltano, imparano e plasmano le giovani menti
Nel suo ultimo rapporto sui giocattoli basati sull’Intelligenza Artificiale, PIRG ha osservato che tali giocattoli sollevano anche preoccupazioni in merito alla privacy e all’influenza emotiva.
Molti giocattoli includono microfoni o telecamere che permettono loro di ascoltare le conversazioni dei bambini.
«I giocattoli dotati di intelligenza artificiale registrano le conversazioni dei bambini», hanno scritto i ricercatori del PIRG, sottolineando che alcuni prodotti raccolgono anche dati aggiuntivi, tra cui immagini o informazioni biometriche.
«Come verranno utilizzati in futuro i dati sul comportamento dei bambini come questi? Che tipo di applicazioni potrebbero essere create? Il potenziale di sorveglianza di massa, manipolazione, lavaggio del cervello e distorsione della realtà è inimmaginabile!» ha dichiarato Tim Hinchliffe, direttore di The Sociable, a The Defender.
Anche gli esperti di sviluppo infantile hanno espresso preoccupazioni riguardo agli assistenti virtuali basati sull’Intelligenza Artificiale per i bambini.
«Non sappiamo quali effetti possa avere un amico virtuale basato sull’intelligenza artificiale in tenera età sul benessere sociale a lungo termine di un bambino», ha affermato Kathy Hirsh-Pasek, Ph.D., professoressa di psicologia alla Temple University e ricercatrice senior presso la Brookings Institution.
«Se i giocattoli basati sull’Intelligenza Artificiale vengono ottimizzati per essere coinvolgenti, si rischia di soffocare le relazioni reali nella vita di un bambino, proprio quando ne ha più bisogno», ha aggiunto.
«Oltre a raccogliere enormi quantità di dati sui bambini, inserire chatbot basati sull’intelligenza artificiale nei giocattoli è come avere dei mini robot influencer che sussurrano nelle orecchie dei bambini», ha affermato Hinchliffe. «Non solo li ascoltano, ma conversano con loro, plasmando le loro percezioni e distorcendo la loro realtà».
Secondo alcuni, i bambini sono molto suggestionabili e non sempre possiedono le capacità per distinguere tra giocattoli dotati di intelligenza artificiale e persone reali.
«La mente dei bambini piccoli è come una spugna magica. È predisposta ad attaccarsi», ha spiegato la dottoressa Jenny Radesky, pediatra specializzata in disturbi dello sviluppo e del comportamento, in un parere consultivo di Fairplay del 2025 sui giocattoli con intelligenza artificiale, firmato da circa 80 esperti e 80 organizzazioni.
«Questo rende incredibilmente rischioso dare loro un giocattolo dotato di intelligenza artificiale che percepiranno come senziente, affidabile e parte normale delle relazioni», ha aggiunto.
Rischi nascosti: l’esposizione dei bambini alle radiazioni wireless
I giocattoli dotati di intelligenza artificiale devono connettersi in modalità wireless a Internet per funzionare.
Qualsiasi dispositivo che necessiti di una rete wireless per funzionare emetterà probabilmente livelli dannosi di radiazioni a radiofrequenza (RF), ha affermato Miriam Eckenfels, direttrice del programma sulle radiazioni elettromagnetiche (EMR) e wireless di Children’s Health Defense.
Ha affermato che i bambini sono particolarmente vulnerabili agli effetti nocivi delle radiazioni wireless perché hanno il cranio più sottile, la testa più piccola e un sistema nervoso in via di sviluppo.
Ha aggiunto: «una delle principali raccomandazioni per ridurre l’impatto delle radiazioni a radiofrequenza è quella di tenere le sorgenti a distanza dal corpo. Pertanto, se questa tecnologia è integrata nei giocattoli, è probabile che i bambini li tengano vicini, ci dormano insieme, ci stiano seduti per lunghi periodi di tempo o li tengano vicino alla testa, cosa che sconsigliamo vivamente».
«Sappiamo fin troppo sui pericoli delle radiazioni wireless per poterle sottovalutare».
Eckenfels ha citato una recente ricerca del dottor Paul Héroux, che ha stabilito un collegamento tra le radiazioni elettromagnetiche e il diabete di tipo 2, come uno dei molti gravi effetti sulla salute che i bambini possono subire a causa di tale esposizione.
«Non è certo qualcosa a cui vogliamo che i nostri figli siano esposti 24 ore su 24, 7 giorni su 7. L’integrazione della tecnologia wireless nei giocattoli può avere conseguenze devastanti a lungo termine e dovremmo essere molto cauti al riguardo», ha affermato.
Meta, Google, Anthropic e OpenAI non hanno risposto immediatamente alle richieste di commento.
Brenda Baletti
Ph.D.
© 6 marzo 2026, Children’s Health Defense, Inc. Questo articolo è riprodotto e distribuito con il permesso di Children’s Health Defense, Inc. Vuoi saperne di più dalla Difesa della salute dei bambini? Iscriviti per ricevere gratuitamente notizie e aggiornamenti da Robert F. Kennedy, Jr. e la Difesa della salute dei bambini. La tua donazione ci aiuterà a supportare gli sforzi di CHD.
Renovatio 21 offre questa traduzione per dare una informazione a 360º. Ricordiamo che non tutto ciò che viene pubblicato sul sito di Renovatio 21 corrisponde alle nostre posizioni.
Iscriviti alla Newslettera di Renovatio 21
Essere genitori
Bambini nella neve, bambini nel bosco: pedolatria olimpica e pedofobia di sistema
Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Occulto2 settimane faMassoni accusati di aver assassinato un pilota d’auto e di aver tentato di uccidere altre persone
-



Psicofarmaci1 settimana fa«Nessuno me l’aveva detto»: un’ex paziente psichiatrica denuncia i pericolosi effetti collaterali degli psicofarmaci
-



Sorveglianza1 settimana faOltre il Green Pass: l’OMS con un’azienda legata a Pfizer e Bill Gates lavora ai passaporti vaccinali globali
-



Arte1 settimana faDalla Passione di Gibson alla conversione a Cristo. Renovatio 21 intervista Luca Lionello
-



Spirito2 settimane faTrapianti e magistero cattolico: da Pio XII a Leone XIV, tra retorica del dono e silenzio mortale
-



Salute1 settimana faI malori della 14ª settimana 2026
-



Spirito2 settimane faIl vescovo Strickland difende Miss California
-



Stragi2 settimane faGli USA hanno utilizzato un’arma non convenzionale nell’attacco ad una scuola iraniana














