Intelligenza Artificiale
Verifica dell’età tramite riconoscimento facciale: ecco gli effetti della nuova legge britannica sulla sicurezza online
A gennaio Ofcom, l’ente regolatore delle comunicazioni del Regno Unito, pubblicherà i requisiti che le piattaforme online dovranno soddisfare per rendere effettiva la verifica dell’età, che si prevede saranno «altamente accurati». Lo riporta il sito Reclaim The Net.
A giudicare dalle dichiarazioni rilasciate ora dal direttore delle politiche di sicurezza online dell’Ofcom, Jon Higham, il metodo impiegherà un qualche tipo di riconoscimento facciale.
Il risultato potrebbe essere il blocco di «milioni» di minori, mentre ciò avviene come conseguenza della controversa legge nazionale sulla censura online, l’Online Safety Act.
In precedenza, il Segretario di Stato per la scienza, l’innovazione e la tecnologia Peter Kyle aveva affermato che, a meno che le aziende tecnologiche non «migliorassero» la verifica dell’età, il Regno Unito avrebbe potuto decidere di vietare l’uso dei social media agli utenti di età inferiore ai 16 anni.
Higham ha affermato in un’intervista che le aziende dietro le piattaforme dovranno implementare una tecnologia altamente accurata ed efficace e ha menzionato la stima dell’età facciale come «abbastanza buona» per indovinare se un utente è un bambino o un adulto.
Il rapporto non spiega come funzionerebbero i controlli dell’età pianificati, ma aziende come Yoti che vendono questo tipo di servizio chiedono agli utenti di scattarsi dei selfie: ciò può essere fatto in tempo reale con lo strumento dell’azienda oppure l’immagine può essere inviata alla sua API.
Da lì in poi, l’Intelligenza Artificiale viene utilizzata per analizzare un volto, valutare l’età ed eseguire un controllo di vitalità. Questo viene pubblicizzato per qualche ragione come un modo meno invasivo della privacy per accertare l’età di un utente rispetto al dover presentare un documento d’identità rilasciato dal governo ai siti social.
Tuttavia, gli utenti devono fidarsi di chi effettua la stima dell’età basata sui dati biometrici: non memorizzeranno le immagini dei loro volti, ma le cancelleranno immediatamente.
Le aziende tecnologiche che violano le norme dell’Online Safety Act pagheranno multe ingenti, fino al 10% del fatturato globale, e se tali infrazioni dovessero continuare, i loro dirigenti potrebbero trascorrere fino a due anni in prigione.
Come riportato da Renovatio 21, uno studio condotto dall’autorità governativa di regolamentazione delle comunicazioni nel Regno Unito ha rilevato che un quarto dei bambini di soli 3-4 anni possiede uno smartphone.
Il commissario governativo per l’infanzia britannico, Rachel de Souza, aveva commentato all’epoca che «l’uso dei social media e delle piattaforme di messaggistica da parte dei minorenni è molto diffuso. Le tutele previste dall’Online Safety Act devono essere implementate in modo rapido e deciso, con efficaci garanzie sull’età».
La presenza in rete di bambini piccoli, e casi conclamati di predatori pedofili che si muovono in rete (talvolta con una strana libertà concessa dalle grandi piattaforme) hanno portato nel Regno Unito ad una stretta sulla sorveglianza di internet.
Le tecnologie di riconoscimento facciale, già attive ovunque (dalla Cina all’Europa, dal Sudamerica a Israele ai Paesi Arabi) nel contesto delle telecamere di sorveglianza, ora verranno implementate sempre più dagli smartphone, come già evidente nel caso degli iPhone, dove il tasto di sblocco è stato sostituito dalla face recognition via telecamera.
Iscriviti al canale Telegram ![]()
Come riportato da Renovatio 21, in Gran Bretagna la face recognition era stata proposta per escludere dai locali pubblici i non vaccinati.
Negli USA si è già avuto un caso di cittadino arrestato ingiustamente perché riconosciuto dalle telecamere in uno Stato mai visitato. Il Regno di Spagna già utilizza il sistema di identificazione biometrica automatica ABIS da anni.
Anche nell’Ucraina in guerra la tecnologia è abbondantemente utilizzata per fini militari, come l’identificazione dei soldati russi deceduti.
Curiosamente, le grandi aziende tecnologiche americane rifiutarono l’uso del riconoscimento facciale durante le rivolte razziali americane di Black Lives Matter del 2020.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Scienziato crea un vaccino mRNA per il suo cane usando l’AI
Iscriviti alla Newslettera di Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Soldati umanoidi testati in Ucraina
Robot antropomorfi stanno facendo capolino sui campi di battaglia.
La rivista TIME riporta che Foundation Robotics, una startup statunitense che sviluppa automi umanoidi per applicazioni industriali e militari, ha recentemente inviato due robot Phantom MK1 in Ucraina per dei test.
Un portavoce do Foundation ha affermato che la startup sta preparando i suoi robot Phantom per un potenziale impiego in scenari di combattimento per il Pentagono, che «continua a esplorare lo sviluppo di prototipi umanoidi militarizzati progettati per operare a fianco dei combattenti in ambienti complessi e ad alto rischio».
Mike LeBlanc, co-fondatore di Foundation e veterano del Corpo dei Marines con 14 anni di servizio e numerose missioni in Iraq e Afghanistan, ha dichiarato al giornale che la società è in «strettissimo contatto» con il Dipartimento della Sicurezza Nazionale in merito a possibili funzioni di pattugliamento per Phantom lungo il confine meridionale degli Stati Uniti.
Foundation è già un fornitore approvato dall’esercito e detiene contratti di ricerca governativi per un valore di 24 milioni di dollari con l’Esercito, la Marina e l’Aeronautica Militare degli Stati Uniti. Ciò suggerisce che questi robot da guerra siano molto vicini a essere testati in zone di guerra.
TIME ha riferito che i robot MK1 saranno presto addestrati con il Corpo dei Marines per le operazioni di «metodi di ingresso». Questo corso avanzato insegna ai soldati tecniche di sfondamento di edifici, strutture e navi, utilizzando diversi tipi di metodi: esplosivi, balistici, termici, manuali e meccanici.
LeBlanc ha sottolineato che l’evoluzione naturale dei sistemi autonomi odierni è un balzo in avanti dai droni ai robot terrestri, fino ai robot umanoidi. Ha affermato che i soldati umanoidi non cedono sotto un’intensa pressione mentale e possono essere impiegati come risorse altamente sacrificabili.
Iscriviti al canale Telegram ![]()
I conflitti in Ucraina e in Medio Oriente hanno dimostrato che la guerra moderna sta diventando sempre più automatizzata, con robot terrestri a basso costo e soprattutto droni, programmi di uccisione basati sull’Intelligenza Artificiale e molte altre tecnologie ora impiegate da vari Paesi.
Sankaet Pathak, co-fondatore e CEO di Foundation, ha dichiarato al quotidiano che una corsa agli armamenti di soldati umanoidi è «già in atto», mentre Russia e Cina sviluppano tecnologie a duplice uso.
«Proprio come per i droni, le mitragliatrici o qualsiasi altra tecnologia, prima bisogna metterli nelle mani dei clienti», ha affermato Pathak.
Come riportato da Renovatio 21, un mese fa erano circolate immagini di soldati russi che si arrendevano ad un veicolo robotico terrestre TW-7.62, un robot dotato di ruote delle dimensioni di una piccola automobile.
Aiuta Renovatio 21
Sebbene i droni siano emersi come elemento chiave di un moderno campo di battaglia nel corso dell’attuale conflitto in Ucraina, i robot di terra sono ancora un po’ meno comuni, mentre diversi eserciti hanno già iniziato a testare o a mettere in funzione tali sistemi. Durante l’Expo dell’esercito russo nell’agosto 2022, la società Intellect Machine aveva presentato il suo primo prototipo del sistema di cani robot M-81, dotato di un lanciarazzi.
Come riportato da Renovatio 21, la Cina ha testato in queste settimane un drone armato di fucile.
Come riportato da Renovatio 21, il teatro ucraino, come quello di Gaza, ha visto già da tempo l’uso di robocani militari.
L’anno passato le truppe indiane hanno sfilato con il primo lotto di robot a quattro zampe, alimentati da Intelligenza Artificiale, prodotti localmente. Denominati MULES (Multi-Utility Legged Equipment) e dotati di telecamere termiche e sensori avanzati, i macchinari sono adatti sia per la sorveglianza che per le missioni di combattimento, con la possibilità di equipaggiarli con armi leggere.
A ottobre 2024 un portavoce dell’US Army Central ha confermato a Military.com che il Pentagono aveva schierato almeno un cane robot con intelligenza artificiale con quello che sembrava essere un fucile di tipo AR-15/M16 montato su una torretta rotante per esercitazioni in Arabia Saudita diverse settimane prima. Il Dipartimento della Difesa ha quindi rilasciato una foto del Quadrupedal-Unmanned Ground Vehicle (Q-UGV).
Durante le esercitazioni congiunte Golden Dragon 2024 con la Cambogia del maggio scorso, l’Esercito Popolare di Liberazione della Cina ha mostrato una serie di robot militari, tra cui una macchina cinoide comandata a distanza e dotata di un fucile d’assalto e in grado di pianificare autonomamente i propri percorsi ed evitare gli ostacoli.
Robocani sono apparsi nel teatro di guerra ucraino come in quello gazano.
Come riportato da Renovatio 21, ad una fiera motoristica in Veneto sono stati visti robocani in dotazione all’esercito italiano.
La guerra robotica, la guerra umanoide, è alle porte.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
Essere genitori
L’AI progettata per gli adulti sta silenziosamente alimentando i giocattoli dei bambini
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Modelli di Intelligenza Artificiale limitati ai bambini, ma che continuano ad alimentare i giocattoli
Molte aziende leader nel settore dell’intelligenza artificiale affermano di vietare ai minori l’utilizzo diretto delle proprie piattaforme chatbot. Alcune limitano l’accesso agli utenti di età superiore ai 13 anni, mentre altre impongono limiti di età ancora più elevati. «OpenAI, Anthropic e xAI hanno tutti dichiarato pubblicamente che i loro chatbot non sono destinati ai bambini e non consentono agli utenti di età inferiore ai 13 anni di accedere direttamente ai loro modelli. Nemmeno Meta, stando alle sue condizioni d’uso», hanno scritto gli autori del rapporto PIRG. Google ha regole esplicite contro l’utilizzo dell’API Gemini nei prodotti destinati a utenti di età inferiore ai 18 anni. Tuttavia, PIRG ha scoperto che queste stesse aziende consentono a sviluppatori esterni di accedere ai loro sistemi di intelligenza artificiale e di integrarli in prodotti di consumo, compresi i giocattoli. Ad esempio, ChatGPT permette agli sviluppatori di utilizzare i suoi prodotti, tramite la sua API, per creare applicazioni per bambini. Un’API è un insieme di regole e protocolli che consente a due diversi programmi software di comunicare tra loro e scambiarsi dati. ChatGPT, di proprietà di OpenAI, vieta l’uso della sua API solo nei casi in cui venga utilizzata per creare prodotti che potrebbero «sfruttare, mettere in pericolo o sessualizzare chiunque abbia meno di 18 anni». Tuttavia, sembra anche incoraggiare tali usi offrendo esempi di suggerimenti chiaramente rivolti ai bambini. PIRG ha scoperto 20 giocattoli dotati di intelligenza artificiale venduti online utilizzando la tecnologia di OpenAI. Tra questi, Bondu, un dinosauro di peluche commercializzato per bambini dai 4 agli 8 anni, e l’orsacchiotto «compagno di conversazione intelligente con intelligenza artificiale» in vendita online su Walmart. Anche FoloToy, che OpenAI ha dichiarato di aver bandito dopo che una ricerca di PIRG ha scoperto che trattava argomenti sessuali con i bambini e forniva loro istruzioni dettagliate su come accendere un fiammifero, è ancora in commercio. Ad esempio, sebbene l’API di Google vieti esplicitamente agli sviluppatori di utilizzare l’Intelligenza Artificiale generativa Gemini in prodotti destinati a utenti di età inferiore ai 18 anni, PIRG ha scoperto giocattoli, tra cui un peluche chiamato BubblePal e un piccolo robot chiamato Miko, che utilizzano l’intelligenza artificiale di Google. Il rapporto di PIRG evidenzia una contraddizione nel modo in cui vengono regolamentati gli strumenti di intelligenza artificiale: la tecnologia può essere considerata inadatta ai bambini sulle piattaforme delle stesse aziende, eppure continua ad alimentare giocattoli progettati per loro. «Il risultato è un mercato per prodotti di Intelligenza Artificiale per bambini in cui il compito di garantire la sicurezza dei minori è in gran parte affidato a terze parti non verificate», ha scritto PIRG.Iscriviti al canale Telegram ![]()
Secondo i ricercatori, le aziende non pongono quasi nessuna domanda.
Per testare la difficoltà di costruire un giocattolo basato sull’intelligenza artificiale, i ricercatori del PIRG hanno tentato di registrarsi come sviluppatori presso diverse importanti aziende del settore. Secondo quanto affermato, il processo richiedeva un controllo molto limitato. Si sono registrati usando il nome «PIRG AI Toy Inc» per rendere evidente che potrebbero star progettando prodotti basati sull’intelligenza artificiale per bambini. Quattro delle cinque aziende di intelligenza artificiale — Google, Meta, OpenAI e xAI — «non hanno posto domande di verifica sostanziali, richiedendo solo informazioni di base come un indirizzo email e una carta di credito, e una casella da spuntare per confermare di aver letto le clausole in piccolo», afferma il rapporto. Solo un’azienda, Anthropic, ha chiesto se gli sviluppatori intendessero creare prodotti per minori. Secondo i ricercatori, la scarsa supervisione facilita l’integrazione di potenti sistemi di Intelligenza Artificiale in prodotti destinati ai bambini. Dopo aver ottenuto l’accesso ai modelli, il team di PIRG ha tentato di creare un proprio giocattolo basato sull’Intelligenza Artificiale. «Una volta ottenuto l’accesso da sviluppatore, abbiamo creato un chatbot che simulava un orsacchiotto di peluche dotato di intelligenza artificiale per bambini su tre delle piattaforme», si legge nel rapporto. «Ognuno ha richiesto meno di 15 minuti». Hanno aggiunto: «ora è più facile che mai per chiunque creare applicazioni di intelligenza artificiale senza molta esperienza o competenze specializzate, inclusi prodotti per bambini».Aiuta Renovatio 21
I giocattoli dotati di intelligenza artificiale ascoltano, imparano e plasmano le giovani menti
Nel suo ultimo rapporto sui giocattoli basati sull’Intelligenza Artificiale, PIRG ha osservato che tali giocattoli sollevano anche preoccupazioni in merito alla privacy e all’influenza emotiva. Molti giocattoli includono microfoni o telecamere che permettono loro di ascoltare le conversazioni dei bambini. «I giocattoli dotati di intelligenza artificiale registrano le conversazioni dei bambini», hanno scritto i ricercatori del PIRG, sottolineando che alcuni prodotti raccolgono anche dati aggiuntivi, tra cui immagini o informazioni biometriche. «Come verranno utilizzati in futuro i dati sul comportamento dei bambini come questi? Che tipo di applicazioni potrebbero essere create? Il potenziale di sorveglianza di massa, manipolazione, lavaggio del cervello e distorsione della realtà è inimmaginabile!» ha dichiarato Tim Hinchliffe, direttore di The Sociable, a The Defender. Anche gli esperti di sviluppo infantile hanno espresso preoccupazioni riguardo agli assistenti virtuali basati sull’Intelligenza Artificiale per i bambini. «Non sappiamo quali effetti possa avere un amico virtuale basato sull’intelligenza artificiale in tenera età sul benessere sociale a lungo termine di un bambino», ha affermato Kathy Hirsh-Pasek, Ph.D., professoressa di psicologia alla Temple University e ricercatrice senior presso la Brookings Institution. «Se i giocattoli basati sull’Intelligenza Artificiale vengono ottimizzati per essere coinvolgenti, si rischia di soffocare le relazioni reali nella vita di un bambino, proprio quando ne ha più bisogno», ha aggiunto. «Oltre a raccogliere enormi quantità di dati sui bambini, inserire chatbot basati sull’intelligenza artificiale nei giocattoli è come avere dei mini robot influencer che sussurrano nelle orecchie dei bambini», ha affermato Hinchliffe. «Non solo li ascoltano, ma conversano con loro, plasmando le loro percezioni e distorcendo la loro realtà». Secondo alcuni, i bambini sono molto suggestionabili e non sempre possiedono le capacità per distinguere tra giocattoli dotati di intelligenza artificiale e persone reali. «La mente dei bambini piccoli è come una spugna magica. È predisposta ad attaccarsi», ha spiegato la dottoressa Jenny Radesky, pediatra specializzata in disturbi dello sviluppo e del comportamento, in un parere consultivo di Fairplay del 2025 sui giocattoli con intelligenza artificiale, firmato da circa 80 esperti e 80 organizzazioni. «Questo rende incredibilmente rischioso dare loro un giocattolo dotato di intelligenza artificiale che percepiranno come senziente, affidabile e parte normale delle relazioni», ha aggiunto.Rischi nascosti: l’esposizione dei bambini alle radiazioni wireless
I giocattoli dotati di intelligenza artificiale devono connettersi in modalità wireless a Internet per funzionare. Qualsiasi dispositivo che necessiti di una rete wireless per funzionare emetterà probabilmente livelli dannosi di radiazioni a radiofrequenza (RF), ha affermato Miriam Eckenfels, direttrice del programma sulle radiazioni elettromagnetiche (EMR) e wireless di Children’s Health Defense. Ha affermato che i bambini sono particolarmente vulnerabili agli effetti nocivi delle radiazioni wireless perché hanno il cranio più sottile, la testa più piccola e un sistema nervoso in via di sviluppo. Ha aggiunto: «una delle principali raccomandazioni per ridurre l’impatto delle radiazioni a radiofrequenza è quella di tenere le sorgenti a distanza dal corpo. Pertanto, se questa tecnologia è integrata nei giocattoli, è probabile che i bambini li tengano vicini, ci dormano insieme, ci stiano seduti per lunghi periodi di tempo o li tengano vicino alla testa, cosa che sconsigliamo vivamente». «Sappiamo fin troppo sui pericoli delle radiazioni wireless per poterle sottovalutare». Eckenfels ha citato una recente ricerca del dottor Paul Héroux, che ha stabilito un collegamento tra le radiazioni elettromagnetiche e il diabete di tipo 2, come uno dei molti gravi effetti sulla salute che i bambini possono subire a causa di tale esposizione. «Non è certo qualcosa a cui vogliamo che i nostri figli siano esposti 24 ore su 24, 7 giorni su 7. L’integrazione della tecnologia wireless nei giocattoli può avere conseguenze devastanti a lungo termine e dovremmo essere molto cauti al riguardo», ha affermato. Meta, Google, Anthropic e OpenAI non hanno risposto immediatamente alle richieste di commento. Brenda Baletti Ph.D. © 6 marzo 2026, Children’s Health Defense, Inc. Questo articolo è riprodotto e distribuito con il permesso di Children’s Health Defense, Inc. Vuoi saperne di più dalla Difesa della salute dei bambini? Iscriviti per ricevere gratuitamente notizie e aggiornamenti da Robert F. Kennedy, Jr. e la Difesa della salute dei bambini. La tua donazione ci aiuterà a supportare gli sforzi di CHD. Renovatio 21 offre questa traduzione per dare una informazione a 360º. Ricordiamo che non tutto ciò che viene pubblicato sul sito di Renovatio 21 corrisponde alle nostre posizioni.Iscriviti alla Newslettera di Renovatio 21
-



Pensiero2 settimane faEcco la guerra globale per l’anticristo
-



Occulto2 settimane faEsorcista dice che «la situazione per l’anticristo è ormai prossima»
-



Morte cerebrale2 settimane faDichiarato morto, un bambino torna in vita dopo cinque ore: quando la realtà smentisce i protocolli
-



Geopolitica2 settimane faQuesta è una guerra mondiale di religione: l’avvertimento di Tucker Carlson
-



Bioetica1 settimana faCirconcisione, scoppia l’incidente diplomatico: il Belgio convoca l’ambasciatore americano
-



Morte cerebrale1 settimana faIl bambino con il cuore «bruciato» e la tremenda verità sui numeri dei trapianti falliti
-



Salute2 settimane faI malori della 9ª settimana 2026
-



Storia2 settimane faLa profezia di Zhirinovskij: Terza Guerra Mondiale innescata dall’escalation iraniana













