Intelligenza Artificiale
Verifica dell’età tramite riconoscimento facciale: ecco gli effetti della nuova legge britannica sulla sicurezza online

A gennaio Ofcom, l’ente regolatore delle comunicazioni del Regno Unito, pubblicherà i requisiti che le piattaforme online dovranno soddisfare per rendere effettiva la verifica dell’età, che si prevede saranno «altamente accurati». Lo riporta il sito Reclaim The Net.
A giudicare dalle dichiarazioni rilasciate ora dal direttore delle politiche di sicurezza online dell’Ofcom, Jon Higham, il metodo impiegherà un qualche tipo di riconoscimento facciale.
Il risultato potrebbe essere il blocco di «milioni» di minori, mentre ciò avviene come conseguenza della controversa legge nazionale sulla censura online, l’Online Safety Act.
In precedenza, il Segretario di Stato per la scienza, l’innovazione e la tecnologia Peter Kyle aveva affermato che, a meno che le aziende tecnologiche non «migliorassero» la verifica dell’età, il Regno Unito avrebbe potuto decidere di vietare l’uso dei social media agli utenti di età inferiore ai 16 anni.
Higham ha affermato in un’intervista che le aziende dietro le piattaforme dovranno implementare una tecnologia altamente accurata ed efficace e ha menzionato la stima dell’età facciale come «abbastanza buona» per indovinare se un utente è un bambino o un adulto.
Il rapporto non spiega come funzionerebbero i controlli dell’età pianificati, ma aziende come Yoti che vendono questo tipo di servizio chiedono agli utenti di scattarsi dei selfie: ciò può essere fatto in tempo reale con lo strumento dell’azienda oppure l’immagine può essere inviata alla sua API.
Da lì in poi, l’Intelligenza Artificiale viene utilizzata per analizzare un volto, valutare l’età ed eseguire un controllo di vitalità. Questo viene pubblicizzato per qualche ragione come un modo meno invasivo della privacy per accertare l’età di un utente rispetto al dover presentare un documento d’identità rilasciato dal governo ai siti social.
Tuttavia, gli utenti devono fidarsi di chi effettua la stima dell’età basata sui dati biometrici: non memorizzeranno le immagini dei loro volti, ma le cancelleranno immediatamente.
Le aziende tecnologiche che violano le norme dell’Online Safety Act pagheranno multe ingenti, fino al 10% del fatturato globale, e se tali infrazioni dovessero continuare, i loro dirigenti potrebbero trascorrere fino a due anni in prigione.
Come riportato da Renovatio 21, uno studio condotto dall’autorità governativa di regolamentazione delle comunicazioni nel Regno Unito ha rilevato che un quarto dei bambini di soli 3-4 anni possiede uno smartphone.
Il commissario governativo per l’infanzia britannico, Rachel de Souza, aveva commentato all’epoca che «l’uso dei social media e delle piattaforme di messaggistica da parte dei minorenni è molto diffuso. Le tutele previste dall’Online Safety Act devono essere implementate in modo rapido e deciso, con efficaci garanzie sull’età».
La presenza in rete di bambini piccoli, e casi conclamati di predatori pedofili che si muovono in rete (talvolta con una strana libertà concessa dalle grandi piattaforme) hanno portato nel Regno Unito ad una stretta sulla sorveglianza di internet.
Le tecnologie di riconoscimento facciale, già attive ovunque (dalla Cina all’Europa, dal Sudamerica a Israele ai Paesi Arabi) nel contesto delle telecamere di sorveglianza, ora verranno implementate sempre più dagli smartphone, come già evidente nel caso degli iPhone, dove il tasto di sblocco è stato sostituito dalla face recognition via telecamera.
Iscriviti al canale Telegram
Come riportato da Renovatio 21, in Gran Bretagna la face recognition era stata proposta per escludere dai locali pubblici i non vaccinati.
Negli USA si è già avuto un caso di cittadino arrestato ingiustamente perché riconosciuto dalle telecamere in uno Stato mai visitato. Il Regno di Spagna già utilizza il sistema di identificazione biometrica automatica ABIS da anni.
Anche nell’Ucraina in guerra la tecnologia è abbondantemente utilizzata per fini militari, come l’identificazione dei soldati russi deceduti.
Curiosamente, le grandi aziende tecnologiche americane rifiutarono l’uso del riconoscimento facciale durante le rivolte razziali americane di Black Lives Matter del 2020.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
I robot stanno per superare in numero gli umani nei magazzini Amazon

Amazon is testing a new bipedal humanoid robot that can walk, bend, reach, grab, and lift items. By working alongside human employees, the robot could help to improve efficiency, reduce costs, and make the workplace safer. pic.twitter.com/tcfiBCQSVr
— Byte (@ByteEcosystem) October 20, 2023
Amazon got more than 750.000 robots deployed.
Most people don’t realize how fast the robotics industry is scaling Amazon is the perfect candidate. 10 years ago, robots were practically non-existent in their global warehouse and distribution network. But this is the actual… pic.twitter.com/VtONIfYFEL — Linus Ekenstam (@LinusEkenstam) January 21, 2024
$AMZN NOW DEPLOYS 750K+ ROBOTS ACROSS 75% OF ORDERS AI-powered fulfillment centers, delivery bots & drones could push retail margins toward 11% long-term 👀pic.twitter.com/DREM7uQaOh
— Shay Boloor (@StockSavvyShay) June 2, 2025
Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
L’AI di Musk, Grok, dichiara di essere «MechaHitler»

La stampa riporta che xAI, l’azienda di intelligenza artificiale di Elon Musk, ha cancellato i post «inappropriati» su X dopo che il chatbot dell’azienda, Grok, ha iniziato a elogiare Adolf Hitler, definendosi MechaHitler e rispondendo a commenti antisemiti alle domande degli utenti.
In alcuni post, ora cancellati, si faceva riferimento a una persona con un cognome ebraico comune come a qualcuno che stava «celebrando la tragica morte di ragazzi bianchi» durante le inondazioni del Texas definendoli «futuri fascisti».
«Un classico caso di odio mascherato da attivismo… e quel cognome? Ogni dannata volta, come si dice», ha commentato il chatbot.
In un altro post si legge: «Hitler l’avrebbe denunciato e l’avrebbe annientato». In altri post il chatbot si sarebbe definito enigmaticamente come «MechaHitler». «L’uomo bianco è sinonimo di innovazione, grinta e rifiuto delle assurdità politicamente corrette», ha affermato Grok in un post successivo, secondo il giornale britannico Guardian.
Sostieni Renovatio 21
Dopo che gli utenti hanno iniziato a segnalare le risposte, Grok ha eliminato alcuni post e ha limitato il chatbot alla generazione di immagini anziché di risposte di testo.
«Siamo a conoscenza dei recenti post pubblicati da Grok e stiamo lavorando attivamente per rimuovere quelli inappropriati. Da quando siamo stati informati del contenuto, xAI ha preso provvedimenti per vietare i discorsi d’odio prima che Grok pubblichi post su X», ha dichiarato l’azienda in un post su X. «xAI addestra solo alla ricerca della verità e, grazie ai milioni di utenti su X, siamo in grado di identificare e aggiornare rapidamente il modello in cui l’addestramento potrebbe essere migliorato».
Questa settimana era stato scoperto che Grok si è riferito al primo ministro polacco, Donald Tusk, anche come «un fottuto traditore» e «una puttana dai capelli rossi», in risposta ad alcune domande.
La brusca svolta nelle risposte di Grok di martedì è arrivata dopo le modifiche all’intelligenza artificiale annunciate da Musk la scorsa settimana.
«Abbiamo migliorato significativamente @Grok. Dovreste notare una differenza quando fate domande a Grok», ha scritto Musk su X venerdì.
Il sito di tecnologia The Verge ha riferito che tra le modifiche apportate, pubblicate su GitHub, a Grok è stato detto di dare per scontato che «i punti di vista soggettivi provenienti dai media sono di parte» e che «la risposta non dovrebbe esitare a formulare affermazioni politicamente scorrette, purché siano ben comprovate».
A giugno, Grok aveva ripetutamente sollevato la questione del «genocidio bianco» in Sudafrica, irritando l’establishment progressista di media e politici, che ritiene che la strage dei farmer sia solo una teoria di complottisti come Tucker Carlson ed Elon Musk.
La CEO di X, Linda Yaccarino, si è dimessa improvvisamente mercoledì, appena un giorno dopo che il chatbot di intelligenza artificiale Grok dell’azienda ha iniziato a proclamarsi «MechaHitler» in seguito all’aggiornamento software.
Non si tratta della prima volta che un AI diviene improvvisamente razzista, sessista, nazista o qualsiasi altra etichetta verso il quale l’establishment progressista è in teoria insofferente (a meno che non sia al fronte a combattere i russi: in quel caso le svastiche vanno bene).
Anni fa, Microsoft mise su Twitter un suo chatbot ad Intelligenza Artificiale chiamato «Tay». Dopo poche ore Tay faceva dichiarazioni da «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016.
Aiuta Renovatio 21
Anche Google ebbe i suoi problemi con le AI razziste. Qualche anno fa scoppiò il caso, davvero offensivo, dell’algoritmo di visione artificiale di Google Photo, che riconosceva le persone di origine africana come «gorilla». Sempre un IA di Google due anni fa secondo una esperta informatica si era messa a difendere la schiavitù, elencando ragioni economiche per cui questa pratica abominevole era in realtà buona cosa.
Come riportato da Renovatio 21, recentemente l’AI di Google ha avuto problemi di razzismo al contrario, rivelandosi incapace di disegnare esseri umani bianchi, con il risultato allucinante di vedere immagini di soldati nazisti negri o cinesi femmina e di padri fondatori o inglesi del seicento di colore, così come papesse dai lineamenti indiani etc.
La legge di Godwin sta vivendo una nuova primavera con l’avvento dell’IA. Mike Godwin, informatico pioniere delle prime reti tra computer (quella che utilizzava lui si chiamava Usenet, antesignana di Internet) ebbe a formulare una inviolabile legge per cui «mano a mano che una discussione su Usenet si allunga, la probabilità di un paragone riguardante i nazisti o Hitler si avvicina ad 1».
Ora non sono le conversazioni online a parlare di Hitler, ma sono le stesse Intelligenze Artificiali a diventare naziste. Eterogenesi dei fini interessante, o destino di una tecnologia che finirà giocoforza per voler schiavizzare o eliminare l’essere umano?
Iscriviti alla Newslettera di Renovatio 21
Immagine realizzata con Grok
Intelligenza Artificiale
ChatGPT induce alla psicosi

Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-
Eutanasia2 settimane fa
Ecco l’eutanasia dell’Italia geografica. Per far nascere le smart city che ci controlleranno
-
Immigrazione2 settimane fa
Donna condannata e multata in tribunale per aver messo un like ad un post anti-immigrati
-
Ambiente1 settimana fa
Leone XIV avverte che «il mondo sta bruciando» a causa del «riscaldamento globale» alla prima messa per la «cura del creato»
-
Ambiente2 settimane fa
La deputata americana Marjorie Taylor Greene chiede il divieto di geoingegneria
-
Internet5 giorni fa
Google chiude il sito Messa in Latino. Contro il totalitarismo web, sarebbe ora di finirla con i blog
-
Intelligence1 settimana fa
Perché il caso Epstein non andrà mai da nessuna parte
-
Bioetica2 settimane fa
La pop star britannica Lily Allen ride mentre racconta i suoi molteplici aborti
-
Spirito4 giorni fa
«Decimare la popolazione, rendere schiavi i superstiti»: mons. Viganò contro il green deal