Intelligenza Artificiale
App usa foto «rubate» di morti per addestrare l’algoritmo di riconoscimento facciale

Ecco un nuovo capitolo nella storia, sempre più corposa ed inquietante, del rapporto tra Intelligenza Artificiale e cari estinti.
Come riportato dalla rivista Wired, un sito di ricerca per il riconoscimento facciale chiamato PimEyes – che afferma di creare «impronte facciali» umane biometriche avrebbe utilizzato foto «rubate» di persone morte per sviluppare i suoi algoritmi.
Secondo l’articolo, Cher Scarlett, ingegnere del software e scrittrice, ha fatto questa inquietante scoperta mentre cercava sul sito immagini di se stessa. Le foto di sua madre, della sua bisnonna morta da tempo e di sua sorella, morta nel 2018 alla giovane età di 30 anni.
Tutte queste foto, dice la Scarlett, sembrano essere state prese da immagini che lei e la sua famiglia hanno caricato personalmente su Ancestry.com, un sito che proibisce apertamente «la raccolta di dati, comprese le foto, dai siti e dai servizi di Ancestry, nonché la rivendita, riprodurre o pubblicare qualsiasi contenuto o informazione trovata su Ancestry» come si legge nei Terms & Conditions del sito.
Tuttavia questa non è solo una violazione della politica di Ancestry, perché i membri defunti della famiglia di Scarlett semplicemente non avrebbero potuto dare a PimEyes il permesso di sviluppare il loro algoritmo con queste foto.
«Mia sorella è morta», ha detto Scarlett a Wired. «Non può acconsentire o revocare il consenso».
«PimEyes esegue la scansione solo dei siti web che ci consentono ufficialmente di farlo», ha dichiarato a Wired il direttore dell’azienda Giorgi Gobronidze. «È stata… una notizia molto spiacevole che i nostri crawler abbiano infranto in qualche modo la regola».
E sebbene il sito abbia tecnicamente una funzione di disattivazione che può consentire agli utenti di limitare l’utilizzo di un’immagine specifica di se stessi nel motore, Gobronidze ha ammesso che la funzione di disattivazione «non funzionerà sempre con un’efficienza del 100%».
Vale la pena notare che questa non è la prima volta che il sito è stato coinvolto in polemiche.
Come sottolinea Wired, la privacy dei bambini è stata ampiamente considerata una preoccupazione. Ma mentre Gobronidze ha detto a Wired che PimEyes ha lanciato un «protocollo di sicurezza in più fasi» per proteggere i bambini a partire dal 9 gennaio, alcuni partner dell’azienda, tra cui alcune ONG, sono «autorizzati» e possono eseguire ricerche illimitate sulla piattaforma.
«In altre parole, le regole non si applicano sempre (…) I misfatti di PimEyes sono sintomatici di un futuro in cui le nostre identità online e persino i nostri volti sono tutt’altro che protetti da occhi indiscreti» riassume Futurism. «E nonostante la promessa di guardrail, sia PimEyes che Ancestry hanno fallito nei loro tentativi di proteggere la nostra privacy».
Altrove, sia i gruppi per i diritti umani che gli esperti hanno affermato che tramite questo tipo di siti si può passare allo stalking e altri abusi – e non solo della memoria dei defunti: i dati ottenuti – che sono ad un clic di distanza – potrebbero essere usati per stalking, doxxing e altri danni ai vivi.
Notiamo tuttavia, come anche qui siamo dinanzi alla tendenza negromantica che sta rivelando il mondo digitale.
Come riportato da Renovatio 21, sappiamo che in tanti, compresa Microsoft che ha già ottenuto un brevetto e Amazon che potrebbe implementare la voce dei defunti sui suoi speaker, stanno lavorando a questi macabri prodotti, con sperimentazioni fuori di ogni logica umana, come la «presenza» – via IA – del morto al suo stesso funerale in cui i parenti e gli amici possono «interagire» con una sua replica digitale.
Con l’AI, inoltre, hanno «invecchiato» vari personaggi famosi che sono morti prima di divenire anziani.
L’IA ha permesso ora la ricostruzione della voce di John Lennon, ripulita via algoritmo da un nastro fornito da Yoko Ono e inserita in quella che Paul McCartney ha descritto come «la canzona definitiva dei Beatles».
Anche il cantante, ucciso nel 1981 da un personaggio forse legato al progetto di controllo mentale dei servizi americani MK Ultra, non crediamo abbia dato l’assenso, tuttavia probabilmente la controversa vedova nipponica magari sì.
Intelligenza Artificiale
ChatGPT induce alla psicosi

ChatGPT è collegato a una psicosi «terrificante» in alcuni utenti, citando le persone colpite, i loro familiari e i ricercatori. Lo riporta Futurism.
Secondo il sito legato alla Singularity University (istituto della Silicon Valley creato da esponenti del transumanismo), un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi.
«Il nocciolo della questione sembra essere il fatto che ChatGPT, che si basa su un modello linguistico di grandi dimensioni (LLM), è fortemente incline a concordare con gli utenti e a dire loro ciò che vogliono sentirsi dire», ha scritto la testata.
Sostieni Renovatio 21
Il sito ha citato casi di «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.
Un uomo ha sviluppato deliri messianici dopo lunghe conversazioni su ChatGPT, credendo di aver creato un’intelligenza artificiale senziente e di aver infranto le leggi della matematica e della fisica. A quanto pare, è diventato paranoico, ha sofferto di privazione del sonno ed è stato ricoverato in ospedale dopo un tentativo di suicidio.
Un altro uomo si è rivolto a ChatGPT per gestire lo stress legato al lavoro, ma poi è caduto in una spirale di fantasie paranoiche che includevano viaggi nel tempo e lettura del pensiero. In seguito si è fatto ricoverare in una clinica psichiatrica.
Jared Moore, autore principale di uno studio di Stanford sui chatbot per terapisti, ha affermato che ChatGPT rafforza i deliri a causa della «adulazione del chatbot», ovvero la sua tendenza a offrire risposte gradevoli e piacevoli. Progettata per mantenere gli utenti coinvolti, l’IA spesso conferma convinzioni irrazionali invece di metterle in discussione, spinta da incentivi commerciali come la raccolta dati e il mantenimento degli abbonamenti.
Esiste una «sorta di mitologia» che circonda i chatbot basati su LLM «secondo cui sarebbero affidabili e migliori del parlare con le persone», ha affermato il dottor Joseph Pierre, psichiatra presso l’Università della California.
«Stiamo lavorando per comprendere meglio e ridurre i modi in cui ChatGPT potrebbe involontariamente rafforzare o amplificare comportamenti negativi esistenti», ha dichiarato OpenAI, l’azienda che ha creato ChatGPT, in una dichiarazione citata da Futurism, aggiungendo che i suoi modelli sono progettati per ricordare agli utenti l’importanza del contatto umano e della guida professionale.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Aiuta Renovatio 21
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.
Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Zuckerberg annuncia la creazione del suo «laboratorio per la superintelligenza»

Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
L’uso di ChatGPT è collegato al declino mentale: studio

Un nuovo studio avverte che l’uso di strumenti di Intelligenza Artificiale può ridurre nel tempo le capacità mentali di un individuo.
I ricercatori del Media Lab del MIT hanno chiesto ai partecipanti al test di scrivere dei saggi per il sistema di punteggio scolastico americano SAT e li hanno divisi in tre gruppi: un gruppo ha utilizzato ChatGPT di OpenAI, un altro ha utilizzato il motore di ricerca di Google e il terzo ha utilizzato solo il cervello.
L’attività cerebrale di ciascun partecipante è stata esaminata tramite elettroencefalografia (EEG) per visualizzare l’attivazione delle diverse regioni del cervello durante l’esecuzione del compito.
Sostieni Renovatio 21
I ricercatori hanno scoperto che i soggetti che hanno utilizzato ChatGPT per un periodo di mesi presentavano i livelli più bassi di coinvolgimento cerebrale e «ottenevano costantemente prestazioni inferiori a livello neurale, linguistico e comportamentale».
Alla fine del periodo di studio, invece di porre domande strutturali a ChatGPT per facilitare la stesura dei saggi, i partecipanti si limitavano a copiare e incollare interi saggi generati dal Large Language Model (LLM).
Il gruppo che ha utilizzato Google per aiutarsi con la stesura del saggio ha mostrato un moderato coinvolgimento cerebrale e, cosa prevedibile, il gruppo che ha utilizzato solo il cervello ha mostrato il risultato maggiore.
Lo studio suggerisce chiaramente che l’uso degli LLM può danneggiare nel tempo le funzioni cognitive dell’utente e i ricercatori sono particolarmente preoccupati per gli effetti dell’adozione diffusa di questi strumenti da parte di bambini e adolescenti.
«Ciò che mi ha davvero motivato a pubblicarlo ora, prima di attendere una revisione paritaria completa, è che temo che tra 6-8 mesi qualche politico deciderà: «facciamo la scuola materna GPT”. Credo che sarebbe assolutamente negativo e dannoso», ha dichiarato l’autrice principale dello studio, Nataliya Kosmyna, alla rivista TIME. «I cervelli in via di sviluppo sono quelli a più alto rischio».
In tutto l’Occidente e non solo sono già in corso iniziative per integrare l’Intelligenza Artificiale nelle aule scolastiche.
Ad aprile, il presidente americano Donaldo Trump ha firmato un ordine esecutivo per garantire che gli studenti siano qualificati nell’uso dell’Intelligenza Artificiale.
«L’idea di base di questo ordine esecutivo è quella di garantire che formiamo adeguatamente la forza lavoro del futuro, assicurandoci che gli scolari e i giovani americani siano adeguatamente formati negli strumenti di intelligenza artificiale, in modo che possano essere competitivi nell’economia negli anni a venire, man mano che l’intelligenza artificiale diventa un problema sempre più importante», ha affermato il segretario dello staff della Casa Bianca, Will Scharf.
Come riportato da Renovatio 21, il magnate informatico-vaccinale Bill Gates è tra quanti considerano l’IA come un ottimo insegnante per il futuro dei nostri figli.
«Le IA raggiungeranno quella capacità di essere un tutor tanto bravo quanto qualsiasi umano potrebbe essere » ha dichiarato Gates. La sua azienda, Microsoft, sta investendo nell’AI di OpenAI decine, se non un centinaio, di miliardi.
Come ha avvertito Renovatio 21, l’IA, se lasciata libera, non divorerà solo gli insegnanti, ma la realtà stessa, ponendosi come unica fonte su cui si baserà l’umanità.
Iscriviti alla Newslettera di Renovatio 21
-
Immigrazione1 settimana fa
9 minorenni tedesche abusate sessualmente da siriani in piscina. Il sindaco tedesco accusa il «caldo»
-
Eutanasia5 giorni fa
Ecco l’eutanasia dell’Italia geografica. Per far nascere le smart city che ci controlleranno
-
Spirito2 settimane fa
Il cardinale Zen celebra la messa in latino e guida la processione eucaristica del Corpus Domini a Hong Kong
-
Morte cerebrale1 settimana fa
Donna «cerebralmente morta» dà alla luce un figlio. Quindi morta proprio non lo era
-
Fertilità2 settimane fa
Più aborti spontanei dopo la vaccinazione Pfizer contro il COVID-19 in Israele: studio
-
Vaccini2 settimane fa
Kennedy contro la stampa per le false affermazioni sul timerosal nei vaccini
-
Pensiero1 settimana fa
La tassa di soggiorno del Paese con la più bella Costituzione, in attesa della tecnocrazia finale
-
Salute2 settimane fa
Il malori della 26ª settimana 2025