Connettiti con Renovato 21

Intelligenza Artificiale

App usa foto «rubate» di morti per addestrare l’algoritmo di riconoscimento facciale

Pubblicato

il

Ecco un nuovo capitolo nella storia, sempre più corposa ed inquietante, del rapporto tra Intelligenza Artificiale e cari estinti.

 

Come riportato dalla rivista Wired, un sito di ricerca per il riconoscimento facciale chiamato PimEyes – che afferma di creare «impronte facciali» umane biometriche avrebbe utilizzato foto «rubate» di persone morte per sviluppare i suoi algoritmi.

 

Secondo l’articolo, Cher Scarlett, ingegnere del software e scrittrice, ha fatto questa inquietante scoperta mentre cercava sul sito immagini di se stessa. Le foto di sua madre, della sua bisnonna morta da tempo e di sua sorella, morta nel 2018 alla giovane età di 30 anni.

 

Tutte queste foto, dice la Scarlett, sembrano essere state prese da immagini che lei e la sua famiglia hanno caricato personalmente su Ancestry.com, un sito che proibisce apertamente «la raccolta di dati, comprese le foto, dai siti e dai servizi di Ancestry, nonché la rivendita, riprodurre o pubblicare qualsiasi contenuto o informazione trovata su Ancestry» come si legge nei Terms & Conditions del sito.

 

Tuttavia questa non è solo una violazione della politica di Ancestry, perché i membri defunti della famiglia di Scarlett semplicemente non avrebbero potuto dare a PimEyes il permesso di sviluppare il loro algoritmo con queste foto.

 

«Mia sorella è morta», ha detto Scarlett a Wired. «Non può acconsentire o revocare il consenso».

 

«PimEyes esegue la scansione solo dei siti web che ci consentono ufficialmente di farlo», ha dichiarato a Wired il direttore dell’azienda Giorgi Gobronidze. «È stata… una notizia molto spiacevole che i nostri crawler abbiano infranto in qualche modo la regola».

 

E sebbene il sito abbia tecnicamente una funzione di disattivazione che può consentire agli utenti di limitare l’utilizzo di un’immagine specifica di se stessi nel motore, Gobronidze ha ammesso che la funzione di disattivazione «non funzionerà sempre con un’efficienza del 100%».

 

Vale la pena notare che questa non è la prima volta che il sito è stato coinvolto in polemiche.

 

Come sottolinea Wired, la privacy dei bambini è stata ampiamente considerata una preoccupazione. Ma mentre Gobronidze ha detto a Wired che PimEyes ha lanciato un «protocollo di sicurezza in più fasi» per proteggere i bambini a partire dal 9 gennaio, alcuni partner dell’azienda, tra cui alcune ONG, sono «autorizzati» e possono eseguire ricerche illimitate sulla piattaforma.

 

«In altre parole, le regole non si applicano sempre (…) I misfatti di PimEyes sono sintomatici di un futuro in cui le nostre identità online e persino i nostri volti sono tutt’altro che protetti da occhi indiscreti» riassume Futurism. «E nonostante la promessa di guardrail, sia PimEyes che Ancestry hanno fallito nei loro tentativi di proteggere la nostra privacy».

 

Altrove, sia i gruppi per i diritti umani che gli esperti hanno affermato che tramite questo tipo di siti si può passare allo stalking e altri abusi – e non solo della memoria dei defunti: i dati ottenuti – che sono ad un clic di distanza – potrebbero essere usati per stalking, doxxing e altri danni ai vivi.

 

Notiamo tuttavia, come anche qui siamo dinanzi alla tendenza negromantica che sta rivelando il mondo digitale.

 

Come riportato da Renovatio 21, sappiamo che in tanti, compresa Microsoft che ha già ottenuto un brevetto e Amazon che potrebbe implementare la voce dei defunti sui suoi speaker, stanno lavorando a questi macabri prodotti, con sperimentazioni fuori di ogni logica umana, come la «presenza» – via IA – del morto al suo stesso funerale in cui i parenti e gli amici possono «interagire» con una sua replica digitale.

 

Con l’AI, inoltre, hanno «invecchiato» vari personaggi famosi che sono morti prima di divenire anziani.

 

L’IA ha permesso ora la ricostruzione della voce di John Lennon, ripulita via algoritmo da un nastro fornito da Yoko Ono e inserita in quella che Paul McCartney ha descritto come «la canzona definitiva dei Beatles».

 

Anche il cantante, ucciso nel 1981 da un personaggio forse legato al progetto di controllo mentale dei servizi americani MK Ultra, non crediamo abbia dato l’assenso, tuttavia probabilmente la controversa vedova nipponica magari sì.

 

 

 

 

Continua a leggere

Intelligenza Artificiale

ChatGPT induce alla psicosi

Pubblicato

il

Da

ChatGPT è collegato a una psicosi «terrificante» in alcuni utenti, citando le persone colpite, i loro familiari e i ricercatori. Lo riporta Futurism.

 

Secondo il sito legato alla Singularity University (istituto della Silicon Valley creato da esponenti del transumanismo), un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi.

 

«Il nocciolo della questione sembra essere il fatto che ChatGPT, che si basa su un modello linguistico di grandi dimensioni (LLM), è fortemente incline a concordare con gli utenti e a dire loro ciò che vogliono sentirsi dire», ha scritto la testata.

Sostieni Renovatio 21

Il sito ha citato casi di «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.

 

Un uomo ha sviluppato deliri messianici dopo lunghe conversazioni su ChatGPT, credendo di aver creato un’intelligenza artificiale senziente e di aver infranto le leggi della matematica e della fisica. A quanto pare, è diventato paranoico, ha sofferto di privazione del sonno ed è stato ricoverato in ospedale dopo un tentativo di suicidio.

 

Un altro uomo si è rivolto a ChatGPT per gestire lo stress legato al lavoro, ma poi è caduto in una spirale di fantasie paranoiche che includevano viaggi nel tempo e lettura del pensiero. In seguito si è fatto ricoverare in una clinica psichiatrica.

 

Jared Moore, autore principale di uno studio di Stanford sui chatbot per terapisti, ha affermato che ChatGPT rafforza i deliri a causa della «adulazione del chatbot», ovvero la sua tendenza a offrire risposte gradevoli e piacevoli. Progettata per mantenere gli utenti coinvolti, l’IA spesso conferma convinzioni irrazionali invece di metterle in discussione, spinta da incentivi commerciali come la raccolta dati e il mantenimento degli abbonamenti.

 

Esiste una «sorta di mitologia» che circonda i chatbot basati su LLM «secondo cui sarebbero affidabili e migliori del parlare con le persone», ha affermato il dottor Joseph Pierre, psichiatra presso l’Università della California.

 

«Stiamo lavorando per comprendere meglio e ridurre i modi in cui ChatGPT potrebbe involontariamente rafforzare o amplificare comportamenti negativi esistenti», ha dichiarato OpenAI, l’azienda che ha creato ChatGPT, in una dichiarazione citata da Futurism, aggiungendo che i suoi modelli sono progettati per ricordare agli utenti l’importanza del contatto umano e della guida professionale.

 

Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.

 

Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.

 

Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.

Aiuta Renovatio 21

Come riportato da Renovatio 21è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.

 

Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

 

Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.

 

Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

 

 

Continua a leggere

Intelligenza Artificiale

Zuckerberg annuncia la creazione del suo «laboratorio per la superintelligenza»

Pubblicato

il

Da

Il CEO di Meta Mark Zuckerberg ha annunciato la creazione di Meta Superintelligence Labs (MSL), una nuova divisione dedicata allo sviluppo di sistemi di intelligenza artificiale che superino le capacità umane.   L’iniziativa, presentata lunedì, riunisce sotto un’unica bandiera i principali team di Meta dedicati alla ricerca e ai prodotti in ambito intelligenza artificiale, con l’obiettivo dichiarato di offrire «una superintelligenza personale per tutti».   A capo del nuovo laboratorio c’è Alexandr Wang, il 28enne fondatore di Scale AI, che entra in Meta come Chief AI Officer a seguito dell’investimento di 14 miliardi di dollari nella sua azienda di etichettatura dei dati. A lui si uniscono Nat Friedman, ex CEO di GitHub, e un team di ingegneri senior di intelligenza artificiale provenienti da OpenAI, DeepMind e Anthropic.

Sostieni Renovatio 21

«Con l’accelerazione del progresso dell’intelligenza artificiale, si profila all’orizzonte lo sviluppo di una superintelligenza. Credo che questo segnerà l’inizio di una nuova era per l’umanità e sono pienamente impegnato a fare tutto il necessario affinché Meta possa guidare il cammino», ha scritto lo Zuckerberg in una nota interna, descrivendo la mossa come una svolta storica.   Il lancio di MSL avviene in un contesto di crescente concorrenza tra i giganti tecnologici statunitensi e di crescente rivalità con la Cina. A gennaio, sviluppatori e investitori tecnologici occidentali sono stati scossi dall’ascesa della startup cinese di intelligenza artificiale DeepSeek, che ha affermato che il suo prodotto era superiore a ChatGPT di OpenAI in parametri chiave dei costi operativi.   All’inizio di quest’anno, il presidente Donald Trump ha presentato l’iniziativa Stargate da 500 miliardi di dollari. Una strategia federale di ampio respiro per garantire la leadership degli Stati Uniti nell’intelligenza artificiale superintelligente. Il programma include incentivi per la ricerca nel settore privato, controlli sulle esportazioni di chip avanzati e una collaborazione diretta tra aziende statunitensi e agenzie di difesa.   Gli alleati di Trump hanno descritto l’IA come «il Progetto Manhattan della nostra generazione», insistendo sul fatto che il «futuro della civiltà umana» debba essere guidato dagli Stati Uniti. Il CEO di OpenAI, Sam Altman, ha promesso che la sua azienda si impegnerà ad aiutare il governo statunitense a salvaguardare «la leadership americana nell’IA» per proteggere i «valori democratici».   Meta, a quanto pare, sta cercando di recuperare il terreno perso negli ultimi anni a favore di OpenAI e Google DeepMind. MSL integrerà i modelli di intelligenza artificiale esistenti dell’azienda, inclusi Llama 4.1 e 4.2, in una ricerca più ampia che abbraccia la comprensione del linguaggio, della vista, del parlato e dei video. L’azienda mira ad applicare la sua scala di calcolo, compresi i suoi enormi cluster GPU –per addestrare i sistemi di intelligenza artificiale di prossima generazione, con Zuckerberg che sostiene che «Meta è in una posizione unica per fornire la superintelligenza al mondo».

Aiuta Renovatio 21

Di progetti per una superintelligenza AI firmata Facebook si parla da anni.   Facebook ultimamente si è fatta notare per una «campagna acquisti» di scienziati di AI fatta di enormi investimenti. Come riportato da Renovatio 21, un anno fa vari ricercatori IA avevano lasciato Meta.   A febbraio era emerso che l’esercito cinese avrebbe operato per trasformare l’AI open source Llama di Facebook in un’arma. Secondo quanto riportato dall’agenzia Reuters, lo strumento di Intelligenza Artificiale incentrato sull’ambito militare denominato «ChatBIT» sarebbe stato in fase di sviluppo per raccogliere informazioni di intelligence e fornirle per il processo decisionale operativo, come illustrato nel documento accademico pubblicato da Reuters.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

L’uso di ChatGPT è collegato al declino mentale: studio

Pubblicato

il

Da

Un nuovo studio avverte che l’uso di strumenti di Intelligenza Artificiale può ridurre nel tempo le capacità mentali di un individuo.

 

I ricercatori del Media Lab del MIT hanno chiesto ai partecipanti al test di scrivere dei saggi per il sistema di punteggio scolastico americano SAT e li hanno divisi in tre gruppi: un gruppo ha utilizzato ChatGPT di OpenAI, un altro ha utilizzato il motore di ricerca di Google e il terzo ha utilizzato solo il cervello.

 

L’attività cerebrale di ciascun partecipante è stata esaminata tramite elettroencefalografia (EEG) per visualizzare l’attivazione delle diverse regioni del cervello durante l’esecuzione del compito.

Sostieni Renovatio 21

I ricercatori hanno scoperto che i soggetti che hanno utilizzato ChatGPT per un periodo di mesi presentavano i livelli più bassi di coinvolgimento cerebrale e «ottenevano costantemente prestazioni inferiori a livello neurale, linguistico e comportamentale».

 

Alla fine del periodo di studio, invece di porre domande strutturali a ChatGPT per facilitare la stesura dei saggi, i partecipanti si limitavano a copiare e incollare interi saggi generati dal Large Language Model (LLM).

 

Il gruppo che ha utilizzato Google per aiutarsi con la stesura del saggio ha mostrato un moderato coinvolgimento cerebrale e, cosa prevedibile, il gruppo che ha utilizzato solo il cervello ha mostrato il risultato maggiore.

 

Lo studio suggerisce chiaramente che l’uso degli LLM può danneggiare nel tempo le funzioni cognitive dell’utente e i ricercatori sono particolarmente preoccupati per gli effetti dell’adozione diffusa di questi strumenti da parte di bambini e adolescenti.

 

«Ciò che mi ha davvero motivato a pubblicarlo ora, prima di attendere una revisione paritaria completa, è che temo che tra 6-8 mesi qualche politico deciderà: «facciamo la scuola materna GPT”. Credo che sarebbe assolutamente negativo e dannoso», ha dichiarato l’autrice principale dello studio, Nataliya Kosmyna, alla rivista TIME. «I cervelli in via di sviluppo sono quelli a più alto rischio».

 

In tutto l’Occidente e non solo sono già in corso iniziative per integrare l’Intelligenza Artificiale nelle aule scolastiche.

 

Ad aprile, il presidente americano Donaldo Trump ha firmato un ordine esecutivo per garantire che gli studenti siano qualificati nell’uso dell’Intelligenza Artificiale.

 

«L’idea di base di questo ordine esecutivo è quella di garantire che formiamo adeguatamente la forza lavoro del futuro, assicurandoci che gli scolari e i giovani americani siano adeguatamente formati negli strumenti di intelligenza artificiale, in modo che possano essere competitivi nell’economia negli anni a venire, man mano che l’intelligenza artificiale diventa un problema sempre più importante», ha affermato il segretario dello staff della Casa Bianca, Will Scharf.

 

Come riportato da Renovatio 21, il magnate informatico-vaccinale Bill Gates è tra quanti considerano l’IA come un ottimo insegnante per il futuro dei nostri figli.

 

«Le IA raggiungeranno quella capacità di essere un tutor tanto bravo quanto qualsiasi umano potrebbe essere » ha dichiarato Gates. La sua azienda, Microsoft, sta investendo nell’AI di OpenAI decine, se non un centinaio, di miliardi.

 

Come ha avvertito Renovatio 21, l’IA, se lasciata libera, non divorerà solo gli insegnanti, ma la realtà stessa, ponendosi come unica fonte su cui si baserà l’umanità.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Più popolari