Intelligenza Artificiale
App usa foto «rubate» di morti per addestrare l’algoritmo di riconoscimento facciale
Ecco un nuovo capitolo nella storia, sempre più corposa ed inquietante, del rapporto tra Intelligenza Artificiale e cari estinti.
Come riportato dalla rivista Wired, un sito di ricerca per il riconoscimento facciale chiamato PimEyes – che afferma di creare «impronte facciali» umane biometriche avrebbe utilizzato foto «rubate» di persone morte per sviluppare i suoi algoritmi.
Secondo l’articolo, Cher Scarlett, ingegnere del software e scrittrice, ha fatto questa inquietante scoperta mentre cercava sul sito immagini di se stessa. Le foto di sua madre, della sua bisnonna morta da tempo e di sua sorella, morta nel 2018 alla giovane età di 30 anni.
Tutte queste foto, dice la Scarlett, sembrano essere state prese da immagini che lei e la sua famiglia hanno caricato personalmente su Ancestry.com, un sito che proibisce apertamente «la raccolta di dati, comprese le foto, dai siti e dai servizi di Ancestry, nonché la rivendita, riprodurre o pubblicare qualsiasi contenuto o informazione trovata su Ancestry» come si legge nei Terms & Conditions del sito.
Tuttavia questa non è solo una violazione della politica di Ancestry, perché i membri defunti della famiglia di Scarlett semplicemente non avrebbero potuto dare a PimEyes il permesso di sviluppare il loro algoritmo con queste foto.
«Mia sorella è morta», ha detto Scarlett a Wired. «Non può acconsentire o revocare il consenso».
«PimEyes esegue la scansione solo dei siti web che ci consentono ufficialmente di farlo», ha dichiarato a Wired il direttore dell’azienda Giorgi Gobronidze. «È stata… una notizia molto spiacevole che i nostri crawler abbiano infranto in qualche modo la regola».
E sebbene il sito abbia tecnicamente una funzione di disattivazione che può consentire agli utenti di limitare l’utilizzo di un’immagine specifica di se stessi nel motore, Gobronidze ha ammesso che la funzione di disattivazione «non funzionerà sempre con un’efficienza del 100%».
Vale la pena notare che questa non è la prima volta che il sito è stato coinvolto in polemiche.
Come sottolinea Wired, la privacy dei bambini è stata ampiamente considerata una preoccupazione. Ma mentre Gobronidze ha detto a Wired che PimEyes ha lanciato un «protocollo di sicurezza in più fasi» per proteggere i bambini a partire dal 9 gennaio, alcuni partner dell’azienda, tra cui alcune ONG, sono «autorizzati» e possono eseguire ricerche illimitate sulla piattaforma.
«In altre parole, le regole non si applicano sempre (…) I misfatti di PimEyes sono sintomatici di un futuro in cui le nostre identità online e persino i nostri volti sono tutt’altro che protetti da occhi indiscreti» riassume Futurism. «E nonostante la promessa di guardrail, sia PimEyes che Ancestry hanno fallito nei loro tentativi di proteggere la nostra privacy».
Altrove, sia i gruppi per i diritti umani che gli esperti hanno affermato che tramite questo tipo di siti si può passare allo stalking e altri abusi – e non solo della memoria dei defunti: i dati ottenuti – che sono ad un clic di distanza – potrebbero essere usati per stalking, doxxing e altri danni ai vivi.
Notiamo tuttavia, come anche qui siamo dinanzi alla tendenza negromantica che sta rivelando il mondo digitale.
Come riportato da Renovatio 21, sappiamo che in tanti, compresa Microsoft che ha già ottenuto un brevetto e Amazon che potrebbe implementare la voce dei defunti sui suoi speaker, stanno lavorando a questi macabri prodotti, con sperimentazioni fuori di ogni logica umana, come la «presenza» – via IA – del morto al suo stesso funerale in cui i parenti e gli amici possono «interagire» con una sua replica digitale.
Con l’AI, inoltre, hanno «invecchiato» vari personaggi famosi che sono morti prima di divenire anziani.
L’IA ha permesso ora la ricostruzione della voce di John Lennon, ripulita via algoritmo da un nastro fornito da Yoko Ono e inserita in quella che Paul McCartney ha descritto come «la canzona definitiva dei Beatles».
Anche il cantante, ucciso nel 1981 da un personaggio forse legato al progetto di controllo mentale dei servizi americani MK Ultra, non crediamo abbia dato l’assenso, tuttavia probabilmente la controversa vedova nipponica magari sì.
Intelligenza Artificiale
Sacerdozio virtuale, errore reale
«Father Justin» è stato «ridotto allo stato laicale» pochi giorni dopo l’inizio del suo ministero. Non per una storia di abusi, perché «Father Justin» è l’avatar digitale dato a un algoritmo. La vicenda d’oltreoceano potrebbe sembrare aneddotica se non mostrasse, implicitamente, i limiti dell’uso dell’intelligenza artificiale (IA) negli ambiti della fede e della pastorale cristiana.
Catholic Answers è un’associazione dedicata alla difesa della fede cattolica, con sede a El Cajon, California. Gli apologeti che la gestiscono hanno subito capito il vantaggio di investire nell’universo digitale, utilizzando le inesauribili risorse dell’intelligenza artificiale.
È così che è stato sviluppato un algoritmo chiamato Father Justin, ornato da un’immagine generata al computer, che lo rappresenta come un prete barbuto che indossa una talare, in altre parole una sequenza matematica adatta a rispondere alle domande degli internauti sulla fede e sull’insegnamento della Chiesa.
Ma il prete virtuale – o meglio i suoi ideatori, l’IA non produce, in termini di qualità dell’informazione, nulla che non sia in linea con il suo database – non ha seguito un percorso teologico tradizionale: così, Father Justin non vede nessun problema nel battezzare con «Gatorade», una bevanda energetica, quando solo l’acqua costituisce la materia valida per questo sacramento.
Quando un utente chiede la forma del sacramento della penitenza, il robot propone online una formula per l’assoluzione dei peccati, che sarebbe totalmente invalida, poiché l’assoluzione richiede la presenza fisica di un sacerdote validamente ordinato e con giurisdizione per compiere questo atto.
Tuttavia, a una richiesta diretta di essere ascoltato in confessione e assolto, Father Justin spiega: «anche se vorrei aiutarti, non sono in grado di amministrare il sacramento della riconciliazione con questo mezzo. È un sacramento che richiede un incontro personale. Ti incoraggio a trovare una chiesa cattolica e a parlare con un prete».
Di fronte allo scalpore suscitato da questa vicenda, Catholic Answers ha fatto marcia indietro rivestendo il buon Father Justin da laico e promettendo di correggere il suo «chatbot» – il programma informatico che simula ed elabora una conversazione umana, permettendo di interagire con gli utenti – in un senso più coerente con la fede e la moralità cattolica.
Catholic Answers avrà presto un bot affidabile? Possiamo dubitarne, perché un progetto del genere pone un problema: immaginare che un «chatbot» possa svolgere a pieno titolo il ruolo di catechista o di missionario non rivela forse una profonda incomprensione del modo in cui si trasmette la fede?
Se l’Intelligenza Artificiale può rendere accessibile una quantità impressionante di informazioni in tempi record, la nozione di «chatbot» nasconde un’ambiguità: quella di far credere alle persone in una reale interazione personale.
Quando un fedele, o una persona che cerca la verità, si avvicina alla Chiesa, ha diritto di ascoltare delle risposte trasmesse in un vero spirito di fede teologale e di prudenza soprannaturale che supera le capacità numeriche di un algoritmo, anche il più elaborato.
Di fronte alle critiche, Catholic Answers si è difesa in modo poco convincente: «Comprendiamo che alcuni non si sentano a proprio agio con l’intelligenza artificiale. Ma dato che esiste, ci sforziamo di metterlo al servizio del Regno di Dio». Un modo per evitare la radice del problema.
Perché gli strumenti fabbricati dall’uomo hanno uno scopo solo nella misura in cui facilitano la vita veramente umana, permettendo così di risparmiare tempo, non per essere pigri, ma per esercitare le nostre facoltà di conoscenza e le nostre virtù, ed elevare la nostra umanità.
In questo contesto, vogliamo affidare le capacità umane, come la comprensione, il giudizio, le relazioni umane e l’autonomia d’azione, ai software di Intelligenza Artificiale senza conoscere il valore reale di questi sistemi che pretendono di essere intelligenti e cognitivi?
Questa è la sfida etica dei prossimi anni riguardo all’Intelligenza Artificiale, e di cui Father Justin, questa volta, ha pagato il prezzo.
Articolo previamente apparso su FSSPX.news.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Anche i Marine stanno armando i robocani
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Robot bipede picchiato nel bosco
Un filmato emerso in rete mostra un robot bipede preso a bastonate in mezzo agli alberi, all’interno di una prova di resistenza da parte del produttore.
L’automa a due zampe P1 – sua sorta di «robogallina» – è prodotto dall’azienda cinese LimX Dynamics, che avrebbe condotto dei test nei boschi del Monte Tanglang, non lontano dalla città industriale di Shenzhen, sede della LimX.
Il video registra il momento in cui il robot affronta per la prima volta un ambiente così intricato, caratterizzato da pendii variabili, avvallamenti, sabbia, foglie, rocce, radici degli alberi, vegetazione e altre sfide impreviste.
Man beats robot in the forest: Impressive capabilites of Chinese robotics company LimX Dynamics’ P1 bipedal robot.
The robot utilizes reinforcement learning, enabling it to dynamically adapt to complex environments without prior knowledge of the terrain’s specifics. pic.twitter.com/5LsJlw0wpW
— Clash Report (@clashreport) May 4, 2024
L’intento era di educarlo attraverso l’addestramento basato sul rinforzo, permettendogli di imparare sul campo, mediante l’esperienza, a mantenere l’equilibrio sulle gambe senza cadere in modo catastrofico.
Come veduto in altre occasioni con robocani ed affini, gli ingegneri di LimX hanno anche scelto di esercitare – per scopi scientifici, certo – una certa violenza sul robot, colpendolo con un bastone all’altezza del ginocchio e spingendolo, al fine di testare l’efficacia del sistema di auto-bilanciamento e la capacità di rimanere in piedi in caso di spinte o impatti, anche su terreni accidentati.
Il robot P1 non è tuttavia l’unico su cui LimX Dynamics sta lavorando: sul sito aziendale ufficiale è possibile osservare un robot con quattro ruote denominato W-1, e il sempre presente androide chiamato CL-1, protagonista di un video in cui viene mostrato mentre corre e sale delle scale.
This is the humanoid robot CL-1. In this demonstration, it successfully climbs stairs in a single stride, utilizing real-time terrain perception.
This marks the first occasion that CL-1 has executed stable and dynamic running back and forth!📹 [LimX Dynamics] pic.twitter.com/s16Qp2zHih
— TheTechAnonGuy 🤖 (@TheTechAnonGuy) April 18, 2024
Discover LimX Dynamics #Humanoid #Teleoperation to Collect #Data for Learning
found @youtube#Robots #Robotics #algorithms #Innovation #Tech #Technology #TechNews #ScienceAndTechnology #engineering #future pic.twitter.com/2jq5xsH6kh
— Andres Vilariño (@andresvilarino) May 1, 2024
Sostieni Renovatio 21
È impossibile per il lettore sano di mente (o anche solo per il non vaccinato) fare a meno di pensare che tali creature artificiali saranno usate a breve per la caccia agli esseri umani.
Come ripetuto da Renovatio 21, in realtà ciò è già avvenuto ed avviene in plurime occasioni: abbiamo visto robocani pattugliare le strade deserte del grande lockdown di Shanghai 2022, robocani al confine tra Messico e USA, robocani israeliani in azione in queste stesse ore a Gaza.
Al contempo, non possiamo dimenticare che università cinesi hanno dimostrato la capacità di programmare stormi di microdroni-cacciatori – veri e propri slaughterbots – in grado di inseguire ed eliminare gli esseri umani anche nei boschi. Parimenti, ha impressionato parecchio l’esperimento di giovani ricercatori che hanno trasformato in poco tempo un mini-drone da poche diecine di euro in uno strumento di morte alimentato dall’Intelligenza Artificiale.
Non è possibile scordare anche i droni del sindaco di Messina Cateno De Luca, che durante il lockdown pandemico urlavano a chi stava fuori casa frasi giudicate da taluni come volgari.
Le cronache riportano che il De Luca avrebbe avuto un malore pochi giorni fa durante un comizio per le elezioni europee, dove presenta un listone con uno stuolo di altre forze politiche, tra cui alcune figure teoricamente legate alla «dissidenza» rispetto la catastrofe pandemica – così, dal no-vaxismo al dronismo, come se fossero stati improvvisamente resettati e riprogrammati, con robot.
Robot bipedi picchiati nei boschi in Cina, robot bipedi elettorali a caccia di voti in Italia. Va così.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
-
Cancro6 giorni fa
I vaccini COVID sono «sostanzialmente un omicidio»: parla il maggior oncologo giapponese
-
Comunicati2 settimane fa
L’idra dalle cinquecento teste. Elogio dei refusi di Renovatio 21
-
Pensiero6 giorni fa
Sterminio e «matrice satanica del piano globalista»: Mons. Viganò invita a «guardare oltre» la farsa psicopandemica
-
Salute2 settimane fa
I malori della 19ª settimana 2024
-
Controllo delle nascite1 settimana fa
Oligarcato e Necrocultura: il capo di BlackRock elogia la depopolazione e la sostituzione degli umani con le macchine
-
Sanità1 settimana fa
Il Trattato Pandemico OMS mira a «menomare e uccidere» e a «stabilire un governo mondiale»: parla il medico kenyota che lottò contro i vaccini sterilizzanti
-
Immigrazione2 settimane fa
Esponente AfD condannata per aver denunziato i dati sugli stupri di gruppo degli immigrati
-
Arte1 settimana fa
Sedicente «strega» non binaria arriva in finale all’Eurovision. Il suo scopo: «far aderire tutti alla stregoneria»