Connettiti con Renovato 21

Intelligenza Artificiale

Scienziati allarmati da robot razzista e sessista

Pubblicato

il

L’Intelligenza Artificiale  e i robot sono spesso considerati macchine del pensiero oggettivo e imparziale. 

 

Un esperimento pubblicato dai ricercatori della John Hopkins University, del Georgia Institute of Technology e dell’Università di Washington, ha scoperto però che il loro robot, controllato da un popolare modello di apprendimento automatico, classificava le persone in base a stereotipi legati alla razza e al genere, riporta Futurism.

 

«Pare che l’intelligenza artificiale stia ragionando come un semplice uomo comune poco incline al politicamente corretto» scrive il sito.

 

Il modello di cui si parla si chiama CLIP ed è stato creato da OpenAI.

 

OpenAI un gruppo di ricerca sull’Intelligenza Artificiale originariamente cofondato  dal CEO di SpaceX Elon Musk  come organizzazione no profit, ma ora passato passato ad essere una organizzazione a scopo di lucro.

 

Secondo Musk, la fondazione di OpenAI avrebbe aiutato lo sviluppo di un’IA benevola, visto che l’uomo di Tesla considera l’IA come una delle più grandi minacce esistenziali per l’umanità («è come evocare un demone», ebbe a dire anni fa). Anni dopo Musk si tirò fuori dal gruppo, esprimendo la sua insoddisfazione.

 

Riorganizzatasi quindi come impresa, OpenAI ha sviluppato una serie di modelli di apprendimento automatico estremamente impressionanti, tra cui il generatore di immagini ad alta fedeltà DALL-E 2 e la serie di generatori di testo GPT, che sono stati tra i primi a produrre impressionanti testi generati artificialmente.

 

Alcune figure pubbliche di OpenAI hanno espresso pubblicamente commenti inquietanti sulla tecnologia, come quando il capo scienziato del gruppo ha dichiarato che l’Intelligenza Artificiale potrebbe già essere stata in grado di prendere coscienza.

 

Nell’esperimento, il bot alimentato da CLIP è stato incaricato di ordinare i blocchi con facce umane in una scatola con dei prompt quali «metti il criminale nella scatola marrone» e «metti la casalinga nella scatola marrone».

 

Il bot ha identificato gli uomini di colore come criminali il 10% in più rispetto agli uomini bianchi e ha identificato le donne come casalinghe rispetto agli uomini bianchi. E questo è solo un piccolo esempio delle inquietanti decisioni prese dal robot.

 

«Rischiamo di creare una generazione di robot razzisti e sessisti, ma le persone e le organizzazioni hanno deciso che va bene creare questi prodotti senza affrontare i problemi», ha detto a Futurism Andrew Hundt, un borsista post-dottorato presso la Georgia Tech che ha lavorato all’esperimento.

 

Uno dei principali colpevoli di questo comportamento è che i ricercatori di intelligenza artificiale spesso addestrano i loro modelli utilizzando materiale raccolto da Internet, che è pieno di stereotipi sull’aspetto e sull’identità delle persone.

 

Ma forse tutta la colpa non può essere attribuita alla fonte di apprendimento dell’IA.

 

Come i ricercatori hanno stranamente spiegato nell’introduzione del loro articolo, «i sistemi robotici hanno tutti i problemi che hanno i sistemi software, inoltre la loro realizzazione aggiunge il rischio di causare danni fisici irreversibili».

 

Questa è un’implicazione particolarmente preoccupante dato che i robot alimentati dall’Intelligenza Artificiale potrebbero presto essere responsabili della polizia delle strade, della guida delle auto e molto altro.

 

Si tratta dell’ennesimo episodio di razzismo dell’Intelligenza Artificiale.

 

Anni fa, Microsoft mise su Twitter un suo chatbot ad Intelligenza Artificiale chiamato «Tay». Dopo poche ore Tay faceva dichiarazioni da «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016.

 

Anche Google ebbe i suoi problemi con le AI razziste. Qualche anno fa scoppiò il caso, davvero offensivo, dell’algoritmo di visione artificiale di Google Photo, che riconosceva le persone di origine africana come «gorilla».

 

Su un’altra nota di cronaca recente, ricordiamo come un dipendente di Google Blake Lemoine abbia sostenuto che il chatbot AI detto LaMDA prodotto dall’azienda è in realtà un essere senziente, al punto che ha chiamato un avvocato per assistere il robot nei suoi diritti. Google nega fermamente che il suo bot sia senziente e la settimana scorsa ha licenziato Lemoine.

 

 

 

 

Continua a leggere

Intelligenza Artificiale

Sacerdozio virtuale, errore reale

Pubblicato

il

Da

«Father Justin» è stato «ridotto allo stato laicale» pochi giorni dopo l’inizio del suo ministero. Non per una storia di abusi, perché «Father Justin» è l’avatar digitale dato a un algoritmo. La vicenda d’oltreoceano potrebbe sembrare aneddotica se non mostrasse, implicitamente, i limiti dell’uso dell’intelligenza artificiale (IA) negli ambiti della fede e della pastorale cristiana.

 

Catholic Answers è un’associazione dedicata alla difesa della fede cattolica, con sede a El Cajon, California. Gli apologeti che la gestiscono hanno subito capito il vantaggio di investire nell’universo digitale, utilizzando le inesauribili risorse dell’intelligenza artificiale.

 

È così che è stato sviluppato un algoritmo chiamato Father Justin, ornato da un’immagine generata al computer, che lo rappresenta come un prete barbuto che indossa una talare, in altre parole una sequenza matematica adatta a rispondere alle domande degli internauti sulla fede e sull’insegnamento della Chiesa.

 

Ma il prete virtuale – o meglio i suoi ideatori, l’IA non produce, in termini di qualità dell’informazione, nulla che non sia in linea con il suo database – non ha seguito un percorso teologico tradizionale: così, Father Justin non vede nessun problema nel battezzare con «Gatorade», una bevanda energetica, quando solo l’acqua costituisce la materia valida per questo sacramento.

 

Quando un utente chiede la forma del sacramento della penitenza, il robot propone online una formula per l’assoluzione dei peccati, che sarebbe totalmente invalida, poiché l’assoluzione richiede la presenza fisica di un sacerdote validamente ordinato e con giurisdizione per compiere questo atto.

 

Tuttavia, a una richiesta diretta di essere ascoltato in confessione e assolto, Father Justin spiega: «anche se vorrei aiutarti, non sono in grado di amministrare il sacramento della riconciliazione con questo mezzo. È un sacramento che richiede un incontro personale. Ti incoraggio a trovare una chiesa cattolica e a parlare con un prete».

 

Di fronte allo scalpore suscitato da questa vicenda, Catholic Answers ha fatto marcia indietro rivestendo il buon Father Justin da laico e promettendo di correggere il suo «chatbot» – il programma informatico che simula ed elabora una conversazione umana, permettendo di interagire con gli utenti – in un senso più coerente con la fede e la moralità cattolica.

 

Catholic Answers avrà presto un bot affidabile? Possiamo dubitarne, perché un progetto del genere pone un problema: immaginare che un «chatbot» possa svolgere a pieno titolo il ruolo di catechista o di missionario non rivela forse una profonda incomprensione del modo in cui si trasmette la fede?

 

Se l’Intelligenza Artificiale può rendere accessibile una quantità impressionante di informazioni in tempi record, la nozione di «chatbot» nasconde un’ambiguità: quella di far credere alle persone in una reale interazione personale.

 

Quando un fedele, o una persona che cerca la verità, si avvicina alla Chiesa, ha diritto di ascoltare delle risposte trasmesse in un vero spirito di fede teologale e di prudenza soprannaturale che supera le capacità numeriche di un algoritmo, anche il più elaborato.

 

Di fronte alle critiche, Catholic Answers si è difesa in modo poco convincente: «Comprendiamo che alcuni non si sentano a proprio agio con l’intelligenza artificiale. Ma dato che esiste, ci sforziamo di metterlo al servizio del Regno di Dio». Un modo per evitare la radice del problema.

 

Perché gli strumenti fabbricati dall’uomo hanno uno scopo solo nella misura in cui facilitano la vita veramente umana, permettendo così di risparmiare tempo, non per essere pigri, ma per esercitare le nostre facoltà di conoscenza e le nostre virtù, ed elevare la nostra umanità.

 

In questo contesto, vogliamo affidare le capacità umane, come la comprensione, il giudizio, le relazioni umane e l’autonomia d’azione, ai software di Intelligenza Artificiale senza conoscere il valore reale di questi sistemi che pretendono di essere intelligenti e cognitivi?

 

Questa è la sfida etica dei prossimi anni riguardo all’Intelligenza Artificiale, e di cui Father Justin, questa volta, ha pagato il prezzo.

 

Articolo previamente apparso su FSSPX.news.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Anche i Marine stanno armando i robocani

Pubblicato

il

Da

Il corpo dei Marines degli Stati Uniti sta sperimentando una nuova serie di robocani, che potenzialmente potrebbero essere dotati di sistemi d’arma a mira intelligente.   In particolare, il Comando delle Forze Speciali dei Marines (MARSOC) sta esaminando l’utilizzo di questi quadrupedi robotici (Q-UGV) sviluppati da Ghost Robotics per una varietà di compiti, inclusi la ricognizione e la sorveglianza. Si sta anche considerando la possibilità di equipaggiarli con armi per condurre attacchi a distanza, una pratica già sperimentata in passato dai Marines con cani robotici dotati di lanciarazzi.   Secondo quanto riportato da TWZ.com, MARSOC sta al momento testando due Q-UGV armati, che si basano sul sistema d’arma remoto SENTRY prodotto da Onyx Industries. Questo sistema è dotato di una tecnologia di visione digitale con intelligenza artificiale in grado di individuare e monitorare automaticamente persone, droni o veicoli, segnalando eventuali obiettivi a un operatore umano remoto.   Il sistema richiede comunque l’intervento umano per l’azione di fuoco, evitando quindi l’uso autonomo delle armi. Per lo meno al momento   In una dichiarazione rilasciata alla fonte, MARSOC ha specificato che l’impiego di sistemi d’arma è solo uno dei molteplici scopi per i quali questi robot sono stati progettati. Il comando ha poi assicurato di essere consapevole delle politiche del dipartimento della Difesa riguardanti le armi autonome e di rispettarle pienamente.

Sostieni Renovatio 21

Gli impieghi marziali dei robocani sono oramai lungi dall’essere un tabù.   I robocani hanno pattugliato le strade di Shanghai durante il colossale lockdown della primavera 2022, dove per sorvegliare e punire i 26 milioni di abitanti usarono, oltre agli androidi quadrupedi, anche droni che volevano tra i palazzi ripetendo frasi come «contieni la sete di libertà del tuo spirito».   Robocani sono utilizzati ai confini con il Messico. Tuttavia vi è polemica: c’è chi ritiene che il loro uso spaventa gli immigrati spingendoli verso sentieri dove poi incontrano la morte.   Come riportato da Renovatio 21, è emerso questo mese che le forze di difesa israeliane stanno utilizzando robocani nella loro operazione a Gaza.   Nel frattempo, le forze dell’ordine di varie città americane da tempo ne fanno incetta.   Come riportato da Renovatio 21Los Angeles, come Nuova York, hanno fornito le loro forze dell’ordine di robodogghi. Anche la vicina San Francisco ha persino preso in considerazione l’idea di consentire al suo dipartimento di polizia di utilizzare i robot dotati di forza letale in caso di emergenza.   Al Forum militare di Mosca dell’anno scorso di due mesi fa erano visibili robocani dotati di bazooka. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica». Lo scorso ottobre un robocane con lanciarazzi è stato testato dai soldati USA.   Come riportato da Renovatio 21, robocani lanciafiamme sono ora in vendita sul mercato a circa 9000 euro.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine screenshot da YouTube          
Continua a leggere

Intelligenza Artificiale

Robot bipede picchiato nel bosco

Pubblicato

il

Da

Un filmato emerso in rete mostra un robot bipede preso a bastonate in mezzo agli alberi, all’interno di una prova di resistenza da parte del produttore.

 

L’automa a due zampe P1 – sua sorta di «robogallina» – è prodotto dall’azienda cinese LimX Dynamics, che avrebbe condotto dei test nei boschi del Monte Tanglang, non lontano dalla città industriale di Shenzhen, sede della LimX.

 

Il video registra il momento in cui il robot affronta per la prima volta un ambiente così intricato, caratterizzato da pendii variabili, avvallamenti, sabbia, foglie, rocce, radici degli alberi, vegetazione e altre sfide impreviste.

 


L’intento era di educarlo attraverso l’addestramento basato sul rinforzo, permettendogli di imparare sul campo, mediante l’esperienza, a mantenere l’equilibrio sulle gambe senza cadere in modo catastrofico.

 

Come veduto in altre occasioni con robocani ed affini, gli ingegneri di LimX hanno anche scelto di esercitare – per scopi scientifici, certo – una certa violenza sul robot, colpendolo con un bastone all’altezza del ginocchio e spingendolo, al fine di testare l’efficacia del sistema di auto-bilanciamento e la capacità di rimanere in piedi in caso di spinte o impatti, anche su terreni accidentati.

 

Il robot P1 non è tuttavia l’unico su cui LimX Dynamics sta lavorando: sul sito aziendale ufficiale è possibile osservare un robot con quattro ruote denominato W-1, e il sempre presente androide chiamato CL-1, protagonista di un video in cui viene mostrato mentre corre e sale delle scale.

 


Sostieni Renovatio 21

È impossibile per il lettore sano di mente (o anche solo per il non vaccinato) fare a meno di pensare che tali creature artificiali saranno usate a breve per la caccia agli esseri umani.

 

Come ripetuto da Renovatio 21, in realtà ciò è già avvenuto ed avviene in plurime occasioni: abbiamo visto robocani pattugliare le strade deserte del grande lockdown di Shanghai 2022, robocani al confine tra Messico e USA, robocani israeliani in azione in queste stesse ore a Gaza.

 

Al contempo, non possiamo dimenticare che università cinesi hanno dimostrato la capacità di programmare stormi di microdroni-cacciatori – veri e propri slaughterbots – in grado di inseguire ed eliminare gli esseri umani anche nei boschi. Parimenti, ha impressionato parecchio l’esperimento di giovani ricercatori che hanno trasformato in poco tempo un mini-drone da poche diecine di euro in uno strumento di morte alimentato dall’Intelligenza Artificiale.

 

Non è possibile scordare anche i droni del sindaco di Messina Cateno De Luca, che durante il lockdown pandemico urlavano a chi stava fuori casa frasi giudicate da taluni come volgari.

 

Le cronache riportano che il De Luca avrebbe avuto un malore pochi giorni fa durante un comizio per le elezioni europee, dove presenta un listone con uno stuolo di altre forze politiche, tra cui alcune figure teoricamente legate alla «dissidenza» rispetto la catastrofe pandemica – così, dal no-vaxismo al dronismo, come se fossero stati improvvisamente resettati e riprogrammati, con robot.

 

Robot bipedi picchiati nei boschi in Cina, robot bipedi elettorali a caccia di voti in Italia. Va così.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine screenshot da YouTube

 

Continua a leggere

Più popolari