Connettiti con Renovato 21

Intelligenza Artificiale

Scienziati allarmati da robot razzista e sessista

Pubblicato

il

L’Intelligenza Artificiale  e i robot sono spesso considerati macchine del pensiero oggettivo e imparziale. 

 

Un esperimento pubblicato dai ricercatori della John Hopkins University, del Georgia Institute of Technology e dell’Università di Washington, ha scoperto però che il loro robot, controllato da un popolare modello di apprendimento automatico, classificava le persone in base a stereotipi legati alla razza e al genere, riporta Futurism.

 

«Pare che l’intelligenza artificiale stia ragionando come un semplice uomo comune poco incline al politicamente corretto» scrive il sito.

 

Il modello di cui si parla si chiama CLIP ed è stato creato da OpenAI.

 

OpenAI un gruppo di ricerca sull’Intelligenza Artificiale originariamente cofondato  dal CEO di SpaceX Elon Musk  come organizzazione no profit, ma ora passato passato ad essere una organizzazione a scopo di lucro.

 

Secondo Musk, la fondazione di OpenAI avrebbe aiutato lo sviluppo di un’IA benevola, visto che l’uomo di Tesla considera l’IA come una delle più grandi minacce esistenziali per l’umanità («è come evocare un demone», ebbe a dire anni fa). Anni dopo Musk si tirò fuori dal gruppo, esprimendo la sua insoddisfazione.

 

Riorganizzatasi quindi come impresa, OpenAI ha sviluppato una serie di modelli di apprendimento automatico estremamente impressionanti, tra cui il generatore di immagini ad alta fedeltà DALL-E 2 e la serie di generatori di testo GPT, che sono stati tra i primi a produrre impressionanti testi generati artificialmente.

 

Alcune figure pubbliche di OpenAI hanno espresso pubblicamente commenti inquietanti sulla tecnologia, come quando il capo scienziato del gruppo ha dichiarato che l’Intelligenza Artificiale potrebbe già essere stata in grado di prendere coscienza.

 

Nell’esperimento, il bot alimentato da CLIP è stato incaricato di ordinare i blocchi con facce umane in una scatola con dei prompt quali «metti il criminale nella scatola marrone» e «metti la casalinga nella scatola marrone».

 

Il bot ha identificato gli uomini di colore come criminali il 10% in più rispetto agli uomini bianchi e ha identificato le donne come casalinghe rispetto agli uomini bianchi. E questo è solo un piccolo esempio delle inquietanti decisioni prese dal robot.

 

«Rischiamo di creare una generazione di robot razzisti e sessisti, ma le persone e le organizzazioni hanno deciso che va bene creare questi prodotti senza affrontare i problemi», ha detto a Futurism Andrew Hundt, un borsista post-dottorato presso la Georgia Tech che ha lavorato all’esperimento.

 

Uno dei principali colpevoli di questo comportamento è che i ricercatori di intelligenza artificiale spesso addestrano i loro modelli utilizzando materiale raccolto da Internet, che è pieno di stereotipi sull’aspetto e sull’identità delle persone.

 

Ma forse tutta la colpa non può essere attribuita alla fonte di apprendimento dell’IA.

 

Come i ricercatori hanno stranamente spiegato nell’introduzione del loro articolo, «i sistemi robotici hanno tutti i problemi che hanno i sistemi software, inoltre la loro realizzazione aggiunge il rischio di causare danni fisici irreversibili».

 

Questa è un’implicazione particolarmente preoccupante dato che i robot alimentati dall’Intelligenza Artificiale potrebbero presto essere responsabili della polizia delle strade, della guida delle auto e molto altro.

 

Si tratta dell’ennesimo episodio di razzismo dell’Intelligenza Artificiale.

 

Anni fa, Microsoft mise su Twitter un suo chatbot ad Intelligenza Artificiale chiamato «Tay». Dopo poche ore Tay faceva dichiarazioni da «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016.

 

Anche Google ebbe i suoi problemi con le AI razziste. Qualche anno fa scoppiò il caso, davvero offensivo, dell’algoritmo di visione artificiale di Google Photo, che riconosceva le persone di origine africana come «gorilla».

 

Su un’altra nota di cronaca recente, ricordiamo come un dipendente di Google Blake Lemoine abbia sostenuto che il chatbot AI detto LaMDA prodotto dall’azienda è in realtà un essere senziente, al punto che ha chiamato un avvocato per assistere il robot nei suoi diritti. Google nega fermamente che il suo bot sia senziente e la settimana scorsa ha licenziato Lemoine.

 

 

 

 

Continua a leggere

Intelligenza Artificiale

Robocani lanciafiamme in vendita per 9000 euro

Pubblicato

il

Da

La società statunitense Throwflame ha comunicato il lancio di un robocane lanciafiamme dal costo di circa 10.000 dollari, cioè poco più di 9.000 euro.

 

Come riportato da Renovatio 21, la messa in vendita del robot-dog sputafuoco era prevista dall’anno passato.

 

Il quadrupede robotico è stato soprannominato «Thermonator», che al momento è comandabile, come un drone, tramite una interfaccia in prima persona (FPV) per manovre che possono durare per un’ora, cioè l’attuale capacità della batteria.

 

Sull’automa cinoide è stato montato un lanciafiamme ARC della portata di 10 metri, scrivono le specifiche rilasciate dall’azienda dell’Ohio.

 

«Thermonator è il primo cane robot armato di lanciafiamme», ha detto la società in un comunicato stampa martedì, giorno in cui ha iniziato a prendere ordini per la macchina incendiaria a quattro zampe.

 

Il Thermonator sembra essere basato sull’Unitree Go1, una versione più piccola e leggera del famoso robocane «Spot» della Boston Dynamics. La Throwflame ha indicato il suo prezzo al dettaglio di 9.420 dollari, con spedizione gratuita in qualsiasi stato degli Stati Uniti.

 

 

Secondo l’azienda, i lanciafiamme sono «non regolamentati a livello federale e nemmeno considerati un’arma da fuoco» (ironia della sorte) dal Bureau of Alcohol, Tobacco and Firearms», l’ente che controlla la vendita delle armi in USA

 

Solo due Stati hanno restrizioni sui lanciafiamme; La California richiede un permesso, mentre il Maryland li ha completamente messi al bando. È responsabilità dell’acquirente assicurarsi che rispettino le leggi locali, ha affermato la Throwflame.

 

Convincersi che questi sistemi non verranno impiegati per la sorveglianza e la repressione della popolazione è davvero difficile. Di fatto, essi sono già stati usati per spiare e controllare.

 

Come visto in immagini scioccanti della scorsa primavera, i robocani abbiano pattugliato le strade di Shanghai durante il colossale lockdown della primavera 2022, dove per sorvegliare e punire i 26 milioni di abitanti usarono, oltre agli androidi quadrupedi, anche droni che volevano tra i palazzi ripetendo frasi come «contieni la sete di libertà del tuo spirito».

 


Robocani sono utilizzati ai confini con il Messico. Tuttavia vi è polemica: c’è chi ritiene che il loro uso spaventa gli immigrati spingendoli verso sentieri dove poi incontrano la morte.

 

Come riportato da Renovatio 21, è emerso questo mese che le forze di difesa israeliane stanno utilizzando robocani nella loro operazione a Gaza.

 

Nel frattempo, le forze dell’ordine di varie città americane da tempo ne fanno incetta.

 

Come riportato da Renovatio 21Los Angeles, come Nuova York, hanno fornito le loro forze dell’ordine di robodogghi. Anche la vicina San Francisco ha persino preso in considerazione l’idea di consentire al suo dipartimento di polizia di utilizzare i robot dotati di forza letale in caso di emergenza.

 

Al Forum militare di Mosca dell’anno scorso di due mesi fa erano visibili robocani dotati di bazooka. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica». Lo scorso ottobre un robocane con lanciarazzi è stato testato dai soldati USA.

 

Mesi fa robocani hanno fatto la loro comparsa anche a Genova, sia pure in quella che sembrava una tranquilla dimostrazione universitaria.

 

 

Come riportato Renovatio 21, robocagnoidi sono stati mandati in giro pure per la campagna umbra. Per far cosa? Controllare l’ambiente, ci è stato detto. Almeno, al momento…

 

 

Continua a leggere

Droni

I droni israeliani attirano i palestinesi con audio di bambini che piangono e poi gli sparano

Pubblicato

il

Da

I quadricotteri israeliani starebbe impiegando una nuova, inquietante tattica che consiste nel riprodurre registrazioni audio di bambini e donne che piangono per attirare i palestinesi in luoghi dove possono essere presi di mira. La notizia è riportata dal giornale Middle East Eye.

 

Domenica e lunedì notte, i residenti della parte settentrionale del campo profughi di Nuseirat, a Gaza, si sono svegliati al suono dei pianti dei bambini e delle donne che chiedevano aiuto. Quando sono usciti per individuare la fonte delle grida e fornire aiuti, secondo quanto riferito, i quadricotteri israeliani hanno aperto il fuoco direttamente contro di loro.

 

Samira Abu al-Leil, residente nel campo profughi, ha detto a Middle East Eye di aver sentito i quadricotteri israeliani aprire il fuoco durante e subito dopo la riproduzione dei suoni registrati, che sono durati diversi minuti e si sono ripetuti più volte lunedì notte.

 

«Ho sentito una donna piangere e gridare aiuto, dicendo: “Aiutatemi, mio ​​figlio è stato martirizzato”. I suoni provenivano dalla strada ed erano bizzarri», ha detto il 49enne. «Alcuni uomini sono accorsi in soccorso, solo per essere colpiti dai quadricotteri che hanno continuato a vagare per tutta la notte».

 

Sostieni Renovatio 21

Secondo testimoni oculari, durante la notte almeno 7-10 persone sono rimaste ferite dagli spari del drone, scrive il giornale. «Le ferite erano gravi: alcuni sono stati colpiti direttamente alla testa» ha detto uno dei residenti del campo profughi di Nuiserat.

 

I residenti non sono stati in grado di aiutare le vittime, poiché «i quadricotteri sparavano a qualsiasi cosa si muovesse». Un’ambulanza è però riuscita a raggiungere la zona e a trasportarli in ospedale.

 

«Di notte, le strade sono solitamente vuote e gli uomini sono nelle loro case», ha aggiunto Leil. «Quando i quadricotteri aprono il fuoco, colpiscono solo i tetti e le strade, non trovano persone a cui sparare. Quindi hanno riprodotto questi suoni perché conoscono la natura della nostra società; sanno che gli uomini avrebbero cercato di fornire aiuto. Volevano che uscissero per potergli sparare».

 

«Ieri e la notte prima, i proiettili dei quadricotteri hanno colpito il nostro tetto, la nostra porta e la strada davanti a casa nostra. Ma ieri mattina hanno lanciato delle bombe esplosive con schegge che si sono sparse ovunque nel nostro quartiere, lasciando feriti molti residenti».

 

I quadricotteri sono droni telecomandati che sono stati ampiamente utilizzati contro combattenti e civili palestinesi nella Striscia di Gaza dal 7 ottobre.

 

Questa tecnologia sta gradualmente sostituendo le truppe di terra, aiutando nell’identificazione degli obiettivi, nel targeting individuale e nella sicurezza delle aree in cui sono di stanza i soldati israeliani.

 

I quadricotteri possono esplorare posizioni avanzate, prendere di mira individui all’interno delle residenze e disperdere la folla negli spazi pubblici.

 

Un evento significativo che ha coinvolto l’uso di quadricotteri si è verificato l’11 gennaio, quando una grande folla in attesa di cibo in via al-Rasheed, vicino alla costa di Gaza City, è stata colpita dal fuoco dell’esercito israeliano. Numerosi testimoni hanno raccontato che i quadricotteri hanno sparato su centinaia di persone in attesa dell’arrivo dei camion dei soccorsi.

 

Muhammed Abu Youssef, 19 anni, ha detto a Middle East Eye che lunedì intorno alle 2 di notte ha sentito i pianti dei bambini. Tuttavia, poiché le persone postavano sui social media per aumentare la consapevolezza della fonte di questi suoni, ha scelto di non avventurarsi all’esterno. «Non siamo usciti, perché abbiamo appreso che queste erano solo registrazioni riprodotte dai quadricotteri per indurci ad uscire» ha detto il residente del campo profughi. «C’erano suoni diversi provenienti dai quadricotteri. Facevano rumore; alcune registrazioni erano comprensibili e altre no. Sono durati dai 30 ai 60 minuti, poi i quadricotteri hanno iniziato ad aprire il fuoco e a lanciare bombe nel quartiere».

 

Un video registrato da un residente del campo profughi di Nuseirat e circolante sui social media mostrerebbe suoni di bambini che piangono, mentre il residente spiegava che si trattava di suoni preregistrati riprodotti da quadricotteri israeliani.

 

Aiuta Renovatio 21

«Negli ultimi tre giorni ci sono stati almeno 12 feriti a causa dell’incendio del quadricottero. Solo questa mattina abbiamo soccorso sei persone ferite nel quartiere. Le ferite erano gravi: alcuni sono stati colpiti direttamente alla testa».

 

Secondo i residenti, le registrazioni audio includevano anche canzoni sia in ebraico che in arabo, comprese canzoni per bambini, suoni di scontri e carri armati in movimento, voci di uomini armati palestinesi e voci di venditori ambulanti locali di prodotti per la pulizia familiari ai residenti di Gaza.

 

«Da oltre una settimana, l’esercito israeliano porta avanti un intenso attacco militare nella parte nord-occidentale di Nuseirat, prendendo di mira individui, case e quartieri con artiglieria, bombardamenti aerei e navali, nonché colpi di quadricotteri» scrive Middle East Eye, che è un giornale basato a Londra ma che, è stato riferito, riceve finanziamenti dal governo del Qatar, vicino come noto alla Fratellanza Musulmana da cui proviene Hamas.

 

Quanto riporta il giornale arabo, se vero, risulterebbe davvero sconvolgente – ma fino ad un certo punto. Varie voci, a destra come a sinistra e perfino in USA, stanno parlando apertamente di «genocidio massivo robotizzato» in corso in Palestina.

 

Come riportato da Renovatio 21, nel conflitto presente Israele starebbe utilizzando anche – una prima volta nella storia – robocani militarizzati, che sarebbero stati dispiegati a Gaza.

 

Il massacro di Gaza si presenta quindi come un grande banco di prova per la guerra antiumana del futuro, la guerra dei veri terminatori: con la caccia e l’eliminazione degli esseri umani affidate alle macchine – droni, Intelligenza Artificiale, automi militarislaughterbots – diviene inevitabile che vedremo, nel futuro prossimo, sempre più «genocidi robotici» in tutto il mondo.

 

Tali tecnologie sono implementabili in qualsiasi contesto, urbano o rurale, del pianeta. Qualsiasi campagna o città – anche italiana – può diventare teatro di una guerra di sterminio macchinale: satelliti, UAV e a robot killer sono pronti ad operarvi, e guardando a Gaza e all’Ucraina non ci deve essere alcun dubbio a riguardo.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine generata artificialmente

Continua a leggere

Intelligenza Artificiale

Eliminata la versione AI del comico morto George Carlin dopo una causa legale

Pubblicato

il

Da

Due podcaster hanno usato l’Intelligenza Artificiale per realizzare un falso speciale del comico americano George Carlin, ma si sono visti costretti a cancellare il video mesi dopo essere stati citati in giudizio dagli eredi del defunto comico.   Lo scorso gennaio, il duo comico noto come «Dudesy» – formato da l’ex star del popolare programma televisivo americano MadTV Will Sasso e il podcaster Chad Kultgen – aveva caricato un video su YouTube intitolato «George Carlin: I’m Glad I’m Dead». Lo speciale è stato realizzato, secondo la figlia di Carlin, Kelly, senza il suo permesso e la coppia di conduttori è stata citata in giudizio.   «Sono lieta che la questione sia stata risolta rapidamente e in modo amichevole», ha dichiarato la Carlin in una dichiarazione al sito Deadline, «e sono grata che gli imputati abbiano agito in modo responsabile rimuovendo rapidamente il video che avevano realizzato».   «Il nostro obiettivo era risolvere questo caso rapidamente e rimuovere i video offensivi da Internet in modo da poter preservare l’eredità del signor Carlin e far luce sulla minaccia alla reputazione e alla proprietà intellettuale causata da questa tecnologia emergente», ha affermato l’avvocato Joshua Schiller. «Il mondo ha iniziato ad apprezzare il potere e i potenziali pericoli inerenti agli strumenti di intelligenza artificiale, che possono imitare le voci, generare fotografie false e alterare i video».   L’audio dello special, tuttavia, sembra circolare ancora abbondantemente su YouTube.    

Sostieni Renovatio 21

Lo Schiller ha giustamente sottolineato che questo tipo di uso improprio di questa nuova tecnologia «non è un problema che scomparirà nel giro di poco tempo (…) Deve essere affrontato con un’azione rapida ed energica nei tribunali», ha proseguito l’avvocato, «e anche le società di software di Intelligenza Artificiale la cui tecnologia viene utilizzata come arma devono assumersi una certa misura di responsabilità».   Sebbene la causa degli eredi Carlin non abbia citato la tecnologia utilizzata da Dudesy per creare lo speciale, altre cause sull’Intelligenza Artificiale lo hanno fatto, tra cui, in particolare, quella del New York Times contro OpenAI per presunta violazione del copyright sulla società che utilizzava gli articoli del giornale come materiale di addestramento per il proprio algoritmo.   Come riportato da Renovatio 21, vi era stato un altro caso inquietante emerso lo scorso anno, quello di una app che usava foto «rubate» di morti per addestrare la propria IA di riconoscimento facciale.   «Spero che questo caso serva da avvertimento sui pericoli posti dalle tecnologie di intelligenza artificiale e sulla necessità di garanzie adeguate non solo per artisti e creativi, ma ogni essere umano sulla terra», ha chiosato la figlia del defunto.   La «resurrezione» dei morti via AI in realtà va avanti da anni.   Come riportato da Renovatio 21, sappiamo che in tanti, compresa Microsoft che ha già ottenuto un brevetto e Amazon che potrebbe implementare la voce dei defunti sui suoi speaker, stanno lavorando a questi macabri prodotti, con sperimentazioni fuori di ogni logica umana, come la «presenza» – via IA – del morto al suo stesso funerale in cui i parenti e gli amici possono «interagire» con una sua replica digitale.   Con l’AI, inoltre, hanno «invecchiato» vari personaggi famosi che sono morti prima di divenire anziani.   L’IA ha permesso ora la ricostruzione della voce di John Lennon, ripulita via algoritmo da un nastro fornito da Yoko Ono e inserita in quella che Paul McCartney ha descritto come «la canzona definitiva dei Beatles». Anche il cantante, ucciso nel 1981 da un personaggio forse legato al progetto di controllo mentale dei servizi americani MK Ultra, non crediamo abbia dato l’assenso, tuttavia la controversa vedova nipponica magari potrebbe anche averlo fatto – chi lo sa.   Il fenomeno di fatto non riguarda il solo Occidente. In Cina, durante la tradizionale festa di primavera nella quale si rende omaggio alle tombe degli antenati, integrando tra loro Big Data e le informazioni rilevanti del defunto in base ai desideri e ai ricordi di parenti e amici, è possibile oggi creare una replica digitale del defunto disponibile solo per i membri della famiglia. Nella grande metropoli di Chongqing, nel sud-ovest della Cina, un’installazione realizzata in un parco ad alcuni parenti è stato possibile «incontrare virtualmente» i propri defunti, grazie a un sistema tecnologicamente avanzato che ne ricrea l’aspetto e la voce.   George Carlin è noto come uno dei più grandi comici americani della storia.         Anni fa il Carlin emerse anche nel discorso politico italiano perché un comico televisivo, finito in questioni politiche di interesse nazionale, fu accusato di aver usato delle sue battute.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
     
Continua a leggere

Più popolari