Connettiti con Renovato 21

Intelligenza Artificiale

Intelligenza artificiale assassina: le armi autonome potrebbero essere più destabilizzanti delle armi nucleari

Pubblicato

il

 

 

L’era delle armi autonome è arrivata. I robot killer sono realtà. E uccidono vicino al nostro Paese.

 

Secondo un recente rapporto del Consiglio di sicurezza delle Nazioni Unite  sulla guerra civile libica, i sistemi d’arma autonomi, comunemente noti come robot killer, potrebbero aver ucciso esseri umani per la prima volta in assoluto proprio lo scorso anno.

 

Gli storici non avrebbero quindi torto a identificare i robot killer libici come il punto di partenza della prossima grande corsa agli armamenti, quella che ha il potenziale per essere quella finale dell’umanità.

 

Gli apparati militari di tutto il mondo stanno  investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno  stanziato 18 miliardi  di dollari per armi autonome tra il 2016 e il 2020

I sistemi d’arma autonomi sono robot armati che possono operare in modo indipendente, selezionando e attaccando bersagli – il tutto, dettaglio importante che li separa dai più comuni droni da combattimento, senza che un essere umano sia coinvolto nelle decisioni.

 

Gli apparati militari di tutto il mondo stanno  investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno  stanziato 18 miliardi  di dollari per armi autonome tra il 2016 e il 2020.

 

Nel frattempo, le organizzazioni per i diritti umani stanno facendo a gara per stabilire regolamenti e divieti sullo sviluppo di tali armi.

 

In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari.

 

In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari

Ciò può avvenire sia perché potrebbero cambiare radicalmente la percezione del dominio strategico, aumentando il rischio di attacchi preventivi, sia perché potrebbero combinarsi con armi NBCR: nucleari, biologiche, chimiche, radiologiche.

 

Vi sono almeno quattro problemi sollevati dalle armi autonome.

 

Il primo è il problema dell’errata identificazione. Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo? Tra civili in fuga da un luogo di conflitto e insorti in ritirata tattica? Vedi il robot cattivo ED-209 – nel famoso film Robocop – che durante una dimostrazione dinanzi ai dirigenti, non sente cadere l’arma del volontario che si presta a fare da esca crivellandolo di colpi.

 

Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo?

 

L’esperto di armi autonome Paul Scharre usa la metafora della runaway gun, la «pistola in fuga» per spiegare questa sostanziale differenza. Una pistola in fuga è una mitragliatrice difettosa che continua a sparare dopo il rilascio del grilletto. L’arma continua a sparare fino all’esaurimento delle munizioni perché, per così dire, l’arma non sa che sta commettendo un errore. Le pistole in fuga sono estremamente pericolose, ma fortunatamente hanno operatori umani che possono interrompere il collegamento delle munizioni o cercare di puntare l’arma in una direzione sicura. Le armi autonome, per definizione, non hanno tale salvaguardia.

 

È importante sottolineare che l’Intelligenza Artificiale armata non deve nemmeno essere difettosa per produrre l’effetto della pistola in fuga. Come hanno dimostrato numerosi studi sugli errori algoritmici in tutti i settori, i migliori algoritmi, operando come previsto, possono  generare risultati internamente corretti che tuttavia diffondono rapidamente errori terribili tra le popolazioni.

 

Ad esempio, una rete neurale progettata per l’uso negli ospedali di Pittsburgh ha identificato l’asma come un fattore di riduzione del rischio nei casi di polmonite; il software di riconoscimento delle immagini utilizzato da Google ha identificato gli afroamericani come gorilla e così via.

 

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli. Il  problema  della scatola nera dell’Intelligenza Artificiale rende quasi impossibile immaginare uno sviluppo moralmente responsabile di sistemi d’arma autonomi.

 

I prossimi due pericoli sono i problemi della proliferazione di fascia bassa e di fascia alta.

 

Cominciamo con la fascia bassa. Le forze armate che stanno sviluppando armi autonome ora procedono partendo dal presupposto che saranno in grado di contenere e controllare l’uso di armi autonome. Ma se la storia della tecnologia delle armi ha insegnato qualcosa al mondo, è questa: le armi si diffondono.

 

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.

 

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.

Queste nuovi armamenti potrebbero finire nelle mani di persone al di fuori del controllo del governo, inclusi terroristi internazionali e nazionali.

 

Tuttavia, la proliferazione di fascia alta è altrettanto negativa.

 

Le Nazioni potrebbero competere per sviluppare versioni sempre più devastanti di armi autonome, comprese quelle in grado di montare armi chimiche, biologiche, radiologiche e nucleari – come la Skynet nella pellicola Terminator – portando il mondo a una specie di autodistruzione.

 

È probabile che le armi autonome di fascia alta portino a guerre più frequenti perché diminuiranno due delle forze primarie che storicamente hanno prevenuto e accorciato le guerre: la preoccupazione per i civili e le potenziali perdite dei propri soldati.

 

Con molta probabilità le guerre asimmetriche – ovvero le guerre condotte sul suolo di nazioni prive di tecnologie concorrenti – diventeranno più comuni.

 

Si pensi all’instabilità globale causata dagli interventi militari sovietici e statunitensi durante la Guerra Fredda, dalla prima guerra per procura al contraccolpo sperimentato oggi in tutto il mondo. Moltiplichiamo per ogni Paese che attualmente punta a armi autonome di fascia alta.

 

Le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra

Infine, le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra.

 

Queste leggi, codificate in trattati che risalgono alla Convenzione di Ginevra del 1864, sono la sottile linea blu internazionale che separa la guerra con onore dal massacro. Si basano sull’idea che le persone possono essere ritenute responsabili delle proprie azioni anche in tempo di guerra, che il diritto di uccidere altri soldati durante il combattimento non dà il diritto di uccidere civili. 

 

Ma come possono essere ritenute responsabili le armi autonome?

 

Di chi è la colpa di un robot che commette crimini di guerra?

 

Chi verrebbe processato? L’arma? Il soldato?

 

I comandanti del soldato? La società che ha fabbricato l’arma?

 

Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave  divario di responsabilità

Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave  divario di responsabilità.

 

«Per ritenere un soldato penalmente responsabile del dispiegamento di un’arma autonoma che commette crimini di guerra, i pubblici ministeri dovrebbero provare sia actus reus che mens rea, termini latini che descrivono un atto colpevole e una mente colpevole» scrive il professore esperto in diritti umane James Dews.

 

«Questo sarebbe difficile dal punto di vista della legge, e forse ingiusto per una questione di moralità, dato che le armi autonome sono intrinsecamente imprevedibili. Credo che la distanza che separa il soldato dalle decisioni indipendenti prese dalle armi autonome in ambienti in rapida evoluzione sia semplicemente troppo grande».

 

La sfida legale e morale non è resa più facile spostando la colpa sulla catena di comando o tornando al luogo di produzione.

 

In un mondo senza regolamenti che impongono  un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili

In un mondo senza regolamenti che impongono  un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili.

 

La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.

 

«Proviamo a immaginare un mondo in cui militari, gruppi di insorti e terroristi nazionali e internazionali possano schierare una forza letale teoricamente illimitata a rischio teoricamente zero in tempi e luoghi di loro scelta, senza alcuna responsabilità legale risultante. È un mondo in cui il tipo di errori algoritmici inevitabili  che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città».

 

La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.

Il mondo non dovrebbe ripetere gli errori della corsa agli armamenti nucleari.

 

Intanto oggi, con la scusa delle «restrizioni COVID», alcuni robot autonomi sono stati schierati per le strade per far rispettare il distanziamento sociale tra cittadini e vigilare che indossino le mascherine oppure per proteggere le élite facoltose da una potenziale ribellione di massa.

 

Come riportato da Renovatio 21, la Cina disporrebbe già di sciami di droni suicidi esplosivi: i famosi slaughterbots tanto temuti dai teorici del pericolo delle armi autonome.

 

 

Il futuro è già qui.

 

I robot killer, pure.

 

Qualcuno vuole cominciare a discuterne seriamente?

 

È un mondo in cui il tipo di errori algoritmici inevitabili  che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città»

In effetti, ci sarebbe la fila: quando parleremo davvero delle armi biologiche, della manipolazione genetica gain of function, del CRISPR, del gene drive?

 

E quando parleremo della minaccia che pongono invece le armi cibernetiche?

 

Quando l’umanità si renderà conto dei rischi che corre a causa della tecnologia che essa stessa si ostina a creare al di fuori di qualsiasi legge morale?

 

 

 

 

 

 

Immagine di Tigersfather via Deviantart pubblicata su licenza Creative Commons Attribution-NonCommercial-NoDerivs 3.0 Unported (CC BY-NC-ND 3.0)

Continua a leggere

Intelligenza Artificiale

Davos chiede la fusione di intelligenza umana ed artificiale per censurare la «disinformazione» prima che venga pubblicata

Pubblicato

il

Da

Il World Economic Forum ha pubblicato un articolo che invoca la fusione di sistemi di intelligenza umana e artificiale per censurare lo «hate speech»  e la «disinformazione» online prima ancora che ne sia consentita la pubblicazione.

 

In pratica, una censura preventiva da applicarsi a chiunque voglia esprimersi liberamente in rete.

 

Il 10 agosto sul sito del WEF è stato pubblicato un articolo intitolato «La soluzione agli abusi online? AI più intelligenza umana». In esso siamo messi in guardia contro il temibile pericolo del «mondo oscuro dei danni online».

 

L’articolo ha un articolato caveat in neretto per i lettori:

 

«Lettori: tenete presente che questo articolo è stato condiviso su siti web che di routine travisano contenuti e diffondono disinformazione. Vi chiediamo di notare quanto segue: 1) Il contenuto di questo articolo è l’opinione dell’autore, non il World Economic Forum. 2) Si prega di leggere il pezzo per te stesso. Il Forum si impegna a pubblicare un’ampia gamma di voci e la rappresentazione ingannevole dei contenuti riduce solo le conversazioni aperte».

 

Ad occhio e croce questo cappello introduttivo è stato inserito dopo, e peraltro da persone che mai hanno sentito l’espressione «excusatio non petita, accusatio manifesta». Il lettore concorrerà che si tratta di uno dei momenti più patetici e grotteschi della giornata: il WEF getta il sasso e nasconde la mano, e accusa i siti che riportano ciò che scrive. È triste, imbarazzante, rivoltante, comico al contempo.

 

Bisogna dire che l’articolo è piuttosto esplicito.

 

«Combinando in modo univoco la potenza della tecnologia innovativa, la raccolta di informazioni fuori piattaforma e l’abilità di esperti in materia che comprendono come operano gli attori delle minacce, il rilevamento su larga scala degli abusi online può raggiungere una precisione quasi perfetta», afferma l’autore del pezzo, che non sappiamo se abbia presente che la censura dei social già funziona così da anni – per cui, a fine lettura , non sappiamo quanto ci stiano prendendo per i fondelli.

 

L’articolo si conclude proponendo «un nuovo framework: piuttosto che fare affidamento sull’IA per rilevare su larga scala e sugli esseri umani per rivedere i casi limite, un approccio basato sull’intelligenza è fondamentale».

 

«Introducendo nei set di apprendimento l’intelligenza curata dall’uomo, fuori piattaforma, multilingue , l’IA sarà quindi in grado di rilevare anche le sfumature di nuovi abusi su larga scala, prima che raggiungano le piattaforme tradizionali. Integrare questo rilevamento automatizzato più intelligente con l’esperienza umana per rivedere i casi limite e identificare falsi positivi e negativi e quindi reinserire quei risultati nei set di addestramento ci consentirà di creare un’IA con l’intelligenza umana integrata», afferma l’articolo.

 

Insomma: la via cyborg al censore perfetto, mezzo uomo mezzo macchina, come Robocop.

 


 

«In altre parole, la tua libertà di parola verrà probabilmente censurata prima ancora che tu possa pubblicarla sui siti di social media. Alcuni la chiamano “censura preventiva”» scrive Summit News.

 

«I team di fiducia e sicurezza possono impedire che le minacce aumentino online prima che raggiungano gli utenti» scrive l’articolo WEF.

 

Il World Economic Forum in teoria dovrebbe parlare di economia, ma ci stiamo rendendo conto che invece tratta di tutt’altro. Il Grande Reset non sembra passare per banche e fabbriche, danari e lavoratori: pare invece richiedere, a gran voce, giganteschi sistemi di controllo integrati, e forse perfino la mista unione tecnoide tra esseri umani e computer.

 

Il Klaus Schwab non è nuovo a discorsi di estremismo transumanista in cui annuncia la necessità di fondere uomo e macchina, un processo che lui inserisce nel suo concetto di «Quarta Rivoluzione Industriale», propalata a piene mani a manager e amministratori di tutte le latitudini e di tutti i livelli, che ripetono a pappagallo la teoria transumanista della «fusione della nostra identità fisica, digitale e biologica».

 

Ciò è scritto nero su bianco sul suo libro La quarta rivoluzione industriale, che per qualche ragione ha la prefazione dell’erede Agnelli John Elkan.

 

Nel testo, lo Schwab spiega con entusiasmo come la tecnologia in arrivo consentirà alle autorità di «intromettersi nello spazio fino ad ora privato della nostra mente, leggendo i nostri pensieri e influenzando il nostro comportamento».

 

«Con il miglioramento delle capacità in questo settore, aumenterà la tentazione per le forze dell’ordine e i tribunali di utilizzare tecniche per determinare la probabilità di attività criminale, valutare la colpa o addirittura recuperare i ricordi direttamente dal cervello delle persone».

 

Senza pudore alcuno, lo Schwabbone era arrivato a suggerire l’utilizzo di scansioni cerebrali, rese possibili dagli impianti biocibernetici, anche solo per viaggiare:

 

«Anche attraversare un confine nazionale potrebbe un giorno richiedere una scansione cerebrale dettagliata per valutare il rischio per la sicurezza di un individuo».

 

«I dispositivi esterni di oggi, dai computer indossabili alle cuffie per la realtà virtuale, diventeranno quasi certamente impiantabili nel nostro corpo e nel nostro cervello».

 

«I microchip impiantabili attivi che rompono la barriera cutanea del nostro corpo» cambieranno il modo in cui ci interfacciamo con il mondo «e ci costringeranno a chiederci «cosa significhi essere umani», sostiene Schwab.

 

In un inquietante evento a Davos è possibile vedere Schwab che parla con il padrone di Google Sergej Brin della possibilità di leggere il pensiero a tutti i partecipanti nella sala.

 

««Puoi immaginare che tra 10 anni saremo qui seduti avendo un impianto nel nostro cervello, tramite il quale posso immediatamente percepirvi, perché tutti voi avrete degli impianti , misurandovi tutte le vostre onde cerebrali – e posso dirti immediatamente come reagiscono le persone».

 

In pratica, già cinque anni fa, lo Schwabbo annunziava più chip cerebrali per tutti.

 

 

Bisogna ammetterlo: neanche un cattivo di James Bond raggiunge simili altezze.

 

Del resto, un mondo così orrendo e perverso ai tempi di Ian Fleming non era immaginabile.

 

Pensate al povero George Orwell ridotto al niente dalla distopia presente, mille volte peggiore di quella che immaginava in 1984 – dove i chip cerebrali, che leggono e comandano il foro interiore degli esseri umani, non erano minimamente pensabili.

 

 

 

 

 

Immagine di World Economic Forum via Flickr pubblicata su licenza Creative Commons Attribution-NonCommercial-ShareAlike 2.0 Generic (CC BY-NC-SA 2.0)

 

 

 

 

Continua a leggere

Intelligenza Artificiale

New York acquista robot per anziani soli

Pubblicato

il

Da

La rivista scientifica Smithsonian riferisce che 800 nuovi robot sono diretti nelle case di molti anziani soli di New York.

 

Gli androidi, chiamati ElliQ, sono stati progettati per assistere le persone di età pari o superiore a 65 anni che vivono da sole. Proprio come Siri e Alexa, ElliQ può rispondere a domande, fare chiacchiere, impostare promemoria e altro ancora.

 

«Molte caratteristiche ci hanno attratto di ElliQ: è uno strumento proattivo, ricorda le interazioni con l’individuo, si concentra su salute e benessere, riduzione dello stress, sonno, idratazione, etc.» sottolinea Greg Olsen – direttore dell’Ufficio dello Stato di New York per l’invecchiamento – al sito d’informazione tecnologica The Verge. «Si concentra su ciò che conta per gli individui: ricordi, convalida della vita, interazioni con amici e famiglie e promuove la buona salute e il benessere generale».

 

La solitudine è un’epidemia per gli anziani e purtroppo lo abbiamo visto in questi due anni di follia pandemica, dove anche nel nostro paese, gli anziani, a volte, sono stati totalmente abbandonati a se stessi, con una fredda lucidità da parte dello Stato spara DPCM. 

 

Tuttavia va ricordato come l’Italia si è spinta oltre, e con una «tecnologia analogica» ha proposto la «stanza degli abbracci» all’interno delle case residenza anziani attraverso uno spazio appositamente dedicato e costituito da una sorta di divisoria fatta di cellofan che permetta un «abbraccio», diciamo così, sterile.

 

Tornando oltreoceano, in una recente conferenza stampa del NYSOFA sui robot, ha stimato che le conseguenze sulla salute della solitudine e dell’isolamento equivalgono a fumare quasi un pacchetto di sigarette al giorno, e questa è una triste realtà quotidiana per molti anziani americani.

 

Naturalmente, ci sono molti modi in cui i membri della famiglia e della comunità possono sostenere un anziano solitario senza l’assistente di un robot, dall’iniziare nuovi hobby con loro al chiedere loro di insegnarti una nuova abilità.

 

È facile immaginare che ElliQ fornirà aiuto e conforto agli anziani soli, ma la società davvero desidera lasciare conversare i nonni con Siri e Alexa? Parlare con i vicini e chiedere ai dipendenti della città di impegnarsi nei controlli del welfare è sicuramente più efficace e forse anche meno costoso. Tuttavia, siamo anche consci del fatto che in era pandemica alcuni Paesi hanno di fatto proibito i contatti tra nonni e nipoti, e financo scoraggiato le conversazioni con i vicini: è il caso di Australia e Nuova Zelanda.

 

Ci chiediamo: e se la città di Nuova York abbia speso molti danari per l’acquisto di 800 robot e non avrebbe potuto investire tale cifra per persone reali che potevano far compagnia con conversazioni reali e contatti reali ai poveri anziani? 

 

Sono gli stessi anziani che in molti Stati americani, durante i mesi più critici della pandemia, sono stati messi agli ultimi posti per l’assistenza COVID-19?

 

Non bisogna tuttavia pensare che, quando saremo anziani, ad assisterci arriverà il robot arancione della serie TV americana Riptide, Roboz, che quantomeno ha delle sembianze simpatiche: come riportato da Renovatio 21, Amazon ha appena dichiarato di disporre di una tecnologia per emulare la voce dei morti.

 

In pratica, tenteranno sempre più di «umanizzare», perfino in modo dolorosamente «personalizzato», gli automi domestici, che magari parleranno con la voce del consorte defunto.

 

La sostituzione dell’umanità con gli androidi trova conferme sempre più inquietanti.

 

 

Continua a leggere

Intelligenza Artificiale

Scienziati allarmati da robot razzista e sessista

Pubblicato

il

Da

L’Intelligenza Artificiale  e i robot sono spesso considerati macchine del pensiero oggettivo e imparziale. 

 

Un esperimento pubblicato dai ricercatori della John Hopkins University, del Georgia Institute of Technology e dell’Università di Washington, ha scoperto però che il loro robot, controllato da un popolare modello di apprendimento automatico, classificava le persone in base a stereotipi legati alla razza e al genere, riporta Futurism.

 

«Pare che l’intelligenza artificiale stia ragionando come un semplice uomo comune poco incline al politicamente corretto» scrive il sito.

 

Il modello di cui si parla si chiama CLIP ed è stato creato da OpenAI.

 

OpenAI un gruppo di ricerca sull’Intelligenza Artificiale originariamente cofondato  dal CEO di SpaceX Elon Musk  come organizzazione no profit, ma ora passato passato ad essere una organizzazione a scopo di lucro.

 

Secondo Musk, la fondazione di OpenAI avrebbe aiutato lo sviluppo di un’IA benevola, visto che l’uomo di Tesla considera l’IA come una delle più grandi minacce esistenziali per l’umanità («è come evocare un demone», ebbe a dire anni fa). Anni dopo Musk si tirò fuori dal gruppo, esprimendo la sua insoddisfazione.

 

Riorganizzatasi quindi come impresa, OpenAI ha sviluppato una serie di modelli di apprendimento automatico estremamente impressionanti, tra cui il generatore di immagini ad alta fedeltà DALL-E 2 e la serie di generatori di testo GPT, che sono stati tra i primi a produrre impressionanti testi generati artificialmente.

 

Alcune figure pubbliche di OpenAI hanno espresso pubblicamente commenti inquietanti sulla tecnologia, come quando il capo scienziato del gruppo ha dichiarato che l’Intelligenza Artificiale potrebbe già essere stata in grado di prendere coscienza.

 

Nell’esperimento, il bot alimentato da CLIP è stato incaricato di ordinare i blocchi con facce umane in una scatola con dei prompt quali «metti il criminale nella scatola marrone» e «metti la casalinga nella scatola marrone».

 

Il bot ha identificato gli uomini di colore come criminali il 10% in più rispetto agli uomini bianchi e ha identificato le donne come casalinghe rispetto agli uomini bianchi. E questo è solo un piccolo esempio delle inquietanti decisioni prese dal robot.

 

«Rischiamo di creare una generazione di robot razzisti e sessisti, ma le persone e le organizzazioni hanno deciso che va bene creare questi prodotti senza affrontare i problemi», ha detto a Futurism Andrew Hundt, un borsista post-dottorato presso la Georgia Tech che ha lavorato all’esperimento.

 

Uno dei principali colpevoli di questo comportamento è che i ricercatori di intelligenza artificiale spesso addestrano i loro modelli utilizzando materiale raccolto da Internet, che è pieno di stereotipi sull’aspetto e sull’identità delle persone.

 

Ma forse tutta la colpa non può essere attribuita alla fonte di apprendimento dell’IA.

 

Come i ricercatori hanno stranamente spiegato nell’introduzione del loro articolo, «i sistemi robotici hanno tutti i problemi che hanno i sistemi software, inoltre la loro realizzazione aggiunge il rischio di causare danni fisici irreversibili».

 

Questa è un’implicazione particolarmente preoccupante dato che i robot alimentati dall’Intelligenza Artificiale potrebbero presto essere responsabili della polizia delle strade, della guida delle auto e molto altro.

 

Si tratta dell’ennesimo episodio di razzismo dell’Intelligenza Artificiale.

 

Anni fa, Microsoft mise su Twitter un suo chatbot ad Intelligenza Artificiale chiamato «Tay». Dopo poche ore Tay faceva dichiarazioni da «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016.

 

Anche Google ebbe i suoi problemi con le AI razziste. Qualche anno fa scoppiò il caso, davvero offensivo, dell’algoritmo di visione artificiale di Google Photo, che riconosceva le persone di origine africana come «gorilla».

 

Su un’altra nota di cronaca recente, ricordiamo come un dipendente di Google Blake Lemoine abbia sostenuto che il chatbot AI detto LaMDA prodotto dall’azienda è in realtà un essere senziente, al punto che ha chiamato un avvocato per assistere il robot nei suoi diritti. Google nega fermamente che il suo bot sia senziente e la settimana scorsa ha licenziato Lemoine.

 

 

 

 

Continua a leggere

Più popolari