Connettiti con Renovato 21

Intelligenza Artificiale

Intelligenza artificiale assassina: le armi autonome potrebbero essere più destabilizzanti delle armi nucleari

Pubblicato

il

 

 

L’era delle armi autonome è arrivata. I robot killer sono realtà. E uccidono vicino al nostro Paese.

 

Secondo un recente rapporto del Consiglio di sicurezza delle Nazioni Unite  sulla guerra civile libica, i sistemi d’arma autonomi, comunemente noti come robot killer, potrebbero aver ucciso esseri umani per la prima volta in assoluto proprio lo scorso anno.

 

Gli storici non avrebbero quindi torto a identificare i robot killer libici come il punto di partenza della prossima grande corsa agli armamenti, quella che ha il potenziale per essere quella finale dell’umanità.

 

Gli apparati militari di tutto il mondo stanno  investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno  stanziato 18 miliardi  di dollari per armi autonome tra il 2016 e il 2020

I sistemi d’arma autonomi sono robot armati che possono operare in modo indipendente, selezionando e attaccando bersagli – il tutto, dettaglio importante che li separa dai più comuni droni da combattimento, senza che un essere umano sia coinvolto nelle decisioni.

 

Gli apparati militari di tutto il mondo stanno  investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno  stanziato 18 miliardi  di dollari per armi autonome tra il 2016 e il 2020.

 

Nel frattempo, le organizzazioni per i diritti umani stanno facendo a gara per stabilire regolamenti e divieti sullo sviluppo di tali armi.

 

In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari.

 

In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari

Ciò può avvenire sia perché potrebbero cambiare radicalmente la percezione del dominio strategico, aumentando il rischio di attacchi preventivi, sia perché potrebbero combinarsi con armi NBCR: nucleari, biologiche, chimiche, radiologiche.

 

Vi sono almeno quattro problemi sollevati dalle armi autonome.

 

Il primo è il problema dell’errata identificazione. Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo? Tra civili in fuga da un luogo di conflitto e insorti in ritirata tattica? Vedi il robot cattivo ED-209 – nel famoso film Robocop – che durante una dimostrazione dinanzi ai dirigenti, non sente cadere l’arma del volontario che si presta a fare da esca crivellandolo di colpi.

 

Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo?

 

L’esperto di armi autonome Paul Scharre usa la metafora della runaway gun, la «pistola in fuga» per spiegare questa sostanziale differenza. Una pistola in fuga è una mitragliatrice difettosa che continua a sparare dopo il rilascio del grilletto. L’arma continua a sparare fino all’esaurimento delle munizioni perché, per così dire, l’arma non sa che sta commettendo un errore. Le pistole in fuga sono estremamente pericolose, ma fortunatamente hanno operatori umani che possono interrompere il collegamento delle munizioni o cercare di puntare l’arma in una direzione sicura. Le armi autonome, per definizione, non hanno tale salvaguardia.

 

È importante sottolineare che l’Intelligenza Artificiale armata non deve nemmeno essere difettosa per produrre l’effetto della pistola in fuga. Come hanno dimostrato numerosi studi sugli errori algoritmici in tutti i settori, i migliori algoritmi, operando come previsto, possono  generare risultati internamente corretti che tuttavia diffondono rapidamente errori terribili tra le popolazioni.

 

Ad esempio, una rete neurale progettata per l’uso negli ospedali di Pittsburgh ha identificato l’asma come un fattore di riduzione del rischio nei casi di polmonite; il software di riconoscimento delle immagini utilizzato da Google ha identificato gli afroamericani come gorilla e così via.

 

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli. Il  problema  della scatola nera dell’Intelligenza Artificiale rende quasi impossibile immaginare uno sviluppo moralmente responsabile di sistemi d’arma autonomi.

 

I prossimi due pericoli sono i problemi della proliferazione di fascia bassa e di fascia alta.

 

Cominciamo con la fascia bassa. Le forze armate che stanno sviluppando armi autonome ora procedono partendo dal presupposto che saranno in grado di contenere e controllare l’uso di armi autonome. Ma se la storia della tecnologia delle armi ha insegnato qualcosa al mondo, è questa: le armi si diffondono.

 

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.

 

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.

Queste nuovi armamenti potrebbero finire nelle mani di persone al di fuori del controllo del governo, inclusi terroristi internazionali e nazionali.

 

Tuttavia, la proliferazione di fascia alta è altrettanto negativa.

 

Le Nazioni potrebbero competere per sviluppare versioni sempre più devastanti di armi autonome, comprese quelle in grado di montare armi chimiche, biologiche, radiologiche e nucleari – come la Skynet nella pellicola Terminator – portando il mondo a una specie di autodistruzione.

 

È probabile che le armi autonome di fascia alta portino a guerre più frequenti perché diminuiranno due delle forze primarie che storicamente hanno prevenuto e accorciato le guerre: la preoccupazione per i civili e le potenziali perdite dei propri soldati.

 

Con molta probabilità le guerre asimmetriche – ovvero le guerre condotte sul suolo di nazioni prive di tecnologie concorrenti – diventeranno più comuni.

 

Si pensi all’instabilità globale causata dagli interventi militari sovietici e statunitensi durante la Guerra Fredda, dalla prima guerra per procura al contraccolpo sperimentato oggi in tutto il mondo. Moltiplichiamo per ogni Paese che attualmente punta a armi autonome di fascia alta.

 

Le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra

Infine, le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra.

 

Queste leggi, codificate in trattati che risalgono alla Convenzione di Ginevra del 1864, sono la sottile linea blu internazionale che separa la guerra con onore dal massacro. Si basano sull’idea che le persone possono essere ritenute responsabili delle proprie azioni anche in tempo di guerra, che il diritto di uccidere altri soldati durante il combattimento non dà il diritto di uccidere civili. 

 

Ma come possono essere ritenute responsabili le armi autonome?

 

Di chi è la colpa di un robot che commette crimini di guerra?

 

Chi verrebbe processato? L’arma? Il soldato?

 

I comandanti del soldato? La società che ha fabbricato l’arma?

 

Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave  divario di responsabilità

Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave  divario di responsabilità.

 

«Per ritenere un soldato penalmente responsabile del dispiegamento di un’arma autonoma che commette crimini di guerra, i pubblici ministeri dovrebbero provare sia actus reus che mens rea, termini latini che descrivono un atto colpevole e una mente colpevole» scrive il professore esperto in diritti umane James Dews.

 

«Questo sarebbe difficile dal punto di vista della legge, e forse ingiusto per una questione di moralità, dato che le armi autonome sono intrinsecamente imprevedibili. Credo che la distanza che separa il soldato dalle decisioni indipendenti prese dalle armi autonome in ambienti in rapida evoluzione sia semplicemente troppo grande».

 

La sfida legale e morale non è resa più facile spostando la colpa sulla catena di comando o tornando al luogo di produzione.

 

In un mondo senza regolamenti che impongono  un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili

In un mondo senza regolamenti che impongono  un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili.

 

La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.

 

«Proviamo a immaginare un mondo in cui militari, gruppi di insorti e terroristi nazionali e internazionali possano schierare una forza letale teoricamente illimitata a rischio teoricamente zero in tempi e luoghi di loro scelta, senza alcuna responsabilità legale risultante. È un mondo in cui il tipo di errori algoritmici inevitabili  che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città».

 

La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.

Il mondo non dovrebbe ripetere gli errori della corsa agli armamenti nucleari.

 

Intanto oggi, con la scusa delle «restrizioni COVID», alcuni robot autonomi sono stati schierati per le strade per far rispettare il distanziamento sociale tra cittadini e vigilare che indossino le mascherine oppure per proteggere le élite facoltose da una potenziale ribellione di massa.

 

Come riportato da Renovatio 21, la Cina disporrebbe già di sciami di droni suicidi esplosivi: i famosi slaughterbots tanto temuti dai teorici del pericolo delle armi autonome.

 

 

Il futuro è già qui.

 

I robot killer, pure.

 

Qualcuno vuole cominciare a discuterne seriamente?

 

È un mondo in cui il tipo di errori algoritmici inevitabili  che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città»

In effetti, ci sarebbe la fila: quando parleremo davvero delle armi biologiche, della manipolazione genetica gain of function, del CRISPR, del gene drive?

 

E quando parleremo della minaccia che pongono invece le armi cibernetiche?

 

Quando l’umanità si renderà conto dei rischi che corre a causa della tecnologia che essa stessa si ostina a creare al di fuori di qualsiasi legge morale?

 

 

 

 

 

 

Immagine di Tigersfather via Deviantart pubblicata su licenza Creative Commons Attribution-NonCommercial-NoDerivs 3.0 Unported (CC BY-NC-ND 3.0)

Continua a leggere

Intelligenza Artificiale

Robot umanoidi, video inquietante

Pubblicato

il

Da

 

A inizio dicembre è stato pubblicato il primo video di Ameca, il più avanzato robot umanoide di Engineered Arts, un’azienda britannica che sviluppa «robot per l’intrattenimento».

 

Ameca è «progettato come piattaforma per l’intelligenza artificiale e l’interazione uomo-robot (HRI)» e sarà messo in mostra tra poche settimane alla più grande fiera di elettronica del mondo, il CES di Las Vegas.

 

Possiamo dire che ci stiamo avvicinando alla cosiddetta Uncanny Valley, la «zona del perturbante». Secondo l’idea del professore di robotica Masahiro Mori che la ipotizzò già nel 1970, gli oggetti umanoidi che assomigliano imperfettamente a veri esseri umani provocano sentimenti inquietanti e/o repulsivi negli osservatori umani.

 

L’ipotesi della Uncanny Valley prevede che un oggetto che appare quasi umano rischierà di suscitare sentimenti freddi e inquietanti negli spettatori.

 

È questo il caso?

 

 

 

Immagine screenshot da YouTube

 

Continua a leggere

Geopolitica

Sciami di micro-droni autonomi esplosivi in produzione in Australia

Pubblicato

il

Da

 

 

L’incubo degli Slaughterbots – sciami di micro-droni esplosivi che colpiscono il bersaglio in autonomia – è realtà.

 

Una delle aziende che sta già producendo un simile tipo di micro-drone militare – in grado di volare sino all’obbiettivo ed esplodere – è l’Australia, impegnata in una corsa anche tecnologica alle armi in previsione di un possibile scontro con la Cina.

 

In un reportage della trasmissione di giornalismo d’inchiesta 60 Minutes, la tecnologia dei droni autoesplodenti è stata recentemente rivelata al pubblico.

 

La tecnologia dei droni autoesplodenti è stata recentemente rivelata al pubblico

Il programma TV ha mostrato un poligono per questo nuovo tipo di tecnologia militare situato fuori Melbourne.

 

 

 

L’arma è costituita da squadroni di piccoli droni tubulari che portano una carica esplosiva.

 

Li produce un’azienda dello Stato australiano del Vittoria, la Defentex. Secondo il CEO della società i droni autonomi esplosivi potrebbero rappresentare una parte critica dell’arsenale di Canberra nel caso di scontro con Pechino.

 

«È economico, è spendibile, e si può raggruppare in una massa, o sciame, così da avere un grande impatto sul campo di battaglia»

«È economico, è spendibile, e si può raggruppare in una massa, o sciame, così da avere un grande impatto sul campo di battaglia».

 

Il dirigente conferma al giornalista che l’idea è esattamente quella di sopperire alla sproporzione tra un piccolo esercito come quello australiano contro un titano militare come la Cina: «in ultima analisi, è il motivo per cui esistiamo».

 

Il drone può portare cariche diverse: una munizione anti-uomo, anti-carro, o anche solo fumo.

 

«Se arriviamo ad avere centinaia o migliaia di questi droni che lavorano all’unisono, cosa possiamo aspettarci?» chiede il giornalista di 60 Minutes.

 

«Possono avere un effetto devastante» risponde il responsabile di DefenTex. «Noi siamo una Nazione molto piccola, abbiamo una forza di difesa molto piccola, dobbiamo massimizzare l’impatto che ogni soldato individuale può avere…»

 

Come riportato da Renovatio 21, oramai da diverso tempo che anche  , pubblicando, l’anno scorso, un video di dimostrazione.

 

 

Come riportato da Renovatio 21, secondo un recente rapporto delle Nazioni Unite, i droni autonomi killer – detti anche «slaughterbots» – stanno già effettuando attacchi aerei senza che nessun essere umano sia coinvolto nel processo decisionale.

 

Il rapporto delle Nazioni Unite pubblicato a marzo ha delineato l’uso di droni STM Kargu-2 di fabbricazione turca che hanno condotto attacchi aerei in Libia senza alcun intervento umano

 

Gli sciami di Slaughterbots – già visti su videogiuochi come Call of Duty – divennero un tema da dibattito quando nel 2017 il Future of Life Institute, un’organizzazione no-profit focalizzata sull’educazione del mondo sui rischi dell’Intelligenza Artificiale letale, pubblicò un video piuttosto sconvolgente.

 

 

 

C’è da chiedersi sul serio: la Turchia, regina di droni (usati in Libia e ora anche in Ucraina) e avversaria dell’Italia (e della Grecia, e della Francia, e della Russia…) per tanti interessi, sta sviluppando anche la tecnologia dei mini-droni autoesplodenti autonomi?

 

È una domanda che la nostra Intelligence e il nostro Ministero della Difesa dovrebbe porsi seriamente.

 

 

 

 

Continua a leggere

Cina

Caccia cinesi dotati di Intelligenza Artificiale sconfiggono i piloti umani

Pubblicato

il

Da

 

 

 

Gli aerei da caccia cinesi pilotati dall’Intelligenza Artificiale stanno diventando più performanti dei caccia pilotati dagli umani tanto che stanno sconfiggendo i piloti veri nelle esercitazioni di combattimenti aerei, stando a quanto affermato dai militari stessi.

 

Fang Guoyu, pilota e campione di combattimento aereo, è stato recentemente «abbattuto» da uno di questi velivoli durante un duello aereo simulato.

 

«Questa non è la prima volta che il famoso Fang è stato abbattuto dall’intelligenza artificiale, e Fang non è l’unico asso che l’IA ha sconfitto», riferisce il quotidiano militare dell’Esercito di Liberazione del Popolo PLA Daily.

 

«Questa non è la prima volta che il famoso Fang è stato abbattuto dall’intelligenza artificiale, e Fang non è l’unico asso che l’IA ha sconfitto»

La Cina è nel bel mezzo di un ammodernamento delle sue forze armate che ha visto il paese aggiornare i suoi carri armati, i sistemi missilistici, l’equipaggiamento delle truppe e i caccia da combattimento.

 

Tra i nuovi sistemi in fase di sviluppo per i nuovi jet stealth J-20 del paese c’è l’IA avanzata.

 

Al momento però, l’Intelligenza Artificiale viene utilizzata solo nelle missioni di addestramento; un processo questo che, secondo i comandanti, addestra i computer a sconfiggere i combattenti della vita reale e costringe i piloti a inventare nuove tattiche per riuscire a battere le macchine.

 

«All’inizio non è stato difficile vincere contro l’IA. Poi studiando i dati, ogni scontro è diventato un’opportunità per migliorare», ha sottolineato Fang.

 

Un recente rapporto delle Nazioni Unite pubblicato  a marzo ha delineato l’uso di droni STM Kargu-2 di fabbricazione turca che hanno condotto attacchi aerei in Libia senza alcun intervento umano

La notizia arriva mentre, come riportato da Renovatio 21, si intensifica la pressione di un gruppo transnazionale di scienziati al fine di bandire i cosiddetti «Slaughterbot», cioè droni killer in grado di decidere autonomamente i propri bersagli ed eliminarli.

 

Un recente rapporto delle Nazioni Unite pubblicato  a marzo ha delineato l’uso di droni STM Kargu-2 di fabbricazione turca che hanno condotto attacchi aerei in Libia senza alcun intervento umano.

 

Il drone turco, che pesa solo sei chili, può essere prodotto in serie e ha la capacità di mirare alle vittime utilizzando il software di riconoscimento facciale in modo autonomo.

 

 

 

 

 

 

Immagine di emperonie via Wikimedia pubblicata su licenza Creative Commons Attribution-ShareAlike 2.0 Generic (CC BY-SA 2.0)

 

Continua a leggere

Più popolari