Connettiti con Renovato 21

Intelligenza Artificiale

Hanno piazzato un’arma sopra il robocane

Pubblicato

il

 

 

Renovatio 21, praticamente unica in Italia, vi ha stressato spesse volte con la storia del robocane. Lo chiamiamo noi così, ma avete capito perfettamente di cosa parliamo.

 

Una delle forme di implementazioni più impressionanti  della robotica, per anni  il mondo si è limitato a inoltrare agli amici i video della Boston Dynamics (un’azienda passata poi nelle mani fi Google, quindi del fondo dell’ambizioso e visionario ultramiliardario pro-Intelligenza Artificiale Masayoshi Son).

 

Ora la faccenda si fa più interessante.

 

Sul robocane hanno montato un’arma, e hanno presentato il risultato ad una fiera.

Sul robocane hanno montato un’arma, e hanno presentato il risultato ad una fiera.

 

In uno stand espositivo nell’incontro e nella mostra annuale dell’Associazione dell’esercito degli Stati Uniti, Ghost Robotics (il concorrente militare della più nota Boston Dynamics) ha mostrato con orgoglio un’arma progettata per essere attaccata ai suoi robot quadrupedi realizzati da un società denominata SWORD Defense Systems.

 

 

«Lo Special Purpose Unmanned Rifle (SPUR) di SWORD Defense Systems è stato specificamente progettato per offrire fuoco di precisione da piattaforme senza equipaggio come il quadrupede Ghost Robotics Vision-60», proclama SWORD sul suo sito web.

 

L’arma «consente un fuoco di precisione fino a 1200 metri» e «può utilizzare (…) la cartuccia NATO 7,62 × 51».

 

«Grazie ai suoi sensori altamente capaci, lo SPUR può funzionare in una vasta gamma di condizioni, sia di giorno che di notte. Lo SPUR dei sistemi di difesa SWORD è il futuro dei sistemi d’arma senza equipaggio, e quel futuro è adesso» dice il sito.

 

A maggio l’aeronautica statunitense  ha pubblicato un video  sul «Robotic Ghost Dog» con cui queste armi sono progettate per essere utilizzate, mostrando le macchine che fanno jogging, si alzano dopo essere state capovolte e persino ballano.

 

Nel video i militari ammettono la possibilità di attaccare ai robot delle armi da fuoco.

 

 

«Il prototipo SPUR è solo una delle tante armi diverse che vedremo sicuramente testate per l’uso con robot quadrupedi nei prossimi anni, e alla fine vedremo probabilmente i suoi successori testati su stranieri impoveriti in inutili interventi militari da parte degli Stati Uniti e/o dei suoi alleati» scrive Zerohedge.

 

Il problema è che, vista la distopia che stiamo vivendo, quando arriveranno i Terminator, troveranno uno stuolo di elettori del PD ad applaudirli. Basta che glielo abbia detto la TV, garantendo che le macchine assassine sono contro il COVID, il razzismo, l’omotransfobia – e che non toccano il loro stipendio che garantisce l’abbonamento a Netflix e i pacchetti Amazon.

«Si uniranno ad altri sistemi di armi senza equipaggio nell’arsenale imperiale come il famigerato programma di droni degli Stati Uniti, il Samsung SGR-A1 della Corea del Sud , il drone turco Kargu che secondo quanto riferito ha già   attaccato esseri umani in Libia senza che gli fosse stato dato un comando umano per farlo, e il fucile da cecchino robotico assistito dall’Intelligenza Artificiale che è stato utilizzato dall’intelligence israeliana in coordinamento con il governo degli Stati Uniti per assassinare uno scienziato iraniano l’anno scorso».

 

L’era dei robot killer, insomma, è già qui.

 

Il problema è che, vista la distopia che stiamo vivendo, quando arriveranno i Terminator, troveranno uno stuolo di elettori del PD ad applaudirli. Basta che glielo abbia detto la TV, garantendo che le macchine assassine sono contro il COVID, il razzismo, l’omotransfobia – e che non toccano il loro stipendio che garantisce l’abbonamento a Netflix e i pacchetti Amazon.

 

Qualcuno si convinca che bisogna fare qualcosa. Per il pericolo robocane armato, ma anche per la follia del cittadino parassita benpensante progressista.

 

 

Immagine dal sito di SWORD Defense System

Continua a leggere

Intelligenza Artificiale

Intelligenza artificiale assassina: le armi autonome potrebbero essere più destabilizzanti delle armi nucleari

Pubblicato

il

Da

 

 

L’era delle armi autonome è arrivata. I robot killer sono realtà. E uccidono vicino al nostro Paese.

 

Secondo un recente rapporto del Consiglio di sicurezza delle Nazioni Unite  sulla guerra civile libica, i sistemi d’arma autonomi, comunemente noti come robot killer, potrebbero aver ucciso esseri umani per la prima volta in assoluto proprio lo scorso anno.

 

Gli storici non avrebbero quindi torto a identificare i robot killer libici come il punto di partenza della prossima grande corsa agli armamenti, quella che ha il potenziale per essere quella finale dell’umanità.

 

Gli apparati militari di tutto il mondo stanno  investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno  stanziato 18 miliardi  di dollari per armi autonome tra il 2016 e il 2020

I sistemi d’arma autonomi sono robot armati che possono operare in modo indipendente, selezionando e attaccando bersagli – il tutto, dettaglio importante che li separa dai più comuni droni da combattimento, senza che un essere umano sia coinvolto nelle decisioni.

 

Gli apparati militari di tutto il mondo stanno  investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno  stanziato 18 miliardi  di dollari per armi autonome tra il 2016 e il 2020.

 

Nel frattempo, le organizzazioni per i diritti umani stanno facendo a gara per stabilire regolamenti e divieti sullo sviluppo di tali armi.

 

In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari.

 

In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari

Ciò può avvenire sia perché potrebbero cambiare radicalmente la percezione del dominio strategico, aumentando il rischio di attacchi preventivi, sia perché potrebbero combinarsi con armi NBCR: nucleari, biologiche, chimiche, radiologiche.

 

Vi sono almeno quattro problemi sollevati dalle armi autonome.

 

Il primo è il problema dell’errata identificazione. Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo? Tra civili in fuga da un luogo di conflitto e insorti in ritirata tattica? Vedi il robot cattivo ED-209 – nel famoso film Robocop – che durante una dimostrazione dinanzi ai dirigenti, non sente cadere l’arma del volontario che si presta a fare da esca crivellandolo di colpi.

 

Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo?

 

L’esperto di armi autonome Paul Scharre usa la metafora della runaway gun, la «pistola in fuga» per spiegare questa sostanziale differenza. Una pistola in fuga è una mitragliatrice difettosa che continua a sparare dopo il rilascio del grilletto. L’arma continua a sparare fino all’esaurimento delle munizioni perché, per così dire, l’arma non sa che sta commettendo un errore. Le pistole in fuga sono estremamente pericolose, ma fortunatamente hanno operatori umani che possono interrompere il collegamento delle munizioni o cercare di puntare l’arma in una direzione sicura. Le armi autonome, per definizione, non hanno tale salvaguardia.

 

È importante sottolineare che l’Intelligenza Artificiale armata non deve nemmeno essere difettosa per produrre l’effetto della pistola in fuga. Come hanno dimostrato numerosi studi sugli errori algoritmici in tutti i settori, i migliori algoritmi, operando come previsto, possono  generare risultati internamente corretti che tuttavia diffondono rapidamente errori terribili tra le popolazioni.

 

Ad esempio, una rete neurale progettata per l’uso negli ospedali di Pittsburgh ha identificato l’asma come un fattore di riduzione del rischio nei casi di polmonite; il software di riconoscimento delle immagini utilizzato da Google ha identificato gli afroamericani come gorilla e così via.

 

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli. Il  problema  della scatola nera dell’Intelligenza Artificiale rende quasi impossibile immaginare uno sviluppo moralmente responsabile di sistemi d’arma autonomi.

 

I prossimi due pericoli sono i problemi della proliferazione di fascia bassa e di fascia alta.

 

Cominciamo con la fascia bassa. Le forze armate che stanno sviluppando armi autonome ora procedono partendo dal presupposto che saranno in grado di contenere e controllare l’uso di armi autonome. Ma se la storia della tecnologia delle armi ha insegnato qualcosa al mondo, è questa: le armi si diffondono.

 

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.

 

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.

Queste nuovi armamenti potrebbero finire nelle mani di persone al di fuori del controllo del governo, inclusi terroristi internazionali e nazionali.

 

Tuttavia, la proliferazione di fascia alta è altrettanto negativa.

 

Le Nazioni potrebbero competere per sviluppare versioni sempre più devastanti di armi autonome, comprese quelle in grado di montare armi chimiche, biologiche, radiologiche e nucleari – come la Skynet nella pellicola Terminator – portando il mondo a una specie di autodistruzione.

 

È probabile che le armi autonome di fascia alta portino a guerre più frequenti perché diminuiranno due delle forze primarie che storicamente hanno prevenuto e accorciato le guerre: la preoccupazione per i civili e le potenziali perdite dei propri soldati.

 

Con molta probabilità le guerre asimmetriche – ovvero le guerre condotte sul suolo di nazioni prive di tecnologie concorrenti – diventeranno più comuni.

 

Si pensi all’instabilità globale causata dagli interventi militari sovietici e statunitensi durante la Guerra Fredda, dalla prima guerra per procura al contraccolpo sperimentato oggi in tutto il mondo. Moltiplichiamo per ogni Paese che attualmente punta a armi autonome di fascia alta.

 

Le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra

Infine, le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra.

 

Queste leggi, codificate in trattati che risalgono alla Convenzione di Ginevra del 1864, sono la sottile linea blu internazionale che separa la guerra con onore dal massacro. Si basano sull’idea che le persone possono essere ritenute responsabili delle proprie azioni anche in tempo di guerra, che il diritto di uccidere altri soldati durante il combattimento non dà il diritto di uccidere civili. 

 

Ma come possono essere ritenute responsabili le armi autonome?

 

Di chi è la colpa di un robot che commette crimini di guerra?

 

Chi verrebbe processato? L’arma? Il soldato?

 

I comandanti del soldato? La società che ha fabbricato l’arma?

 

Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave  divario di responsabilità

Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave  divario di responsabilità.

 

«Per ritenere un soldato penalmente responsabile del dispiegamento di un’arma autonoma che commette crimini di guerra, i pubblici ministeri dovrebbero provare sia actus reus che mens rea, termini latini che descrivono un atto colpevole e una mente colpevole» scrive il professore esperto in diritti umane James Dews.

 

«Questo sarebbe difficile dal punto di vista della legge, e forse ingiusto per una questione di moralità, dato che le armi autonome sono intrinsecamente imprevedibili. Credo che la distanza che separa il soldato dalle decisioni indipendenti prese dalle armi autonome in ambienti in rapida evoluzione sia semplicemente troppo grande».

 

La sfida legale e morale non è resa più facile spostando la colpa sulla catena di comando o tornando al luogo di produzione.

 

In un mondo senza regolamenti che impongono  un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili

In un mondo senza regolamenti che impongono  un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili.

 

La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.

 

«Proviamo a immaginare un mondo in cui militari, gruppi di insorti e terroristi nazionali e internazionali possano schierare una forza letale teoricamente illimitata a rischio teoricamente zero in tempi e luoghi di loro scelta, senza alcuna responsabilità legale risultante. È un mondo in cui il tipo di errori algoritmici inevitabili  che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città».

 

La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.

Il mondo non dovrebbe ripetere gli errori della corsa agli armamenti nucleari.

 

Intanto oggi, con la scusa delle «restrizioni COVID», alcuni robot autonomi sono stati schierati per le strade per far rispettare il distanziamento sociale tra cittadini e vigilare che indossino le mascherine oppure per proteggere le élite facoltose da una potenziale ribellione di massa.

 

Come riportato da Renovatio 21, la Cina disporrebbe già di sciami di droni suicidi esplosivi: i famosi slaughterbots tanto temuti dai teorici del pericolo delle armi autonome.

 

 

Il futuro è già qui.

 

I robot killer, pure.

 

Qualcuno vuole cominciare a discuterne seriamente?

 

È un mondo in cui il tipo di errori algoritmici inevitabili  che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città»

In effetti, ci sarebbe la fila: quando parleremo davvero delle armi biologiche, della manipolazione genetica gain of function, del CRISPR, del gene drive?

 

E quando parleremo della minaccia che pongono invece le armi cibernetiche?

 

Quando l’umanità si renderà conto dei rischi che corre a causa della tecnologia che essa stessa si ostina a creare al di fuori di qualsiasi legge morale?

 

 

 

 

 

 

Immagine di Tigersfather via Deviantart pubblicata su licenza Creative Commons Attribution-NonCommercial-NoDerivs 3.0 Unported (CC BY-NC-ND 3.0)

Continua a leggere

Intelligenza Artificiale

Intelligenza Artificiale, ex dirigente Google: «stanno creando Dio»

Pubblicato

il

Da

 

 

 

Mo Gawdat, ex Chief Business Officer per l’organizzazione sperimentale di Google un tempo chiamata Google X, in una intervista al giornale britannico The Times ha lanciato l’allarme.

 

L’uomo della Silicon Valley ha dichiarato che crede che la cosiddetta intelligenza artificiale generale (AGI), il tipo di intelligenza artificiale onnipotente e senziente vista nella fantascienza  sia inevitabile e che una volta che sarà qui, l’umanità potrebbe benissimo ritrovarsi in un’apocalisse provocata da macchine simili a delle divinità.

 

Si tratta, in pratica, dello scenario «Skynet» – l’Intelligenza Artificiale che nella storia di Terminator assume il controllo della Terra reputando l’uomo come minaccia.

 

Gawdat ha detto al Times di aver avuto la sua spaventosa rivelazione mentre lavorava con gli sviluppatori di intelligenza artificiale di Google X che stavano costruendo bracci robotici in grado di trovare e raccogliere una pallina. Dopo un periodo di lenti progressi, Gawdat ha detto che un braccio ha afferrato la palla e sembrava tenerla sollevata verso i ricercatori in un gesto che, a lui, sembrava un gesto di esibizione.

 

«E all’improvviso mi sono reso conto che questo è davvero spaventoso», ha detto Gawdat. «Mi ha completamente gelato il sangue».

 

Da algoritmi ingiusti ma neutri, potremmo passare a algoritmi ingiusti e crudeli perché vendicativi.

La realtà è che «stiamo creando Dio», ha aggiunto il Gawdat.

 

Il Gawdat va ad aggiungersi ad altri apocalittici dell’AI come il patron di Tesla Elon Musk, il quale ha ripetutamente messo in guardia il mondo sui pericoli dell’intelligenza artificiale che un giorno conquisterà l’umanità. Ma questo tipo di prospettiva speculativa in qualche modo sorvola sui rischi e sui danni reali legati all’intelligenza artificiale che abbiamo già costruito.

 

Pensiamo, ad esempio, al riconoscimento facciale e agli algoritmi di polizia predittiva già in uso nel mondo. Pensiamo al fatto che in USA alcuni tribunali si servano di complicatissimi algoritmi computerizzati pe stabilire la pena del condannato. Alcune voci progressiste sostengono che essi siano «razzisti». Più in generale c’è da chiedersi quanto sia giusto che una macchina decida il destino di un uomo – e, a differenza di un giudice o un poliziotto, non lo possa spiegare.

 

Ora, da algoritmi ingiusti ma neutri, potremmo passare a algoritmi ingiusti e crudeli perché vendicativi.

 

«Con l’intelligenza artificiale stiamo evocando il demonio»

Quindi, più che un dio, stiamo creando un demonio?

 

Nel 2014 Elon Musk si era espresso esattamente così: «with artificial intelligence we are summoning the demon».

 

Con l’intelligenza artificiale stiamo evocando il demonio.

 

Continua a leggere

Geopolitica

Israele conferma: un robot teleguidato ha ucciso lo scienziato atomico iraniano

Pubblicato

il

Da

 

 

Il massimo scienziato nucleare iraniano Mohsen Fakhrizadeh è stato assassinato da un mitragliatore da cecchino assistito dall’Intelligenza Artificiale e controllato a distanza da agenti israeliani.

 

A riportarlo è un denso e informatissimo articolo di Eric Schmitt per per il New York Times, che ha potuto verificare la vicenda sentendo diverse fonti israeliane, iraniane e americane

 

L’articolo, denso di rivelazioni e dettagli molto precisi, conferma il resoconto degli eventi dato a suo tempo dalla Guardia rivoluzionaria iraniana lo scorso  27 novembre 2020, quando i Pasdaran affermarono  che una «mitragliatrice intelligente controllata da satellite» aveva ucciso lo scienziato mentre stava guidando con sua moglie dalla loro casa al mare verso la casa di campagna a est della capitale.

 

In molti, anche dentro l’Iran, avevano criticato e perfino canzonato l’idea del robot killer, interpretando questa versione dei fatti come un goffo tentativo da parte della Guardia di coprire l’incapacità di proteggere il più alto asset scientifico-nucleare del Paese.

«Solo che questa volta il robot killer c’era eccome»

 

«Solo che questa volta il robot killer c’era eccome» scrive il NYT.

 

A uccidere lo scienziato è stato un apparato robotico formato da un mitra belga azionato via satellite da un «cecchino» ad almeno 1000 chilometri di distanza e assistito da un programma di Intelligenza Artificiale che calibrava il lag (il ritardo delle immagini trasmesse) di 1,6 secondi e probabilmente anche il rinculo dei colpi sulle sospensioni dell’automobile su cui era stato installato.

 

Fakhrizadeh è stato colpito almeno quattro volte dal mitra robotico, nascosto in un camioncino Zamyad (assai diffuso in Iran) parcheggiato a poca distanza lungo la strada. Sua moglie, che sedeva a pochi centimetri da lui, è rimasta illesa. L’incredibile precisione è fatta risalire all’uso di una tecnologia di riconoscimento facciale. La donna ha fatto in tempo a prendere fra le sue braccia la testa del marito morente e raccogliere le sue ultime parole.

 

Il mitra insieme al suo apparato robotico avanzato pesava circa una tonnellata, secondo il NYT. Gli agenti israeliani hanno introdotto clandestinamente l’arma e le sue parti in Iran prima di riassemblarla.

 

Il mitra insieme al suo apparato robotico avanzato pesava circa una tonnellata

L’intero sistema è stato poi montato nel pianale del camioncino Zamyad assieme a varie telecamere per dare agli agenti israeliani una visione completa dei dintorni.

 

Il camion era anche pieno di esplosivo per far esplodere qualsiasi prova dopo che la missione fosse stata completata o compromessa. Questa, scrive Schmitt, è l’unica parte del piano che non ha funzionato: il camioncino doveva disintegrarsi di modo da non lasciare tracce, non lasciare capire a nessuno cosa fosse successo: nessuno doveva avere la minima idea dell’esistenza del robot-killer. Invece l’esplosione ha gettato in aria le varie componenti dell’arma, danneggiandole irreparabilmente ma non rendendole irriconoscibili. È così che la Guardia Rivoluzionaria ha potuto comprendere praticamente da subito cosa fosse accaduto.

 

Come hanno compreso tutti, si tratta di un’evoluzione enorme – ed enormemente inquietante – della guerra moderna.

 

I droni già rappresentano una forma molto discussa di arma militare; il loro impiego massivo sin da quando l’era Obama diede alla CIA carta bianca per il loro utilizzo potrebbe aver creato, per tremenda eterogenesi dei fini, la situazione che vediamo ora in Afghanistan. Le uccisioni a distanza non risolvono i conflitti, ma ne inaspriscono i termini.

Si tratta di un’evoluzione enorme – ed enormemente inquietante – della guerra moderna

 

Ora, oltre alla messa in campo di un’arma ad azione remota da cui si è praticamente indifendibili, bisogna considerare l’uso dell’Intelligenza Artificiale, che in questo caso ha solo «assistito» l’assassinio, ma che ben presto – come discusso spesso su Renovatio 21 – potrebbe essere impiegata per scegliere autonomamente in suoi bersagli, e procedere con altrettanta autonomia alla loro eliminazione.

 

Qualcuno sostiene che in realtà, in parte, siamo già arrivati alla situazione in cui i robot uccidono decidendolo di farlo a monte.

 

Si tratta della disumanizzazione definitiva dei conflitti umani – che, di fatto,  di umano perdono tutte le componenti, se non quella della vittima.

Si tratta della disumanizzazione definitiva dei conflitti umani – che, di fatto,  di umano perdono tutte le componenti, se non quella della vittima

 

La guerra diventa algoritmo spietato, sanguinario: è già così per l’economia, per la politica, per la nostra vita sociale – siamo controllati da Intelligenze Artificiali, candidate a divenire i veri gestori della vita e della morte sul pianeta.

 

Era inevitabile che anche la guerra divenisse dominio della macchina.

 

Il sistema operativo dell’umanità del XXI secolo è la Cultura della Morte, alleata delle macchine per la distruzione dell’uomo.

 

Continua a leggere

Più popolari