Connettiti con Renovato 21

Intelligenza Artificiale

Intelligenza artificiale assassina: le armi autonome potrebbero essere più destabilizzanti delle armi nucleari

Pubblicato

il

 

 

L’era delle armi autonome è arrivata. I robot killer sono realtà. E uccidono vicino al nostro Paese.

 

Secondo un recente rapporto del Consiglio di sicurezza delle Nazioni Unite  sulla guerra civile libica, i sistemi d’arma autonomi, comunemente noti come robot killer, potrebbero aver ucciso esseri umani per la prima volta in assoluto proprio lo scorso anno.

 

Gli storici non avrebbero quindi torto a identificare i robot killer libici come il punto di partenza della prossima grande corsa agli armamenti, quella che ha il potenziale per essere quella finale dell’umanità.

 

Gli apparati militari di tutto il mondo stanno  investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno  stanziato 18 miliardi  di dollari per armi autonome tra il 2016 e il 2020

I sistemi d’arma autonomi sono robot armati che possono operare in modo indipendente, selezionando e attaccando bersagli – il tutto, dettaglio importante che li separa dai più comuni droni da combattimento, senza che un essere umano sia coinvolto nelle decisioni.

 

Gli apparati militari di tutto il mondo stanno  investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno  stanziato 18 miliardi  di dollari per armi autonome tra il 2016 e il 2020.

 

Nel frattempo, le organizzazioni per i diritti umani stanno facendo a gara per stabilire regolamenti e divieti sullo sviluppo di tali armi.

 

In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari.

 

In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari

Ciò può avvenire sia perché potrebbero cambiare radicalmente la percezione del dominio strategico, aumentando il rischio di attacchi preventivi, sia perché potrebbero combinarsi con armi NBCR: nucleari, biologiche, chimiche, radiologiche.

 

Vi sono almeno quattro problemi sollevati dalle armi autonome.

 

Il primo è il problema dell’errata identificazione. Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo? Tra civili in fuga da un luogo di conflitto e insorti in ritirata tattica? Vedi il robot cattivo ED-209 – nel famoso film Robocop – che durante una dimostrazione dinanzi ai dirigenti, non sente cadere l’arma del volontario che si presta a fare da esca crivellandolo di colpi.

 

Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo?

 

L’esperto di armi autonome Paul Scharre usa la metafora della runaway gun, la «pistola in fuga» per spiegare questa sostanziale differenza. Una pistola in fuga è una mitragliatrice difettosa che continua a sparare dopo il rilascio del grilletto. L’arma continua a sparare fino all’esaurimento delle munizioni perché, per così dire, l’arma non sa che sta commettendo un errore. Le pistole in fuga sono estremamente pericolose, ma fortunatamente hanno operatori umani che possono interrompere il collegamento delle munizioni o cercare di puntare l’arma in una direzione sicura. Le armi autonome, per definizione, non hanno tale salvaguardia.

 

È importante sottolineare che l’Intelligenza Artificiale armata non deve nemmeno essere difettosa per produrre l’effetto della pistola in fuga. Come hanno dimostrato numerosi studi sugli errori algoritmici in tutti i settori, i migliori algoritmi, operando come previsto, possono  generare risultati internamente corretti che tuttavia diffondono rapidamente errori terribili tra le popolazioni.

 

Ad esempio, una rete neurale progettata per l’uso negli ospedali di Pittsburgh ha identificato l’asma come un fattore di riduzione del rischio nei casi di polmonite; il software di riconoscimento delle immagini utilizzato da Google ha identificato gli afroamericani come gorilla e così via.

 

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli. Il  problema  della scatola nera dell’Intelligenza Artificiale rende quasi impossibile immaginare uno sviluppo moralmente responsabile di sistemi d’arma autonomi.

 

I prossimi due pericoli sono i problemi della proliferazione di fascia bassa e di fascia alta.

 

Cominciamo con la fascia bassa. Le forze armate che stanno sviluppando armi autonome ora procedono partendo dal presupposto che saranno in grado di contenere e controllare l’uso di armi autonome. Ma se la storia della tecnologia delle armi ha insegnato qualcosa al mondo, è questa: le armi si diffondono.

 

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.

 

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.

Queste nuovi armamenti potrebbero finire nelle mani di persone al di fuori del controllo del governo, inclusi terroristi internazionali e nazionali.

 

Tuttavia, la proliferazione di fascia alta è altrettanto negativa.

 

Le Nazioni potrebbero competere per sviluppare versioni sempre più devastanti di armi autonome, comprese quelle in grado di montare armi chimiche, biologiche, radiologiche e nucleari – come la Skynet nella pellicola Terminator – portando il mondo a una specie di autodistruzione.

 

È probabile che le armi autonome di fascia alta portino a guerre più frequenti perché diminuiranno due delle forze primarie che storicamente hanno prevenuto e accorciato le guerre: la preoccupazione per i civili e le potenziali perdite dei propri soldati.

 

Con molta probabilità le guerre asimmetriche – ovvero le guerre condotte sul suolo di nazioni prive di tecnologie concorrenti – diventeranno più comuni.

 

Si pensi all’instabilità globale causata dagli interventi militari sovietici e statunitensi durante la Guerra Fredda, dalla prima guerra per procura al contraccolpo sperimentato oggi in tutto il mondo. Moltiplichiamo per ogni Paese che attualmente punta a armi autonome di fascia alta.

 

Le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra

Infine, le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra.

 

Queste leggi, codificate in trattati che risalgono alla Convenzione di Ginevra del 1864, sono la sottile linea blu internazionale che separa la guerra con onore dal massacro. Si basano sull’idea che le persone possono essere ritenute responsabili delle proprie azioni anche in tempo di guerra, che il diritto di uccidere altri soldati durante il combattimento non dà il diritto di uccidere civili. 

 

Ma come possono essere ritenute responsabili le armi autonome?

 

Di chi è la colpa di un robot che commette crimini di guerra?

 

Chi verrebbe processato? L’arma? Il soldato?

 

I comandanti del soldato? La società che ha fabbricato l’arma?

 

Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave  divario di responsabilità

Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave  divario di responsabilità.

 

«Per ritenere un soldato penalmente responsabile del dispiegamento di un’arma autonoma che commette crimini di guerra, i pubblici ministeri dovrebbero provare sia actus reus che mens rea, termini latini che descrivono un atto colpevole e una mente colpevole» scrive il professore esperto in diritti umane James Dews.

 

«Questo sarebbe difficile dal punto di vista della legge, e forse ingiusto per una questione di moralità, dato che le armi autonome sono intrinsecamente imprevedibili. Credo che la distanza che separa il soldato dalle decisioni indipendenti prese dalle armi autonome in ambienti in rapida evoluzione sia semplicemente troppo grande».

 

La sfida legale e morale non è resa più facile spostando la colpa sulla catena di comando o tornando al luogo di produzione.

 

In un mondo senza regolamenti che impongono  un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili

In un mondo senza regolamenti che impongono  un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili.

 

La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.

 

«Proviamo a immaginare un mondo in cui militari, gruppi di insorti e terroristi nazionali e internazionali possano schierare una forza letale teoricamente illimitata a rischio teoricamente zero in tempi e luoghi di loro scelta, senza alcuna responsabilità legale risultante. È un mondo in cui il tipo di errori algoritmici inevitabili  che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città».

 

La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.

Il mondo non dovrebbe ripetere gli errori della corsa agli armamenti nucleari.

 

Intanto oggi, con la scusa delle «restrizioni COVID», alcuni robot autonomi sono stati schierati per le strade per far rispettare il distanziamento sociale tra cittadini e vigilare che indossino le mascherine oppure per proteggere le élite facoltose da una potenziale ribellione di massa.

 

Come riportato da Renovatio 21, la Cina disporrebbe già di sciami di droni suicidi esplosivi: i famosi slaughterbots tanto temuti dai teorici del pericolo delle armi autonome.

 

 

Il futuro è già qui.

 

I robot killer, pure.

 

Qualcuno vuole cominciare a discuterne seriamente?

 

È un mondo in cui il tipo di errori algoritmici inevitabili  che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città»

In effetti, ci sarebbe la fila: quando parleremo davvero delle armi biologiche, della manipolazione genetica gain of function, del CRISPR, del gene drive?

 

E quando parleremo della minaccia che pongono invece le armi cibernetiche?

 

Quando l’umanità si renderà conto dei rischi che corre a causa della tecnologia che essa stessa si ostina a creare al di fuori di qualsiasi legge morale?

 

 

 

 

 

 

Immagine di Tigersfather via Deviantart pubblicata su licenza Creative Commons Attribution-NonCommercial-NoDerivs 3.0 Unported (CC BY-NC-ND 3.0)

Continua a leggere

Bizzarria

Trump accusa l’uso dell’Intelligenza Artificiale per farlo ingrassare

Pubblicato

il

Da

L’ex presidente degli Stati Uniti e attuale candidato Donald Trump si è scagliato contro i media americani sulla sua piattaforma Truth Social, accusandoli di diffondere notizie false sul suo conto.

 

Un post sul suo account venerdì mostrava quattro foto di Trump a metà swing mentre giocava a golf.

 

In una foto, presumibilmente pubblicata da un quotidiano americano anonimo, Trump mostra un ventre assai prominente dando l’impressione di essere piuttosto in sovrappeso. Nelle altre tre, che si dice siano state scattate venerdì mattina, manca la pancia e Trump appare decisamente più snello e in forma.

 

«Le Fake News hanno utilizzato l’Intelligenza Artificiale (AI) per creare l’immagine in alto a sinistra. Queste sono persone spregevoli, ma questo lo sanno tutti. Le altre foto sono io che colpisco le palline da golf oggi per mostrare la differenza. Purtroppo, nel nostro Paese, le fake news sono tutto ciò che ottieni!» ha scritto Trump nel post.

 

Come scrive RT, non è chiaro il motivo per cui Trump abbia deciso di rimproverare i media per il quadro falsificato in questo particolare momento.

 


Secondo il sito di fact-checking Snopes, la foto è apparsa sui social media – e non sui media – nel maggio 2017.

 

In effetti è stata modificata, anche se probabilmente non con la tecnologia AI, ha affermato il sito, ma piuttosto con Photoshop. È un’immagine del golfista professionista e sostenitore di lunga data di Trump John Daly, con la testa di Trump sovrapposta al corpo di Daly. L’immagine circolava all’epoca su Twitter e suscitò una serie di commenti e speculazioni sulla salute dell’allora presidente.

 

Le foto di Trump, comprese quelle di lui che gioca a golf nei suoi numerosi campi da golf, sono spesso alterate e utilizzate dai burloni dei social media. Un’immagine pubblicata online nel 2022 e che lo mostrava con un doppio mento pronunciato e profonde rughe sul viso ha raccolto centinaia di Mi piace e condivisioni su Facebook prima che fosse dimostrato che era alterata digitalmente.

 

Senza alcuna ragione apparente, il post di Trump con l’immagine alterata è coinciso con la sentenza di venerdì contro di lui da parte di un giudice di New York, che ha vietato al candidato presidenziale di gestire le sue attività nello stato e ha ordinato a lui e alla sua azienda di pagare 354 milioni di dollari di danni per frodi bancarie legate a beni immobili.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21



Immagine di pubblico dominio CC0 via Wikimedia

Continua a leggere

Intelligenza Artificiale

Robotaxi dato alle fiamme da gruppo di persone: le immagini. San Francisco senza più freno alcuno

Pubblicato

il

Da

Un’auto a guida autonoma Waymo è stata presa di mira e incendiata deliberatamente da un gruppo di persone nella Chinatown di San Francisco lo scorso sabato sera.   L’incidente si iscrive in una crescente tendenza di ostilità nei confronti dei veicoli autonomi. I media locali NBC Bay Area hanno riportato che la Jaguar a guida autonoma stava viaggiando su Jackson Street, tra Stockton e Grant, intorno alle 21.00 ora locale, quando da 10 a 15 persone l’hanno attaccata.   I video su Twitter mostrano un gruppo di persone che vandalizzano l’auto a guida autonoma.     L’azienda Waymo, che opera il robotaxi, ha detto che «una folla ha circondato e vandalizzato il veicolo, rompendo il finestrino e lanciando fuochi d’artificio».

Sostieni Renovatio 21

«Stiamo lavorando a stretto contatto con i funzionari locali della sicurezza per rispondere alla situazione», ha detto Waymo in una dichiarazione al San Francisco Standard. La startup ha aggiunto che l’auto non trasportava passeggeri al momento dell’incidente.   Il dipartimento dei pompieri della città californiana ha pubblicato foto drammatiche dell’atto vandalico, che ha ridotto in cenere l’automobile robotica.       Ciò avviene dopo una serie di attacchi alle auto a guida autonoma in tutta l’area metropolitana retta da fanatici progressisti e dominata dalla criminalità.  

Aiuta Renovatio 21

Non è chiaro se si sia trattato di un atto di vandalismo nel pieno stile dell’anarco-tirannia programmata per i centri urbani occidentali o se invece sia parte di una incipiente «crociata» contro l’Intelligenza Artificiale.   La scorsa estate i membri di Safe Street Rebels, un gruppo che sostiene che queste auto sono «inquinanti, pericolose e assassine», ha piazzato in segno di protesta coni segnalatici sul cofano delle auto senza conducente in tutta la città.   Come riportato da Renovatio 21, i servizi di taxi senza conducente sono già utilizzati dalla popolazione della città per incontri sessuali in movimento.   Il degrado della città californiana, dove le morti per overdose sono il triplo di quelle COVID e dove il goscismo più folle dei politici vuole fornire il «reddito di transessualanza» con documenti che prevedono 96 generi diversi, è oramai inarrestabile: una vera apocalisse zombie che, crediamo, è in realtà un quadro realistico di cosa succederà anche ai nostri nuclei urbani.   Tuttavia, è curioso che proprio il consiglio comunale di San Francisco, che ha depenalizzato il furto sotto il migliaio di dollari creando di fatto razzie continue che hanno fatto fuggire perfino le grandi catene di distribuzione, abbia votato affinché la polizia utilizzi robot killer.   Un altro dettaglio che parla del futuro inquietante che attende tutti noi?

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine da Twitter
Continua a leggere

Cervello

L’esercito cinese studia la guerra degli «attacchi cognitivi»

Pubblicato

il

Da

L’esercito del Partito Comunista Cinese sta studiando «operazioni sul dominio cognitivo» per seminare una mentalità di sconfitta nell’avversario.

 

I ricercatori dell’Esercito di Liberazione del Popolo (ELP) sarebbero impegnati in «operazioni di influenza informatiche» contro gli Stati Uniti con l’obiettivo di influenzare la popolazione americana affinché accetti psicologicamente la resa, secondo Nathan Beauchamp-Mustafaga, ricercatore politico presso la RAND Corporation, think tank legato a doppio filo all’esercito americano e alle sue strategie.

 

«C’è un gruppo di ricercatori del PLA, spesso focalizzati su [operazioni di influenza], che sostengono che il dominio cognitivo è il nuovo focus della guerra», ha detto giovedì Beauchamp-Mustafaga in una testimonianza preparata davanti alla Commissione di revisione economica e di sicurezza USA-Cina del Congresso USA.

 

Queste operazioni sul dominio cognitivo («Cognitve Domain Operations», o CDO) hanno lo scopo di creare «una decisione psicologica o cognitiva di arrendersi», ha aggiunto.

Sostieni Renovatio 21

Nello specifico, le tattiche includono l’uso di propaganda tecnologicamente avanzata come deepfake generati dall’Intelligenza Artificiale, «informazioni sintetiche» e «attacchi cognitivi di precisione» per polarizzare il popolo americano.

 

Beauchamp-Mustafaga ha affermato che utilizzando queste misure, il Partito Comunista Cinese (PCC) spera «di vincere un conflitto con la minor distruzione cinetica possibile e di costringere l’avversario ad accettare la sconfitta a meno che non arrivi alla distruzione totale».

 

Nel 2022 il Pentagono aveva avvertito che il PCC stava lavorando a «una forma più aggressiva di guerra psicologica» intesa a «influenzare la cognizione, il processo decisionale e il comportamento del bersaglio».

 

«L’obiettivo delle CDO è quello di raggiungere ciò che l’ELP definisce “dominio mentale”, definito come l’uso della propaganda come arma per influenzare l’opinione pubblica per effettuare un cambiamento nel sistema sociale di una Nazione, probabilmente per creare un ambiente favorevole alla Cina e ridurre la resistenza civile e militare alle azioni dell’EPL», afferma il rapporto.

 

Recenti rapporti di Microsoft e Meta hanno inoltre scoperto che il PCC ha sfruttato una combinazione di social media, influencer a pagamento, siti web proxy e società di pubbliche relazioni per manipolare l’opinione pubblica sulla Cina.

 

Ad una recente udienza a Washington che ha riunito davanti al Congresso tutti i vertici delle principali piattaforme social (Facebook, X, Discord), il CEO del ramo americano di TikTok Shou Zi Chew è stato pungolato dal senatore Josh Hawley che gli ha ricordato come TikTok in Cina trasmette video in cui si spingono i giovani alla disciplina e alla diligenza, mentre in USA il social mostra essenzialmente filmati di dissoluzione e degrado.

 


Aiuta Renovatio 21

Per alcuni, TikTok agirebbe come una vera operazione psicologica di demoralizzazione della gioventù occidentale.

 

Come riportato da Renovatio 21, due anni fa l’India aveva messo al bando 59 app cinesi, tra cui TikTok. Gli scontri tra Dehli e Pechino sono continuati successivamente con le truppe che si picchiano come fabbri presso il confine a 5000 metri di altitudine.

 

La settimana scorsa TikTok è stato vietato dalla Somalia per motivi legati alla sicurezza del Paese: il ministro delle comunicazioni Jama Hassan Khalif ha dichiarato domenica in una dichiarazione che «terroristi e gruppi immorali» stanno utilizzando le applicazioni dei social media per «diffondere costantemente immagini orribili e disinformazione al pubblico».

 

USA e UE si sono più volte scagliati contro TikTok app cinese rea di «rubare» i dati degli utenti a favore della Repubblica Popolare Cinese oltre che ad essere utilizzata per fini impropri inquietanti.

 

La Commissione Europea ha fatto disinstallare TikTok a tutti i suoi dipendenti; il controllo sui contenuti del social, tuttavia, è in teoria già ottenuto con l’entrata in vigore del Digital Service Act (DSA) entrato in vigore lo scorso 25 agosto.

 

Un gruppo di eletti di ambo i partiti hanno lavorato in questi anni per introdurre in America una legislazione che vieterebbe completamente a TikTok di operare negli Stati Uniti.

 

«TikTok è il fentanil digitale che crea dipendenza negli americani, raccogliendo i loro dati e censurando le loro notizie», aveva affermato il rappresentante repubblicano del Wisconsin Mark Gallagher, citando la droga di produzione cinese che sta uccidendo in questi anni centinaia di migliaia di americani – il fentanil appunto, cioè la sostanza 50 volte più potente dell’eroina che arriva dal Dragone attraverso le tratte degli immigrati dal Messico.

SOSTIENI RENOVATIO 21



 

Continua a leggere

Più popolari