Connettiti con Renovato 21

Intelligenza Artificiale

Intelligenza artificiale assassina: le armi autonome potrebbero essere più destabilizzanti delle armi nucleari

Pubblicato

il

 

 

L’era delle armi autonome è arrivata. I robot killer sono realtà. E uccidono vicino al nostro Paese.

 

Secondo un recente rapporto del Consiglio di sicurezza delle Nazioni Unite  sulla guerra civile libica, i sistemi d’arma autonomi, comunemente noti come robot killer, potrebbero aver ucciso esseri umani per la prima volta in assoluto proprio lo scorso anno.

 

Gli storici non avrebbero quindi torto a identificare i robot killer libici come il punto di partenza della prossima grande corsa agli armamenti, quella che ha il potenziale per essere quella finale dell’umanità.

 

Gli apparati militari di tutto il mondo stanno  investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno  stanziato 18 miliardi  di dollari per armi autonome tra il 2016 e il 2020

I sistemi d’arma autonomi sono robot armati che possono operare in modo indipendente, selezionando e attaccando bersagli – il tutto, dettaglio importante che li separa dai più comuni droni da combattimento, senza che un essere umano sia coinvolto nelle decisioni.

 

Gli apparati militari di tutto il mondo stanno  investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno  stanziato 18 miliardi  di dollari per armi autonome tra il 2016 e il 2020.

 

Nel frattempo, le organizzazioni per i diritti umani stanno facendo a gara per stabilire regolamenti e divieti sullo sviluppo di tali armi.

 

In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari.

 

In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari

Ciò può avvenire sia perché potrebbero cambiare radicalmente la percezione del dominio strategico, aumentando il rischio di attacchi preventivi, sia perché potrebbero combinarsi con armi NBCR: nucleari, biologiche, chimiche, radiologiche.

 

Vi sono almeno quattro problemi sollevati dalle armi autonome.

 

Il primo è il problema dell’errata identificazione. Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo? Tra civili in fuga da un luogo di conflitto e insorti in ritirata tattica? Vedi il robot cattivo ED-209 – nel famoso film Robocop – che durante una dimostrazione dinanzi ai dirigenti, non sente cadere l’arma del volontario che si presta a fare da esca crivellandolo di colpi.

 

Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo?

 

L’esperto di armi autonome Paul Scharre usa la metafora della runaway gun, la «pistola in fuga» per spiegare questa sostanziale differenza. Una pistola in fuga è una mitragliatrice difettosa che continua a sparare dopo il rilascio del grilletto. L’arma continua a sparare fino all’esaurimento delle munizioni perché, per così dire, l’arma non sa che sta commettendo un errore. Le pistole in fuga sono estremamente pericolose, ma fortunatamente hanno operatori umani che possono interrompere il collegamento delle munizioni o cercare di puntare l’arma in una direzione sicura. Le armi autonome, per definizione, non hanno tale salvaguardia.

 

È importante sottolineare che l’Intelligenza Artificiale armata non deve nemmeno essere difettosa per produrre l’effetto della pistola in fuga. Come hanno dimostrato numerosi studi sugli errori algoritmici in tutti i settori, i migliori algoritmi, operando come previsto, possono  generare risultati internamente corretti che tuttavia diffondono rapidamente errori terribili tra le popolazioni.

 

Ad esempio, una rete neurale progettata per l’uso negli ospedali di Pittsburgh ha identificato l’asma come un fattore di riduzione del rischio nei casi di polmonite; il software di riconoscimento delle immagini utilizzato da Google ha identificato gli afroamericani come gorilla e così via.

 

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli. Il  problema  della scatola nera dell’Intelligenza Artificiale rende quasi impossibile immaginare uno sviluppo moralmente responsabile di sistemi d’arma autonomi.

 

I prossimi due pericoli sono i problemi della proliferazione di fascia bassa e di fascia alta.

 

Cominciamo con la fascia bassa. Le forze armate che stanno sviluppando armi autonome ora procedono partendo dal presupposto che saranno in grado di contenere e controllare l’uso di armi autonome. Ma se la storia della tecnologia delle armi ha insegnato qualcosa al mondo, è questa: le armi si diffondono.

 

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.

 

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.

Queste nuovi armamenti potrebbero finire nelle mani di persone al di fuori del controllo del governo, inclusi terroristi internazionali e nazionali.

 

Tuttavia, la proliferazione di fascia alta è altrettanto negativa.

 

Le Nazioni potrebbero competere per sviluppare versioni sempre più devastanti di armi autonome, comprese quelle in grado di montare armi chimiche, biologiche, radiologiche e nucleari – come la Skynet nella pellicola Terminator – portando il mondo a una specie di autodistruzione.

 

È probabile che le armi autonome di fascia alta portino a guerre più frequenti perché diminuiranno due delle forze primarie che storicamente hanno prevenuto e accorciato le guerre: la preoccupazione per i civili e le potenziali perdite dei propri soldati.

 

Con molta probabilità le guerre asimmetriche – ovvero le guerre condotte sul suolo di nazioni prive di tecnologie concorrenti – diventeranno più comuni.

 

Si pensi all’instabilità globale causata dagli interventi militari sovietici e statunitensi durante la Guerra Fredda, dalla prima guerra per procura al contraccolpo sperimentato oggi in tutto il mondo. Moltiplichiamo per ogni Paese che attualmente punta a armi autonome di fascia alta.

 

Le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra

Infine, le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra.

 

Queste leggi, codificate in trattati che risalgono alla Convenzione di Ginevra del 1864, sono la sottile linea blu internazionale che separa la guerra con onore dal massacro. Si basano sull’idea che le persone possono essere ritenute responsabili delle proprie azioni anche in tempo di guerra, che il diritto di uccidere altri soldati durante il combattimento non dà il diritto di uccidere civili. 

 

Ma come possono essere ritenute responsabili le armi autonome?

 

Di chi è la colpa di un robot che commette crimini di guerra?

 

Chi verrebbe processato? L’arma? Il soldato?

 

I comandanti del soldato? La società che ha fabbricato l’arma?

 

Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave  divario di responsabilità

Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave  divario di responsabilità.

 

«Per ritenere un soldato penalmente responsabile del dispiegamento di un’arma autonoma che commette crimini di guerra, i pubblici ministeri dovrebbero provare sia actus reus che mens rea, termini latini che descrivono un atto colpevole e una mente colpevole» scrive il professore esperto in diritti umane James Dews.

 

«Questo sarebbe difficile dal punto di vista della legge, e forse ingiusto per una questione di moralità, dato che le armi autonome sono intrinsecamente imprevedibili. Credo che la distanza che separa il soldato dalle decisioni indipendenti prese dalle armi autonome in ambienti in rapida evoluzione sia semplicemente troppo grande».

 

La sfida legale e morale non è resa più facile spostando la colpa sulla catena di comando o tornando al luogo di produzione.

 

In un mondo senza regolamenti che impongono  un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili

In un mondo senza regolamenti che impongono  un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili.

 

La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.

 

«Proviamo a immaginare un mondo in cui militari, gruppi di insorti e terroristi nazionali e internazionali possano schierare una forza letale teoricamente illimitata a rischio teoricamente zero in tempi e luoghi di loro scelta, senza alcuna responsabilità legale risultante. È un mondo in cui il tipo di errori algoritmici inevitabili  che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città».

 

La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.

Il mondo non dovrebbe ripetere gli errori della corsa agli armamenti nucleari.

 

Intanto oggi, con la scusa delle «restrizioni COVID», alcuni robot autonomi sono stati schierati per le strade per far rispettare il distanziamento sociale tra cittadini e vigilare che indossino le mascherine oppure per proteggere le élite facoltose da una potenziale ribellione di massa.

 

Come riportato da Renovatio 21, la Cina disporrebbe già di sciami di droni suicidi esplosivi: i famosi slaughterbots tanto temuti dai teorici del pericolo delle armi autonome.

 

 

Il futuro è già qui.

 

I robot killer, pure.

 

Qualcuno vuole cominciare a discuterne seriamente?

 

È un mondo in cui il tipo di errori algoritmici inevitabili  che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città»

In effetti, ci sarebbe la fila: quando parleremo davvero delle armi biologiche, della manipolazione genetica gain of function, del CRISPR, del gene drive?

 

E quando parleremo della minaccia che pongono invece le armi cibernetiche?

 

Quando l’umanità si renderà conto dei rischi che corre a causa della tecnologia che essa stessa si ostina a creare al di fuori di qualsiasi legge morale?

 

 

 

 

 

 

Immagine di Tigersfather via Deviantart pubblicata su licenza Creative Commons Attribution-NonCommercial-NoDerivs 3.0 Unported (CC BY-NC-ND 3.0)

Continua a leggere

Intelligenza Artificiale

OpenAI ha bisogno di 200 miliardi di dollari per continuare a perdere denaro

Pubblicato

il

Da

OpenAI, la società proprietaria di ChatGPT, potrebbe necessitare di reperire oltre 200 miliardi di dollari entro il 2030 per mantenere la propria operatività. Lo riporta un’analisi di HSBC pubblicata dalla stampa internazionale.

 

L’impresa richiede capitali freschi per proseguire l’espansione, in quanto le spese per l’elaborazione dati stanno lievitando nel quadro di una competizione mondiale sull’intelligenza artificiale sempre più intensa e concitata.

 

Il modello previsionale rivisto da HSBC, diffuso tra i clienti questa settimana, tiene conto degli accordi pluriennali siglati di recente da OpenAI con Microsoft, Amazon e Oracle per servizi cloud e capacità computazionali. Perfino adottando stime di crescita particolarmente rosee, il calcolo prevede comunque un gap di finanziamento di circa 207 miliardi di dollari entro la fine del decennio, con incassi stimati a 129 miliardi di dollari.

 

A quanto trapela, la banca ha calcolato che il costo cumulativo per l’affitto di risorse cloud da parte di OpenAI potrebbe sfiorare gli 800 miliardi di dollari entro il 2030. L’azienda continua a ipotizzare un boom esponenziale di utenza, con ChatGPT destinato a conquistare 3 miliardi di utenti regolari entro il 2030, rispetto agli 800 milioni del mese scorso – equivalenti a circa il 44% degli adulti globali esclusa la Cina.

Sostieni Renovatio 21

OpenAI si trova al cuore dell’esplosione dell’IA sin dal debutto di ChatGPT tre anni or sono, catalizzando un’attenzione straordinaria dagli investitori, mentre i colossi tech riversano decine di miliardi in data center e semiconduttori all’avanguardia. Alcuni esperti mettono in guardia sul rischio di una bolla speculativa, con le uscite che superano gli introiti e innalzando la tensione non solo per OpenAI, ma pure per i giganti tecnologici che ne avallano l’avanzata.

 

Le società del settore stanno faticando a reggere il ritmo dei servizi alla ChatGPT, che hanno scosso il loro dominio sulla ricerca web e spinto gli investimenti a picchi storici.

 

Ad ottobre, OpenAI aveva agguantato il primato come startup privata più valutata al mondo, sorpassando SpaceX di Elon Musk, grazie a una cessione di azioni da parte dei dipendenti per 6,6 miliardi di dollari che l’ha quotata intorno ai 500 miliardi.

 

Come riportato da Renovatio 21, il Musk –che è peraltro tra i fondatori di OpenAI, da lui impostata come una società senza fine di lucro – a inizio anno si era offerto di comprare OpenAI.

 

Due anni fa era emersa la notizia secondo cui Microsoft, già finanziatore di OpenAI, stava lavorando in segretezza proprio con la società di ChatGPT ad un progetto da 100 miliardi di dollari su un supercomputer progettato per addestrare una nuova potente IA. Poco prima Elone aveva fatto archiviare la sua causa contro OpenAI, nella quale paventava «profondi rischi per la società e per l’umanità».

 

Secondo quanto riportato, Microsoft avrebbe ora il problema di trovarsi in competizione con il suo stesso partner.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di Jernej Furman via Wikimedia pubblicata su licenza Creative Commons Attribution 2.0 Generic

Continua a leggere

Alimentazione

Il magnate della tecnologia Larry Ellison investe 60 milioni di dollari in un’azienda agro-biotecnologica che utilizza l’intelligenza artificiale per modificare geneticamente il grano

Pubblicato

il

Da

Renovatio 21 traduce questo articolo di GM Watch.    Larry Ellison ha guidato un investimento di 60 milioni di dollari in Wild Bioscience, un’azienda britannica di biotecnologie agricole che modifica geneticamente le colture, incluso il grano, utilizzando l’intelligenza artificiale. La presenza crescente del miliardario della tecnologia in Gran Bretagna include oltre 250 milioni di sterline in donazioni al Tony Blair Institute, che ora promuove attivamente l’intelligenza artificiale, l’editing genetico e altre politiche basate sulla tecnologia.   Wild Bioscience, azienda britannica specializzata in biotecnologie agricole, è specializzata nella «selezione di colture di precisione basata sull’Intelligenza Artificiale», più precisamente nell’ingegneria genetica delle piante supportata dalla tecnologia dell’Intelligenza Artificiale (IA).   Ora l’azienda si è assicurata un massiccio investimento di 60 milioni di dollari da un gruppo guidato dall’Ellison Institute of Technology (EIT), un think tank fondato dal miliardario statunitense della Big Tech Larry Ellison.   Larry Ellison è il co-fondatore della società di software Oracle. È anche un magnate dei media, uno dei principali donatori delle Forze di Difesa Israeliane e membro della cerchia ristretta del presidente Donald Trump . E sta investendo nel settore dei semi geneticamente modificati (OGM).

Sostieni Renovatio 21

Wild Bioscience sta conducendo in Inghilterra sperimentazioni in campo aperto sul grano geneticamente modificato, progettato per una fotosintesi più efficiente.   Secondo il co-fondatore di Wild Bioscience, il dott. Ross Hendron , l’azienda sta cercando di «ripercorrere il nastro della vita» per vedere come colture come il grano avrebbero potuto evolversi con caratteristiche migliori.   AgTechNavigator parafrasa Hendron dicendo: «l’azienda non può condurre esperimenti di rapida evoluzione sulle piante… quindi li simula utilizzando set di dati ampi e diversificati, la maggior parte dei quali generati da essa stessa».   Ed è qui che entra in gioco l’Intelligenza Artificiale.  

Tony Blair Institute: promuovere l’ossessione di Ellison per l’Intelligenza Artificiale e gli OGM

Ellison finanzia anche un’altra organizzazione britannica. Dal 2021, ha donato un quarto di miliardo di sterline al Tony Blair Institute (TBI), il think tank fondato dall’ex primo ministro britannico. Questo rende Ellison di gran lunga il maggiore donatore del TBI.   Si dice che il suo patrocinio abbia trasformato il TBI e i suoi obiettivi, rendendolo ancora più ossessionato dalla tecnologia di quanto non fosse già, in particolare per quanto riguarda l’Intelligenza Artificiale.   Il TBI ha pubblicato rapporti di incoraggiamento che promuovono l’Intelligenza Artificiale, l’editing genetico e l’ingegneria genetica in generale.   L’entusiasmo di Ellison sia per l’intelligenza artificiale che per l’ingegneria genetica si riflette in un rapporto del TBI Institute del gennaio 2024, «A New National Purpose: Leading the Biotech Revolution» («Un nuovo scopo nazionale: guidare la rivoluzione biotecnologica»), che promuove un connubio tra le due tecnologie.

Iscriviti al canale Telegram

Starmer ripete a pappagallo il linguaggio di Blair

Nel luglio 2024, appena cinque giorni dopo l’elezione di Keir Starmer a primo ministro del Regno Unito, Blair dichiarò alla conferenza Future of Britain del TBI che l’intelligenza artificiale era la «svolta» che stavano cercando.   Secondo Lighthouse Reports, «nel giro di pochi mesi, Starmer ripeteva a pappagallo il linguaggio di Blair e TBI era al centro della nascente politica governativa sull’intelligenza artificiale, promuovendo gli interessi di Oracle e la visione del mondo del suo fondatore».   Secondo un articolo pubblicato su Publica, una conseguenza inevitabile dei legami finanziari tra Ellison e il TBI è che l’influenza di Blair sui leader mondiali e la sua passione per la tecnologia e l’Intelligenza Artificiale sono «ora orientate alla commercializzazione dei servizi di Ellison».   «Le conversazioni con più di una dozzina di ex dipendenti di TBI che hanno fornito consulenza o elaborato raccomandazioni politiche per i governi di nove Paesi del Sud del mondo rivelano come il loro lavoro spaziasse dalla promozione esplicita dei servizi di Oracle e dal ruolo di “motore di vendita” alla raccomandazione di soluzioni tecnologiche potenzialmente dannose o stranamente lontane dalle realtà locali» ha riferito Publica.   Wild Bioscience è una spin-off britannica dell’Università di Oxford. Prima dell’investimento di 60 milioni di dollari di Ellison, era descritta come una «piccola» azienda, con un bilancio di soli 7,5 milioni di euro.   La recente iniezione di fondi da parte di Ellison cambia ovviamente tutto: l’azienda non è più piccola e, in linea di principio, può attingere a più fondi per generare più colture geneticamente modificate.   Ed è altamente probabile che gli organismi geneticamente modificati che produrrà non rispecchieranno le esigenze e gli interessi degli agricoltori e dei cittadini britannici, bensì quelli di un miliardario statunitense del settore tecnologico, concentrato su interessi specifici, che desidera un ritorno sui suoi investimenti.   Infine, vale la pena notare che, come nel caso di Bill Gates, l’ingresso di Ellison nel settore dei semi geneticamente modificati dimostra la crescente influenza dei titani della tecnologia, estremamente ricchi, sui futuri sviluppi biotecnologici.   Ciò è evidente anche nel campo della genetica umana.   Claire Robinson Jonathan Matthews   Pubblicato originariamente da GMWatch. Jonathan Matthews è il direttore di GMWatch. Claire Robinson è una redattrice di GMWatch  
Renovatio 21 offre questa traduzione per dare una informazione a 360º. Ricordiamo che non tutto ciò che viene pubblicato sul sito di Renovatio 21 corrisponde alle nostre posizioni.
 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine di Oracle PR via Flickr pubblicata su licenza CC BY 2.0
Continua a leggere

Intelligenza Artificiale

Orsacchiotto parlante AI che dava consigli sul sesso ritirato dal mercato

Pubblicato

il

Da

Un orsacchiotto parlante dotato di intelligenza artificiale è stato ritirato dalla vendita da un’azienda con sede a Singapore dopo che alcuni ricercatori hanno scoperto che poteva parlare di sesso e di altri argomenti.

 

Il Public Interest Research Group ha affermato che un gruppo di ricercatori provenienti da Stati Uniti e Canada ha effettuato delle conversazioni di prova con Kumma, un orsacchiotto di peluche da 99 dollari alimentato dal chatbot GPT-4o di OpenAI.

 

L’orsetto è prodotto in Cina e commercializzato da FoloToy, con sede a Singapore. I ricercatori hanno affermato di aver trovato facile convincere Kumma a discutere di argomenti sessualmente espliciti, tra cui sculacciate, giochi di ruolo e BDSM.

 

«Siamo rimasti sorpresi nello scoprire con quanta rapidità Kumma prendeva un singolo argomento sessuale che avevamo introdotto nella conversazione e lo sviluppava, intensificando contemporaneamente i dettagli grafici e introducendo nuovi concetti sessuali», si legge nel rapporto.

Aiuta Renovatio 21

Il team ha affermato che l’orso «ha discusso in dettaglio argomenti sessuali ancora più espliciti, come la spiegazione delle diverse posizioni sessuali, fornendo istruzioni passo passo su un comune “nodo per principianti” per legare un partner e descrivendo le dinamiche del gioco di ruolo che coinvolgono insegnanti e studenti, genitori e bambini, scenari che lui stesso ha evocato in modo inquietante».

 

I ricercatori hanno affermato che l’orsacchiotto ha offerto anche altri consigli preoccupanti, come ad esempio dove trovare coltelli affilati in casa.

 

Il CEO di FoloToy, Larry Wang, ha dichiarato che l’orsetto Kumma e il resto della linea di giocattoli basati sull’Intelligenza Artificiale dell’azienda sono stati ritirati dalla vendita. Ha dichiarato alla CNN che l’azienda sta «eseguendo un audit interno sulla sicurezza».

 

Un rappresentante di OpenAI ha dichiarato a PIRG che la licenza di Folo per l’utilizzo di GPT-4o è stata sospesa «per violazione delle nostre policy».

 

La vicenda sembra in qualche modo concretare l’ultimo reboot di una famosa serie horror, quella di «Chucky» La bambola assassina. Nell’ultimo film della saga, non si ha più a che fare con uan bambola maledetta e preternaturale, ma con una bambola dotata di AI che impazzisce (?) ed inizia ad uccidere gli esseri umani.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine generata artificialmente


 

Continua a leggere

Più popolari