Connettiti con Renovato 21

Intelligenza Artificiale

Intelligenza artificiale assassina: le armi autonome potrebbero essere più destabilizzanti delle armi nucleari

Pubblicato

il

 

 

L’era delle armi autonome è arrivata. I robot killer sono realtà. E uccidono vicino al nostro Paese.

 

Secondo un recente rapporto del Consiglio di sicurezza delle Nazioni Unite  sulla guerra civile libica, i sistemi d’arma autonomi, comunemente noti come robot killer, potrebbero aver ucciso esseri umani per la prima volta in assoluto proprio lo scorso anno.

 

Gli storici non avrebbero quindi torto a identificare i robot killer libici come il punto di partenza della prossima grande corsa agli armamenti, quella che ha il potenziale per essere quella finale dell’umanità.

 

Gli apparati militari di tutto il mondo stanno  investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno  stanziato 18 miliardi  di dollari per armi autonome tra il 2016 e il 2020

I sistemi d’arma autonomi sono robot armati che possono operare in modo indipendente, selezionando e attaccando bersagli – il tutto, dettaglio importante che li separa dai più comuni droni da combattimento, senza che un essere umano sia coinvolto nelle decisioni.

 

Gli apparati militari di tutto il mondo stanno  investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno  stanziato 18 miliardi  di dollari per armi autonome tra il 2016 e il 2020.

 

Nel frattempo, le organizzazioni per i diritti umani stanno facendo a gara per stabilire regolamenti e divieti sullo sviluppo di tali armi.

 

In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari.

 

In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari

Ciò può avvenire sia perché potrebbero cambiare radicalmente la percezione del dominio strategico, aumentando il rischio di attacchi preventivi, sia perché potrebbero combinarsi con armi NBCR: nucleari, biologiche, chimiche, radiologiche.

 

Vi sono almeno quattro problemi sollevati dalle armi autonome.

 

Il primo è il problema dell’errata identificazione. Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo? Tra civili in fuga da un luogo di conflitto e insorti in ritirata tattica? Vedi il robot cattivo ED-209 – nel famoso film Robocop – che durante una dimostrazione dinanzi ai dirigenti, non sente cadere l’arma del volontario che si presta a fare da esca crivellandolo di colpi.

 

Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo?

 

L’esperto di armi autonome Paul Scharre usa la metafora della runaway gun, la «pistola in fuga» per spiegare questa sostanziale differenza. Una pistola in fuga è una mitragliatrice difettosa che continua a sparare dopo il rilascio del grilletto. L’arma continua a sparare fino all’esaurimento delle munizioni perché, per così dire, l’arma non sa che sta commettendo un errore. Le pistole in fuga sono estremamente pericolose, ma fortunatamente hanno operatori umani che possono interrompere il collegamento delle munizioni o cercare di puntare l’arma in una direzione sicura. Le armi autonome, per definizione, non hanno tale salvaguardia.

 

È importante sottolineare che l’Intelligenza Artificiale armata non deve nemmeno essere difettosa per produrre l’effetto della pistola in fuga. Come hanno dimostrato numerosi studi sugli errori algoritmici in tutti i settori, i migliori algoritmi, operando come previsto, possono  generare risultati internamente corretti che tuttavia diffondono rapidamente errori terribili tra le popolazioni.

 

Ad esempio, una rete neurale progettata per l’uso negli ospedali di Pittsburgh ha identificato l’asma come un fattore di riduzione del rischio nei casi di polmonite; il software di riconoscimento delle immagini utilizzato da Google ha identificato gli afroamericani come gorilla e così via.

 

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli

Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli. Il  problema  della scatola nera dell’Intelligenza Artificiale rende quasi impossibile immaginare uno sviluppo moralmente responsabile di sistemi d’arma autonomi.

 

I prossimi due pericoli sono i problemi della proliferazione di fascia bassa e di fascia alta.

 

Cominciamo con la fascia bassa. Le forze armate che stanno sviluppando armi autonome ora procedono partendo dal presupposto che saranno in grado di contenere e controllare l’uso di armi autonome. Ma se la storia della tecnologia delle armi ha insegnato qualcosa al mondo, è questa: le armi si diffondono.

 

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.

 

Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.

Queste nuovi armamenti potrebbero finire nelle mani di persone al di fuori del controllo del governo, inclusi terroristi internazionali e nazionali.

 

Tuttavia, la proliferazione di fascia alta è altrettanto negativa.

 

Le Nazioni potrebbero competere per sviluppare versioni sempre più devastanti di armi autonome, comprese quelle in grado di montare armi chimiche, biologiche, radiologiche e nucleari – come la Skynet nella pellicola Terminator – portando il mondo a una specie di autodistruzione.

 

È probabile che le armi autonome di fascia alta portino a guerre più frequenti perché diminuiranno due delle forze primarie che storicamente hanno prevenuto e accorciato le guerre: la preoccupazione per i civili e le potenziali perdite dei propri soldati.

 

Con molta probabilità le guerre asimmetriche – ovvero le guerre condotte sul suolo di nazioni prive di tecnologie concorrenti – diventeranno più comuni.

 

Si pensi all’instabilità globale causata dagli interventi militari sovietici e statunitensi durante la Guerra Fredda, dalla prima guerra per procura al contraccolpo sperimentato oggi in tutto il mondo. Moltiplichiamo per ogni Paese che attualmente punta a armi autonome di fascia alta.

 

Le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra

Infine, le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra.

 

Queste leggi, codificate in trattati che risalgono alla Convenzione di Ginevra del 1864, sono la sottile linea blu internazionale che separa la guerra con onore dal massacro. Si basano sull’idea che le persone possono essere ritenute responsabili delle proprie azioni anche in tempo di guerra, che il diritto di uccidere altri soldati durante il combattimento non dà il diritto di uccidere civili. 

 

Ma come possono essere ritenute responsabili le armi autonome?

 

Di chi è la colpa di un robot che commette crimini di guerra?

 

Chi verrebbe processato? L’arma? Il soldato?

 

I comandanti del soldato? La società che ha fabbricato l’arma?

 

Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave  divario di responsabilità

Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave  divario di responsabilità.

 

«Per ritenere un soldato penalmente responsabile del dispiegamento di un’arma autonoma che commette crimini di guerra, i pubblici ministeri dovrebbero provare sia actus reus che mens rea, termini latini che descrivono un atto colpevole e una mente colpevole» scrive il professore esperto in diritti umane James Dews.

 

«Questo sarebbe difficile dal punto di vista della legge, e forse ingiusto per una questione di moralità, dato che le armi autonome sono intrinsecamente imprevedibili. Credo che la distanza che separa il soldato dalle decisioni indipendenti prese dalle armi autonome in ambienti in rapida evoluzione sia semplicemente troppo grande».

 

La sfida legale e morale non è resa più facile spostando la colpa sulla catena di comando o tornando al luogo di produzione.

 

In un mondo senza regolamenti che impongono  un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili

In un mondo senza regolamenti che impongono  un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili.

 

La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.

 

«Proviamo a immaginare un mondo in cui militari, gruppi di insorti e terroristi nazionali e internazionali possano schierare una forza letale teoricamente illimitata a rischio teoricamente zero in tempi e luoghi di loro scelta, senza alcuna responsabilità legale risultante. È un mondo in cui il tipo di errori algoritmici inevitabili  che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città».

 

La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.

Il mondo non dovrebbe ripetere gli errori della corsa agli armamenti nucleari.

 

Intanto oggi, con la scusa delle «restrizioni COVID», alcuni robot autonomi sono stati schierati per le strade per far rispettare il distanziamento sociale tra cittadini e vigilare che indossino le mascherine oppure per proteggere le élite facoltose da una potenziale ribellione di massa.

 

Come riportato da Renovatio 21, la Cina disporrebbe già di sciami di droni suicidi esplosivi: i famosi slaughterbots tanto temuti dai teorici del pericolo delle armi autonome.

 

 

Il futuro è già qui.

 

I robot killer, pure.

 

Qualcuno vuole cominciare a discuterne seriamente?

 

È un mondo in cui il tipo di errori algoritmici inevitabili  che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città»

In effetti, ci sarebbe la fila: quando parleremo davvero delle armi biologiche, della manipolazione genetica gain of function, del CRISPR, del gene drive?

 

E quando parleremo della minaccia che pongono invece le armi cibernetiche?

 

Quando l’umanità si renderà conto dei rischi che corre a causa della tecnologia che essa stessa si ostina a creare al di fuori di qualsiasi legge morale?

 

 

 

 

 

 

Immagine di Tigersfather via Deviantart pubblicata su licenza Creative Commons Attribution-NonCommercial-NoDerivs 3.0 Unported (CC BY-NC-ND 3.0)

Continua a leggere

Intelligenza Artificiale

Scienziati provano a dare un «monologo interiore» all’AI

Pubblicato

il

Da

In un paper non ancora peer-reviewed un gruppo di Stanford chiamato «Nonbad AI», hanno collaborato per creare un modello di Intelligenza Artificiale che si ferma a «pensare» prima di elaborare risposte, mostra il suo lavoro e chiede agli utenti di dirgli quale risposta è più corretta.

 

Il team dietro il Quiet-Taught Reasoner, o Quiet-STaR in breve, ha voluto che il loro modello non solo fosse in grado di insegnarsi alla, ma anche di farlo «tranquillamente» prima di fornire risposte, operando così come la coscienza interiore di un essere umano che, idealmente, riflette prima di parlare.

 

«Dal punto di vista esecutivo», come Eric Zelikam di Stanford ha scritto in un thread su Twitter riguardo al modello che ha contribuito a produrre, «ragionare l’auto-insegnante su diversi testi web migliora automaticamente altri ragionamenti!».

Iscriviti al canale Telegram

Per creare questa AI «contemplativa», il team di ricerca ha costruito Quiet-STaR su Mistral 7B, un modello di linguaggio di grandi dimensioni (LLM) open source che si sarebbe formato su sette miliardi di parametri e si dice che sia in grado di sovraperformare l’ultima versione del modello di Llama in forza a Meta (cioè, Facebook), che in questi mesi sta subendo diverse defezioni in campo di esperti di AI.

 

Quiet-STaR è stato programmato, essenzialmente, per mostrare il suo lavoro dopo che ha ragionato per i suoi output e gli utenti del modello sono stati quindi in grado di selezionare quale risposta era più accurata. Questo approccio, come osserva il documento, ha portato il modello ad essere accurato il 47,2% delle volte, rispetto al 36,3% ottenuto senza l’addestramento di ragionamento aggiuntivo.

 

Mentre il modello ha ancora percentuali basse sulla matematica, ottenendo solo il 10,9 per cento delle domande giuste, il Quiet-STaR pre-addestrato ha ottenuto solo il 5,9 per cento delle domande giuste, il che significa che ha raddoppiato la sua abilità matematica durante il suo allenamento.

 

Nessuno di questi risultati è particolarmente sconvolgente, ma risultano interessanti in proiezione futura, perché, ad oggi, chatbot come ChatGPT di OpenAI e Gemini di Google sono stati fallaci nei ragionamenti di buon senso.

 

Quiet-STaR, i ricercatori propongono nel loro articolo, potrebbero portare a colmare il gap che «chiude il divario tra il modello linguistico e le capacità di ragionamento umano».

 

Il ragionamento di un AI, si dice, non è in genere replicabile. Qualcuno ha paragonato la richiesta di una spiegazione sulla risposta ad una domanda ad un AI – cioè una serie di linee di codice – ad una radiografia come mezzo di leggere il pensiero di una persona: un’idea assurda e fallace.

Aiuta Renovatio 21

Difficile capire cosa possa aver portato l’IA di Microsoft a credersi, per un periodo, di essere divenuto un «dio» e pretendere l’adorazione da parte degli esseri umani.

 

L’uso dell’AI tuttavia avanza ovunque nelle società di tutto il mondo.

 

Come riportato da Renovatio 21, Intelligenza Artificiali sono state candidate in politica in Gran Bretagna e in Giappone. In Cina le AI sono usate per far «riapparire» i defunti e persino per creare androidi che hanno le sembianze di bambini destinati a chi è senza figli.

 

Nel frattempo, continuano le discussioni sul fatto che l’AI potrebbe portare alla distruzione della civiltà e all’estinzione dell’umanità.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Intelligenza Artificiale

ChatGPT legato alla perdita di memoria e alla procrastinazione negli studenti.

Pubblicato

il

Da

Una nuova ricerca ha trovato un collegamento preoccupante alla perdita di memoria negli studenti che si affidavano a ChatGPT.   Come dettagliato in un nuovo studio pubblicato sull’International Journal of Educational Technology in Higher Education, i ricercatori hanno intervistato centinaia di studenti universitari, utilizzando valutazioni auto-riferite. Sono stati stimolati assistendo sempre più ai loro studenti a rivolgersi a ChatGPT.   «Il mio interesse per questo argomento deriva dalla crescente prevalenza dell’intelligenza artificiale generativa nel mondo accademico e dal suo potenziale impatto sugli studenti», ha detto a il coautore dello studio Muhammad Abhas presso l’Università Nazionale di Informatica e Scienze Emergenti in Pakistan. «Nell’ultimo anno, ho osservato una crescente, acritica, dipendenza dagli strumenti di intelligenza artificiale generativa tra i miei studenti per vari incarichi e progetti che ho assegnato».   In una prima fase, i ricercatori hanno raccolto risposte da 165 studenti che hanno utilizzato una scala di otto elementi per riportare il loro grado di dipendenza da ChatGPT. Gli articoli variavano da «Io uso ChatGPT per i miei compiti di corso» a «ChatGPT fa parte della mia vita nel campus».

Iscriviti al canale Telegram

Per convalidare questi risultati, hanno anche condotto una seconda fase più rigorosa, in cui hanno ampliato il loro campione a quasi 500 studenti, che sono stati intervistati tre volte a intervalli di una o due settimane, riporta Futurism.   Non sorprende che i ricercatori abbiano scoperto che gli studenti sotto un pesante carico di lavoro accademico e «pressione contro il tempo» erano molto più propensi a utilizzare ChatGPT. Hanno osservato che coloro che si affidavano a ChatGPT hanno riportato più procrastinazione, più perdita di memoria e un calo del GPA. E il motivo per cui è abbastanza semplice: il chatbot, per quanto siano valide o meno le sue risposte, facilita i compiti scolastici.   «Dal momento che ChatGPT può rispondere rapidamente a qualsiasi domanda posta da un utente», hanno scritto i ricercatori nello studio, «gli studenti che usano eccessivamente ChatGPT possono ridurre i loro sforzi cognitivi per completare i loro compiti accademici, con conseguente scarsa memoria».   «Contraria alle aspettative, gli studenti che erano più sensibili alle ricompense avevano meno probabilità di usare l’Intelligenza Artificiale generativa», ha detto Abbas a PsyPost, suggerendo che coloro che cercano buoni voti evitavano di usare il chatbot per paura di essere scoperti.   È possibile che la relazione tra l’uso di ChatGPT e i suoi effetti negativi sia bidirezionale, osserva PsyPost. Uno studente può rivolgersi al chatbot perché ha già voti cattivi, e non il contrario.    Sulla base di questi risultati, dovremmo diffidare sul ruolo di ChatGPT nell’istruzione.   «La persona media dovrebbe riconoscere il lato oscuro dell’uso eccessivo dell’IA», ha detto Abbas a Psypost. «Mentre questi strumenti offrono praticità, possono anche portare a conseguenze negative come la procrastinazione, la perdita di memoria e le prestazioni accademiche compromesse».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
   
Continua a leggere

Intelligenza Artificiale

Lo spaventoso sorriso del robot ricoperto di pelle umana: Terminator stiamo arrivando

Pubblicato

il

Da

Gli scienziati stanno utilizzando la pelle umana viva come materiale da costruzione per creare volti per robot che consentirebbero loro di esprimere emozioni.

 

Lo dimostrano inquietanti filmati che stanno provocando paura e disgusto in rete.

 

Un video mostra la pelle applicata a un prototipo di robot che costringe una macchia rosa senza vita dotata di occhi a illuminarsi improvvisamente con un sorriso.

 


Iscriviti al canale Telegram

«Il tessuto vivente è un mix coltivato di cellule della pelle umana cresciute in un’impalcatura di collagene e posizionate sopra una base di resina stampata in 3D. A differenza di precedenti esperimenti simili, la pelle contiene anche l’equivalente dei legamenti che, negli esseri umani e in altri animali, sono sepolti nello strato di tessuto sotto la pelle, tenendolo in posizione e conferendogli incredibile forza e flessibilità» scrive NewScientist.com.

 

Oltre ad avere un aspetto inquietante, i ricercatori di Harvard che stanno sperimentando questa consistenza simile alla pelle affermano che non solo potrebbe essere adattata agli scheletri robotici, ma potrebbe anche rivelarsi utile all’industria cosmetica.

 

Si tratta della realizzazione di quanto raccontato nel capolavoro distopico Terminator (1984), nella scena, successiva alla strage della discoteca Tech Noir, in cui Kyle Reese, l’uomo venuto dal futuro per salvare Sarah Connor dall’androide assassino, spiega come le macchine si erano evolute utilizzando tessuti umani per camuffarsi meglio e così ingannare gli umani per ucciderli.

 

«Il Terminator è un’unità di infiltrazione, in parte uomo, in parte macchina. Sotto, è un telaio da combattimento in iperlega, controllato da microprocessore, completamente corazzato. Molto resistente. Ma all’esterno, è tessuto umano vivente: carne, pelle, capelli, sangue, coltivati ​​per i cyborg».

 

Aiuta Renovatio 21

«La serie 600 aveva la pelle in gomma. Li individuavamo facilmente, ma questi sono nuovi. Sembrano umani: sudore, alito cattivo, tutto. Molto difficile da individuare».

 

Stiamo inoltrandoci sempre più nella cosiddetta Uncanny Valley, la «zona del perturbante» descritta dal pioniere giapponese della robotica Masahiro Mori, che pensò, già nel 1970, come gli oggetti umanoidi che assomigliano imperfettamente a veri esseri umani potessero finire per provocare sentimenti di inquietudine o repulsione negli osservatori umani.

 

L’ipotesi della Uncanny Valley prevede che un oggetto che appare quasi umano rischierà di suscitare sentimenti freddi e inquietanti negli spettatori.

 

Ora, con la pelle umana, tale senso di straniamento, e di accettazione dell’androide nella propria vita (o nella propria morte…) potrebbe venire a mancare.

 

La scrittrice Annie Jacobsen nel suo monumentale The Pentagon’s Brain, libro dedicato alla scoperta della storia e dei piani della DARPA (il misterioso reparto ricerca e sviluppo del Pentagono), ha rivelato che gli scienziati militari stanno elaborando sistemi per far accettare ai soldati di combattere a fianco di robot, con discussione sull’uso sui militari dell’ossitocina – considerato come l’ormone dell’amore e del benessere – al fine da fornire loro empatia nei confronti delle macchine.

 

I robot soldati, saranno dunque coperti di pelle umana, esattamente con i T-800 di Terminator?

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Immagine screenshot da YouTube

Continua a leggere

Più popolari