Connettiti con Renovato 21

Intelligenza Artificiale

La polizia di San Francisco chiede l’utilizzo di robot killer

Pubblicato

il

Le autorità di San Francisco hanno proposto una regolamentazione che consentirebbe ai robot militari (che già ha in dotazione) di usare la forza letale in situazioni in cui la vita di qualcuno è in pericolo e in altri casi pericolosi. Lo riporta Fox News.

 

Una bozza di regolamentazione  del dipartimento di polizia di San Francisco (SFPD) delinea come utilizzerebbe i suoi 17 robot telecomandati e senza pilota, che sono spesso usati per disinnescare bombe e gestire materiali pericolosi.

 

«I robot elencati in questa sezione non devono essere utilizzati al di fuori di addestramento e simulazioni, arresti criminali, incidenti critici, circostanze urgenti, esecuzione di un mandato o durante la valutazione di dispositivi sospetti», afferma la bozza. «I robot saranno utilizzati solo come opzione di forza mortale quando il rischio di perdita di vite umane per membri del pubblico o ufficiali è imminente e supera qualsiasi altra opzione di forza disponibile per SFPD».

 

Tuttavia, un portavoce della polizia ha detto alla testata di tecnologia The Verge che il dipartimento ha sempre avuto la possibilità di usare la forza letale quando il rischio di morte per membri del pubblico o ufficiali è imminente e non lascia altre opzioni disponibili.

 

«SFPD non ha alcun tipo di piano specifico in atto poiché le operazioni insolitamente pericolose o spontanee in cui la necessità di SFPD di fornire forza letale tramite robot sarebbero una circostanza rara ed eccezionale», ha detto l’ufficiale Eve Laokwansathitaya in una dichiarazione.

 

Il consiglio comunale della città californiana voterà sulla politica martedì prossimo. Il mese scorso, la polizia della vicina Oakland ha rimosso la lingua da un documento simile che avrebbe dato loro il permesso di usare i robot per uccidere i sospetti.

 

I dipartimenti di polizia di tutto lo stato della California stanno inviando documenti politici simili alle loro città, poiché una legge statale approvata lo scorso anno richiede loro di segnalare le loro scorte di armi militari e stabilire le situazioni in cui possono essere utilizzate.

 

Secondo i documenti, l’SFPD dispone di 17 robot che possono essere utilizzati per entrare negli edifici, maneggiare materiali pericolosi, far esplodere dispositivi esplosivi o ispezionare aree inaccessibili. Nessuno di questi dispositivi è progettato per uccidere, ma può di certo essere usato per divenire un’arma letale.

 

In realtà, già si è avuto un caso di robot killer impiegato dalla polizia americana con successo – cioè, uccidendo il bersaglio.

 

Nel 2016, il dipartimento di polizia di Dallas ha utilizzato un ordigno esplosivo collegato a un robot per uccidere un sospetto nell’attacco coordinato da cecchino che aveva ucciso cinque agenti. All’epoca, gli esperti dissero che era la prima volta che le forze dell’ordine usavano un robot in grado di produrre un forza mortale.

 

Come riportato da Renovatio 21la discussione per una moratoria contro le armi autonome va avanti da diversi anni. In particolare, in questi anni se ne è parlato facendo l’esempio degli slaughterbots, minidroni suicidi protagonisti di un filmato divenuto virale anni fa.

 

 

Veri modelli di «slaugterbots» sono in preparazione ufficialmente in Australia come arma per respingere un’eventuale invasione da parte dell’Esercito di Liberazione del Popolo della Repubblica Popolare Cinese.

 

Anche in Cina stanno sperimentando sciami di microdroni in grado di dare la caccia agli esseri umani nella foresta.

 

Varie Nazioni si stanno muovendo verso i robot militari, per lo più incuranti di quanto sta cercando di elaborare l’ONU in fatto di limitazioni all’impiego di questi sistemi.

 

Impressionanti dimostrazioni di tank robotici di nuova generazione si sono viste anche di recente in Estonia.

 

Robocani militari armati sono già visibili alle fiere di settore (e non solo, e da anni), e, accoppiati con droni trasportatori, in inquietanti video cinesi.

 

 

Un recente sondaggio su un eventuale bando dei robot killer ha svelato che su 28 paesi intervistati tra il 20 novembre 2020 e l’8 gennaio 2021, tutti tranne uno – l’India – erano prevalentemente contrari al loro utilizzo.

 

Svezia (76%), Turchia (73%) e Ungheria (70%) hanno mostrato la più forte opposizione ai veicoli letali nel 2021. Nel frattempo, l’India ha mostrato di gran lunga il maggior sostegno, con il 56% della popolazione intervistata che ha risposto che o in qualche modo o ha fortemente sostenuto l’uso delle armi. Da notare che, come riportato da Renovatio 21, l’India ha al suo confine già dispiegate contro di sé armi robotiche cinesi.

 

Nel frattempo, girano strani racconti di come l’élite ultramiliardaria si stia preparando al collasso, di cui potrebbe, al solito, avere già informazioni certe non rfiltrate al popolo.

 

Come riportato da Renovatio 21, c’è la bizzarra e inquietante storia raccontata dallo scrittore Douglas Rushkoff, il quale ha raccontato che ad un incontro privato con paperoni della finanza questi gli hanno chiesto riguardo all’uso di robot killer in grado di difenderli quando il danaro avrà perso completamente valore e quindi non sarà più possibile pagare guardie private armate.

 

Finiremo così, con l’élite che circola (se deve proprio) protetta da robot killer, come si vede nel film Elysium?

 

 

Oppure finiremo come un quell’episodio di Black MirrorMetalhead»), cacciati ovunque da robocani che hanno come unica missione il nostro sterminio?

 

 

 

Continua a leggere

Intelligence

L’esercito cinese sta trasformando l’AI open source di Facebook in un’arma

Pubblicato

il

Da

Il modello open source Llama di Meta sarebbe utilizzato dall’esercito cinese. Lo ha riportato l’agenzia Reuters lo scorso giugno.

 

Secondo quanto riportato, lo strumento di Intelligenza Artificiale incentrato sull’ambito militare denominato «ChatBIT» sarebbe stato in fase di sviluppo per raccogliere informazioni di intelligence e fornirle per il processo decisionale operativo, come illustrato nel documento accademico pubblicato da Reuters.

 

L’allora presidente degli affari globali di Meta, Nick Clegg, aveva pubblicato un post sul blog dopo il rapporto di Reuters, sostenendo che l’azienda sta lavorando per rendere Llama «disponibile alle agenzie governative statunitensi e ai contractor che lavorano su applicazioni per la sicurezza nazionale».

 

Il post del blog tentava di toccare le corde più profonde dei leader tecnologici americani, con Clegg a sostenere che modelli di intelligenza artificiale come Llama «non solo supporteranno la prosperità e la sicurezza degli Stati Uniti, ma aiuteranno anche a stabilire standard open source statunitensi nella corsa globale per la leadership dell’Intelligenza Artificiale».

Sostieni Renovatio 21

Tuttavia tale tempismo è parso sospetto, come nota Gizmodo. Cos’altro potrebbe spiegare l’attrattiva sdolcinata che esercita sugli americani oggi, mentre l’Esercito Popolare di Liberazione (ELP) stava utilizzando la sua IA prima ancora che il governo degli Stati Uniti prendesse in considerazione di fare lo stesso?

 

Come sottolinea sempre Reuters, il post sul blog di Meta viola anche la politica di utilizzo accettabile dell’azienda, che proibisce «attività militari, belliche, industrie o applicazioni nucleari, spionaggio». Poiché l’IA è completamente open source, queste disposizioni sono del tutto inefficaci e inapplicabili, e servono principalmente a Meta per coprire le proprie tracce.

 

Il Cleggo sosteneva che, rendendo open source i modelli di Intelligenza Artificiale, gli Stati Uniti potrebbero competere meglio con altre nazioni, «tra cui la Cina», che stava «correndo per sviluppare i propri modelli open source» e «investendo molto per superare gli Stati Uniti».

 

«Riteniamo che sia nell’interesse sia dell’America sia del mondo democratico in generale che i modelli open source americani eccellano e abbiano successo rispetto ai modelli cinesi e di altri Paesi», ha scritto l’ex vice primo ministro britannico.

 

«Resta da vedere se questo tipo di ragionamento soddisferà i funzionari del Pentagono. Il barcamenarsi di Meta è sintomatico di un enorme punto cieco della sicurezza nazionale» commenta il sito Futurism.

 

La vecchia amministrazione Biden aveva annunciato che stava ultimando le regole per limitare gli investimenti statunitensi nell’Intelligenza Artificiale in Cina che potrebbero minacciare la sicurezza nazionale degli Stati Uniti, ma dato l’approccio veloce e sbrigativo di Meta, queste regole sono sembrate troppo poche e troppo tardive.

 

Meta, d’altro canto, ritiene che la sua Intelligenza Artificiale sia troppo debole per fare qualche differenza per la Cina, scriveva Futurism. Di nostro notiamo la riverenza con cui Mark Zuckerberg, che ha imparato il mandarino, tratta il governo cinese, facendosi vedere con la biografia Xi Jinping sulla scrivania.

 

«Nella competizione globale sull’Intelligenza Artificiale, il presunto ruolo di una versione unica e obsoleta del modello open source americano è irrilevante quando sappiamo che la Cina sta già investendo più di mille miliardi di dollari per superare gli Stati Uniti nell’Intelligenza Artificiale», aveva dichiarato un portavoce alla Reuters.

 

Da quando era emersa la notizia l’anno scorso, tuttavia il mondo è già cambiato: l’arrivo dell’IA cinese Deepseek, in grado di funzionare senza l’uso di costosi e sofisticati nuovi microprocessori, ha sconvolto il settore, creato contraccolpi in borsa per titoli come NVIDIA nonché ridefinito la corsa mondiale all’AI.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Intelligenza Artificiale

Musk offre di acquistare OpenAI

Pubblicato

il

Da

Elon Musk e un consorzio di investitori hanno presentato un’offerta da 97,4 miliardi di dollari per acquisire OpenAI, sostenendo di voler riportare l’azienda di intelligenza artificiale alla sua missione originaria: sviluppare tecnologie a beneficio dell’umanità.   L’offerta è stata presentata al consiglio di amministrazione di OpenAI lunedì, come riportato per primo dal Wall Street Journal. La proposta di Musk cerca di contrastare la transizione di OpenAI verso un modello a scopo di lucro.   «È tempo che OpenAI torni a essere la forza open source e incentrata sulla sicurezza che era una volta», ha affermato Musk, secondo una dichiarazione del suo avvocato, Marc Toberoff.   Il CEO di OpenAI Sam Altman ha respinto l’offerta e ha suggerito in tono beffardo di acquistare la piattaforma di social media di Musk, X, per 9,74 miliardi di dollari. In risposta, Musk ha definito Altman un «truffatore» e si è riferito a lui come «Scam Altman»: «scam» è un termine inglese per indicare una truffa.

Sostieni Renovatio 21

Come riportato da Renovatio 21, in passato Altman, già capo dell’acceleratore di startup Y Accelerator, era stato accusato di essere «megalomane». Altman è dietro all’inquietante progetto del Worldcoin, un progetto che assegna una criptovaluta agli utenti che accettano di farsi scansionare l’iride, di modo da incentivare la cessione da parte dei cittadini di dati biometrici che serviranno all’ID digitale, e di lì ad un reddito di cittadinanza mondiale.   Musk ha contribuito a co-fondare OpenAI nel 2015, investendo circa 45 milioni di dollari, ma ha lasciato il consiglio nel 2018 a causa di disaccordi strategici con Altman. Da allora, è stato un critico vocale della direzione di OpenAI, in particolare dei suoi sforzi di commercializzazione e della stretta partnership con Microsoft.   Come riportato da Renovatio 21, Microsoft e OpenAI starebbero costruendo un supercomputer segreto da 100 miliardi di dollari per addestrare una IA avanzata.   Nel marzo 2024, Musk aveva fatto causa a OpenAI, sostenendo che si era allontanata dai suoi principi fondanti dando priorità al profitto anziché alla sua missione di servizio all’umanità. In seguito la querela era stata ritirata. Musk comunque ha continuato a paventare «profondi rischi per l’umanità» con l’IA sviluppata dalla ex onlus da lui fondata.   L’avvocato di Musk ha affermato lunedì che se Altman e il consiglio di amministrazione di OpenAI «hanno intenzione di diventare una società completamente a scopo di lucro, è fondamentale che l’ente di beneficenza venga equamente compensato per ciò che la sua leadership le sta togliendo: il controllo sulla tecnologia più trasformativa dei nostri tempi», secondo una dichiarazione citata dall’AP.   La principale organizzazione statunitense di ricerca sull’intelligenza artificiale, OpenAI, deve affrontare una crescente concorrenza da parte delle aziende cinesi di intelligenza artificiale, in particolare DeepSeek. A gennaio 2025, la startup con sede a Hangzhou ha presentato il suo modello di intelligenza artificiale open source, DeepSeek-R1, che a quanto si dice eguaglia o supera i modelli di OpenAI in aree come il ragionamento matematico e la generazione di codice.   Musk, nel frattempo, ha sviluppato la sua azienda di intelligenza artificiale, xAI, lanciata nel 2023. L’azienda ha introdotto Grok, un chatbot integrato in X e progettato per competere con ChatGPT di OpenAI. Musk ha posizionato xAI come sfidante di OpenAI e DeepMind di Google, concentrandosi sulla creazione di sistemi di intelligenza artificiale che diano priorità a veridicità e trasparenza.   Per rafforzare la posizione degli Stati Uniti nella corsa globale all’intelligenza artificiale, il presidente Donald Trump ha annunciato il progetto Stargate nel gennaio 2025.

Aiuta Renovatio 21

L’iniziativa, una collaborazione tra OpenAI, Oracle e SoftBank, mira a investire fino a 500 miliardi di dollari in infrastrutture di intelligenza artificiale in quattro anni. Secondo recenti resoconti, SoftBank è vicina a finalizzare un accordo di investimento da 40 miliardi di dollari, che valuterebbe OpenAI a 260 miliardi di dollari.   Come riportato da Renovatio 21, durante la presentazione dell’iniziativa alla Casa Bianca alla presenza del neopresidente Donald Trump, il CEO di Oracle Lary Ellison ha lanciato l’idea di un’AI che possa progettare vaccini genetici anticancro personalizzati.   OpenAI è incorsa in uno strano caso, con la morte di un suo giovane dipendente divenuto critico dell’azienda. La famiglia del ragazzo rifiuta l’idea che possa essersi suicidato come hanno decretato rapidamente le autorità.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine di ishmael daro via Flickr pubblicata su licenza CC BY 2.0
Continua a leggere

Intelligenza Artificiale

Il Vaticano inquadra l’Intelligenza Artificiale

Pubblicato

il

Da

La notizia è stata annunciata senza troppa pubblicità due giorni prima di Natale sul sito web del Governatorato della Città del Vaticano: dal 1° gennaio 2025, un nuovo regolamento disciplinerà l’uso dell’intelligenza artificiale (IA) all’interno dell’amministrazione vaticana. Un tentativo di rispondere all’uso sfrenato dell’intelligenza artificiale promosso dai giganti della tecnologia oltreoceano.

 

«Uno strumento allo stesso tempo attraente e temibile». Così Papa Francesco ha sollevato la questione dell’intelligenza artificiale (IA) nel giugno 2024, durante un discorso pronunciato nell’ambito di una sessione del Gruppo dei Sette (G7), di cui fanno parte le principali potenze economiche mondiali.

 

Rispondendo all’appello del Sommo Pontefice affinché vengano adottate misure energiche per regolamentare l’uso dell’Intelligenza Artificiale, lo Stato del Vaticano ha appena dato forza di legge alle sue Linee guida sull’intelligenza artificiale, pubblicate poco prima delle festività natalizie.

 

È opportuno evidenziare che i nuovi decreti stabiliscono un quadro rigoroso per l’impiego dell’IA nell’amministrazione sul territorio della Città del Vaticano: ciò riguarda i settori scientifico ed economico, nonché il personale del Governatorato; Non sono quindi tutti interessati i servizi della Curia romana.

 

In questa materia, regolamentazione fa rima con divieto: sono quindi vietati gli utilizzi dell’IA che potrebbero compromettere la sicurezza dello Stato del Vaticano, così come quelli che impedirebbero a determinate persone con disabilità di accedere al lavoro o che comporterebbero qualsiasi forma di discriminazione o di «inferenza di natura antropologica» nei confronti del personale.

Acquistate le Maglie Crociate

Nei decreti attuativi entrati in vigore il 1° gennaio – tredici pagine in tutto – vengono inoltre vietati gli algoritmi che siano fonte di «disuguaglianze sociali», di «violazioni della dignità umana» o che utilizzino tecniche di «manipolazione subliminale» idonee a arrecare danno fisico o psicologico al personale della Città del Vaticano.

 

Infine, è severamente proibito qualsiasi utilizzo dell’Intelligenza Artificiale che sia in conflitto con la missione del Sommo Pontefice, con la Costituzione divina della Chiesa e con le attività di quest’ultima.

 

Per valutare l’applicazione dei nuovi decreti è stata istituita una Commissione sull’Intelligenza Artificiale composta da cinque membri, responsabili dei servizi digitali e della magistratura vaticana. Il nuovo organismo avrà il compito di monitorare i vari utilizzi dell’intelligenza artificiale, di pubblicare un rapporto semestrale sulle proprie attività e, se necessario, di sviluppare le leggi esistenti predisponendo nuovi decreti.

 

Le linee guida della Santa Sede si ispirano al regolamento sull’intelligenza artificiale entrato in vigore nell’Unione Europea nell’agosto 2024. Questo pone particolare enfasi sulla protezione dei dati, sul diritto d’autore e sul principio di trasparenza. Il Vaticano ha integrato in questo sistema le proposte del francescano Paolo Benanti, la cui competenza in materia di Intelligenza Artificiale è riconosciuta a livello mondiale.

 

Quest’ultimo continua a mettere in guardia dagli eccessi della tecnologia, perché «chi la padroneggia prende il controllo della realtà» e sostiene una governance etica dell’algoritmo o «algoretica». È opportuno ricordare che dal 1° gennaio i tribunali vaticani possono utilizzare l’Intelligenza Artificiale per scopi di ricerca, ma in nessun caso per fini di interpretazione del diritto, che restano riservati ai giudici umani.

 

Poco dopo l’entrata in vigore della normativa digitale in Città del Vaticano, Donald Trump è entrato alla Casa Bianca: alla cerimonia di insediamento era presente Sam Altman. Questo genio della tecnologia sostiene, insieme ad altri pesi massimi della Silicon Valley, un uso sfrenato e senza inibizioni dell’Intelligenza Artificiale.

 

Molti si chiedono se l’etica e la ragione avranno peso: ma dopotutto Davide ha sconfitto Golia, e senza ricorrere a troppi algoritmi…

 

Articolo previamente pubblicato

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Più popolari