Connettiti con Renovato 21

Intelligenza Artificiale

Il Pentagono potrebbe punire l’IA Anthropic per essersi rifiutato di modificare il codice etico

Pubblicato

il

Il dipartimento della Guerra degli Stati Uniti è prossimo a interrompere i rapporti con Anthropic, principale partner nel settore dell’intelligenza artificiale e sviluppatore del modello Claude, designandolo come un rischio per la filiera della fornitura americana. Lo riporta Axios, citando un funzionario del Pentagono. Tale classificazione è solitamente riservata a entità legate a stati considerati da Washington come avversari stranieri.

 

Secondo le informazioni riportate, il laboratorio con sede a San Francisco è in contrasto da mesi con il governo statunitense a causa della sua politica che restringe l’uso militare della propria tecnologia. Mentre il Pentagono ha insistito affinché l’azienda permettesse l’impiego di Claude per «tutti gli scopi legittimi», il protocollo etico di Anthropic vieta che la sua tecnologia venga usata per «facilitare la violenza, sviluppare armi o condurre attività di sorveglianza».

 

«Sarà una vera rottura di scatole districarci e faremo in modo che paghino il prezzo per averci forzato la mano in questo modo», ha dichiarato ad Axios un funzionario del Pentagono rimasto anonimo.

 

Claude rappresenta attualmente l’unico modello di AI in uso sulle piattaforme classificate dell’esercito, grazie a una collaborazione con Palantir Technologies, colosso del software di analisi e sorveglianza finanziato da Peter Thiel, venture capitalist ora molto discusso per le sue visioni sul futuro e sull’anticristo nonché per i suoi legami con la politica, in particolare con il vicepresidente JD Vance che fu suo dipendente in Silicon Valley.

 

Un eventuale inserimento nella lista nera obbligherebbe i contractor del Pentagono a dimostrare di non impiegare la tecnologia di Anthropic, con il rischio di perdere i contratti in caso contrario.

 

Il portavoce del Pentagono Sean Parnell ha affermato ad Axios che il rapporto tra il dipartimento e Anthropic «è in fase di revisione».

Sostieni Renovatio 21

«Tutti i partner del Pentagono devono essere disposti ad aiutare i nostri combattenti a vincere qualsiasi battaglia», ha aggiunto Parnell. Un portavoce di Anthropic ha dichiarato alla testata che l’azienda ha avuto «conversazioni produttive» con il dipartimento.

 

Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.

 

La scorsa settimana, Axios e il Wall Street Journal hanno riferito che Claude è stato impiegato sia per organizzare il raid sia per portarlo a termine, sebbene il suo ruolo preciso resti poco chiaro. Le accuse sono emerse dopo che l’azienda ha trascorso settimane a promuovere le proprie politiche di sicurezza e a presentarsi come l’opzione più attenta alla sicurezza nell’ambito dell’intelligenza artificiale.

 

Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.

 

Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».

 

Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.

 

Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.

 

La scorsa settimana Mrinank Sharma, l fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

L’Ucraina impiega un numero record di 7.000 missioni robotiche contro la Russia in un solo mese

Pubblicato

il

Da

L’Ucraina ha impiegato un numero record di 7.000 missioni robotiche in un solo mese per respingere l’avanzata delle forze russe.   Un operatore di droni ucraino ha dichiarato al giornale brittanica Guardian che il fronte ora «assomiglia più a Terminator» «Un robot terrestre arriva nella tua posizione e non puoi farci niente. Puoi sparare a una persona al petto e questa smette di sparare. Se spari a un robot terrestre, non sente dolore».   Il New York Post spiega: «Quando Kiev ha schierato per la prima volta i robot in prima linea nel 2024, questi erano disponibili in forme e dimensioni limitate. Ora una varietà di droidi assassini può sparare, posare mine e lanciare granate contro il nemico, tra gli altri compiti che hanno portato al numero record di missioni a gennaio».  

Iscriviti al canale Telegram

Secondo alcune fonti, a gennaio oltre cento soldati russi si sarebbero arresi ai robot.   Come riportato da Renovatio 21, settimane fa erano circolate immagini di soldati russi che si arrendevano ad un veicolo robotico terrestre TW-7.62, un robot dotato di ruote delle dimensioni di una piccola automobile.   La produzione di robot è sestuplicata nel 2025, rendendo la robotica il settore in più rapida crescita dell’industria della difesa ucraina, con un mercato stimato di 252 milioni di dollari. I robot sono stati impiegati anche per fornire assistenza medica ai soldati ucraini feriti e per la ricerca di mine.   «È molto difficile muoversi a causa dei droni nemici con visuale in prima persona. Per questo utilizziamo sistemi robotici», ha dichiarato Victor Pavlov, tenente del 3° Corpo d’armata ucraino.   Nel 2024, l’Ucraina ha iniziato a impiegare cani «kamikaze» e l’anno scorso sono stati schierati in prima linea piccoli carri armati robotizzati dotati di mitragliatrici.   Come riportato da Renovatio 21, robot umanoidi sarebbero ora testati nel teatro ucraino.   I conflitti in Ucraina e in Medio Oriente hanno dimostrato che la guerra moderna sta diventando sempre più automatizzata, con robot terrestri a basso costo e soprattutto droniprogrammi di uccisione basati sull’Intelligenza Artificiale e molte altre tecnologie ora impiegate da vari Paesi.   Robocani sono apparsi nel teatro di guerra ucraino come in quello gazano.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine screenshot da Twitter
Continua a leggere

Intelligenza Artificiale

Elon Musk parla di mass driver sulla Luna

Pubblicato

il

Da

Durante una presentazione tenutasi nel fine settimana al Giga Texas, il miliardario del settore tecnologico ha svelato il Progetto TERAFAB, un piano per trasferire sulla superficie lunare l’infrastruttura di Intelligenza Artificiale più energivora del mondo.

 

L’obiettivo è quello di infrangere il «soffitto di terawatt» dell’informatica terrestre e inaugurare un’era di intelligenza su scala petawatt. L’ultima visione di Musk prevede di superare i limiti energetici della Terra costruendo sulla Luna dei mass driver, cioè delle rampe di lancio elettromagnetiche per facilitare questa infrastruttura AI su vasta scala.

 

Secondo il pensiero di Musk la Terra ha meno spazio e meno energia per progetti di IA su larga scala. Per costruire una rete di Intelligenza Artificiale di grandi dimensioni, gli esperti intendono sfruttare lo spazio e l’energia illimitati della Luna. I pannelli solari nello spazio sono circa cinque volte più efficienti di quelli sulla Terra, dove le nuvole e una spessa atmosfera ne riducono l’efficienza.

 

Sostieni Renovatio 21

Anziché utilizzare un maggior numero di razzi, il piano si basa sull’azione del mass driver, un gigantesco binario elettromagnetico per lanciare i satelliti nello spazio sfruttando l’energia solare. Tali sistemi di propulsione, che potrebbero estendersi per decine di chilometri, utilizzerebbero campi magnetici per accelerare i satelliti dotati di Intelligenza Artificiale fino alla velocità di fuga lunare.

 

In particolare, questa strategia elimina la necessità di propellenti chimici costosi e volatili, nonché degli stadi di razzo dismessi che ingombrano gli oceani della Terra. Il piano potrebbe utilizzare la Starship di SpaceX per trasportare l’hardware iniziale, arrivando infine a creare una rete orbitale distribuita in grado di fornire una potenza 1.000 volte superiore a quella dei sistemi attuali.

 


Se coronato da successo, il dispiegamento di infrastrutture di IA nello spazio ridurrebbe la competizione tra data center e città per l’energia terrestre, consentendo alle operazioni di AI avanzata di espandersi nel vasto e illimitato ambiente energetico della Luna.

 

Sebbene il concetto di un cannone spaziale magnetico esista da quando Edward Fitch Northrup lo teorizzò per la prima volta nel 1937, rimane puramente teorico, non avendo ancora superato la fase di progettazione né raggiunto la superficie lunare.

 

La proposta di Musk per un propulsore lunare è una componente chiave di un più ampio cambiamento strategico annunciato nel febbraio 2026, in cui SpaceX ha dato priorità a una città lunare «autosufficiente» rispetto alla colonizzazione immediata di Marte. Sebbene Marte rimanga la «polizza assicurativa» a lungo termine dell’umanità come secondo pianeta da essa abitato po essere stato colonizzato o «terraformato», la Luna costituirebbe ora ora la priorità industriale immediata.

 

Dal punto di vista logistico, la Luna offre finestre di lancio ogni 10 giorni, rispetto ai 26 mesi di attesa necessari per Marte. Gli scettici, tuttavia, stanno già facendo notare i calcoli impressionanti. I critici sostengono che per lanciare oltre un milione di tonnellate di materiale necessario a raggiungere un petawatt di potenza sarebbero necessari circa 135 lanci di Starship al giorno.

 

«Spingeremo al limite le leggi della fisica nel campo dell’informatica e faremo cose folli e incredibili», ha detto Musk. «Voglio vivere abbastanza a lungo da vedere il lanciatore di massa sulla Luna», ha aggiunto.

 

L’altra ambiziosa visione di Musk è quella di realizzare una fabbrica lunare che utilizzi la robotica per produrre satelliti dotati di IA e alimentati a energia solare, che verrebbero poi lanciati in una rete orbitale distribuita tramite la porpulsione elettromagnetica del mass driver.

 

Sono in fase di valutazione due progetti principali: i cannoni a rotaia, che utilizzano un singolo e potente impulso di forza, e i cannoni a bobina, che impiegano una sequenza di magneti temporizzati per fornire un’accelerazione costante e controllata. Quest’ultimo sembra essere la scelta preferibile per la protezione di carichi sensibili di Intelligenza Artificiale.

 

La storia dei mass driver (o catapulte elettromagnetiche) affonda le radici nella fantascienza e nella fisica applicata. Il primo concetto ingegneristico appare nel 1937 nel romanzo Zero to Eighty del fisico princetoniano Edwin Fitch Northrup (pubblicato con il nom de plume Akkad Pseudoman), che descrisse e costruì prototipi di «electric guns» basati su bobine.

 

L’idea moderna nasce nel 1974 grazie ad un ulteriore fisico princetoniano, il teorico delle colonie spaziali orbitanti Gerard K. O’Neill, che propose appunto i mass driver per lanciare materiali dalla Luna verso i punti di Lagrange (soprattutto L5), dove costruire grandi habitat spaziali – i cosiddetti «cilindri di O’Neill» visibili nella pellicola 2001 Odissea nello Spazio o nelle serie di anime Gundam – senza dover usare costosi razzi chimici. L’obiettivo era sfruttare le risorse lunari per costruire industrie e colonie nello spazio, riducendo drasticamente i costi di lancio.

Aiuta Renovatio 21

Nel 1976-1977, durante un anno sabbatico al MIT, lo O’Neill insieme a Henry Kolm e studenti costruì il Mass Driver 1 con un budget di soli 2000 dollari, usando materiali di recupero. Il prototipo, lungo pochi metri, accelerava proiettili a 40 m/s con 33 g di accelerazione. Fu dimostrato con successo alla conferenza di Princeton nel maggio 1977, attirando l’attenzione della stampa statunitense.

 

Negli anni successivi vennero realizzati prototipi più avanzati (Mass Driver 2) grazie a finanziamenti NASA e del Space Studies Institute fondato da O’Neill. Gli studi degli anni Settanta, inclusi quelli estivi della NASA Ames, esplorarono applicazioni per il lancio di materie prime lunari a velocità orbitali.

 

Oggi i mass driver restano un concetto affascinante per lanci spaziali economici, specialmente sulla Luna o su asteroidi, ma non sono ancora stati realizzati a scala operativa. Influenzano ricerche sulle catapulte elettromagnetiche per aerei militarie futuri sistemi di lancio non basati su razzi, rappresentando una delle colonne portanti della visione di industrializzazione spaziale degli anni Settanta, ancora attuale nel dibattito su colonie lunari e marziane.

 

In un post del 2025, il Musk – che porta innanzi da anni la causa della costruzione di lanciatori di massa sul nostro satellite – si è spinto a dire che «quando il mass driver sulla Luna entrerà in funzione, non sono sicuro che il denaro sarà rilevante»

SOSTIENI RENOVATIO 21


Immagine di pubblico dominio CC0 via Wikimedia

Continua a leggere

Intelligenza Artificiale

Un tribunale statunitense si pronuncia contro il Pentagono nella controversia sull’Intelligenza Artificiale letale

Pubblicato

il

Da

Un giudice federale statunitense ha bloccato un ordine del Pentagono che designava Anthropic come una minaccia per la sicurezza nazionale, affermando che i funzionari statunitensi hanno probabilmente violato la legge e si sono vendicati contro l’azienda di intelligenza artificiale per i suoi commenti pubblici su come la sua tecnologia dovrebbe essere utilizzata.   Anthropic, azienda leader nello sviluppo di modelli linguistici complessi, è coinvolta in una controversia con il Dipartimento della Guerra statunitense in merito all’utilizzo militare del suo sistema Claude, con i funzionari della difesa che premono per consentire l’impiego della tecnologia per «tutti gli usi leciti».   L’azienda si era opoosta, esprimendo preoccupazione per la possibilità che il sistema potesse essere utilizzato per la sorveglianza di massa sul territorio nazionale o per la creazione di armi completamente autonome. Il Pentagono interruppe i negoziati, impose la designazione e ordinò agli appaltatori di interrompere l’utilizzo di Claude.   Giovedì, la giudice distrettuale statunitense Rita Lin ha inoltre bloccato un ordine di rescissione di tutti i contratti governativi con Anthropic, definendolo una «classica» ritorsione ai sensi del Primo Emendamento.   «Nulla nella legge in materia avvalora l’idea orwelliana che un’azienda americana possa essere etichettata come potenziale avversario… per aver espresso disaccordo con il governo», ha scritto Lin, sottolineando che tale qualifica è in genere riservata a «agenzie di Intelligence straniere, terroristi e altri soggetti ostili».

Iscriviti al canale Telegram

Lunedì Anthropic ha intentato causa contro l’amministrazione del presidente statunitense Donald Trump, definendo la mossa «senza precedenti e illegale» e sostenendo che si tratti di una ritorsione per le sue critiche alla politica governativa.   «La Costituzione non consente al governo di esercitare il suo enorme potere per punire un’azienda per aver espresso un’opinione tutelata dalla legge», ha dichiarato l’azienda nella sua denuncia.   Il mese scorso Trump ha ordinato a tutte le agenzie federali statunitensi, incluso il Pentagono, di interrompere l’utilizzo della tecnologia di Anthropic, concedendo all’esercito un periodo di sei mesi per la dismissione graduale dei sistemi già in uso.   Il segretario alla Guerra Pete Hegseth ha accusato l’azienda di «arroganza e tradimento», affermando che il Pentagono si sarebbe orientato verso un’alternativa «più patriottica». Il dipartimento ha quindi raggiunto un accordo con OpenAI, il cui CEO, Sam Atman, ha dichiarato che l’accordo include garanzie contro la sorveglianza di massa sul territorio nazionale e richiede la supervisione umana nell’uso della forza.   Anthropic ha avvertito che tali azioni hanno destato preoccupazione tra i clienti, compresi quelli senza legami con il governo federale, e potrebbero costare all’azienda miliardi di dollari in mancati ricavi futuri. Alcune agenzie, tra cui il Dipartimento della Salute e dei Servizi Umani e la General Services Administration, avrebbero già ritirato i suoi prodotti.   Anthropic è stato il primo sviluppatore commerciale di AI a implementare modelli linguistici di grandi dimensioni su reti classificate del Pentagono, nell’ambito di un contratto del valore di 200 milioni di dollari. Il suo chatbot Claude è stato utilizzato per analisi di intelligence, simulazioni operative, operazioni informatiche e flussi di lavoro di pianificazione.   Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.   Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.   Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».   Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.   Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.   Lo scorso mese Mrinank Sharma, fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
 
Continua a leggere

Più popolari