Intelligenza Artificiale
Un tribunale statunitense si pronuncia contro il Pentagono nella controversia sull’Intelligenza Artificiale letale
Un giudice federale statunitense ha bloccato un ordine del Pentagono che designava Anthropic come una minaccia per la sicurezza nazionale, affermando che i funzionari statunitensi hanno probabilmente violato la legge e si sono vendicati contro l’azienda di intelligenza artificiale per i suoi commenti pubblici su come la sua tecnologia dovrebbe essere utilizzata.
Anthropic, azienda leader nello sviluppo di modelli linguistici complessi, è coinvolta in una controversia con il Dipartimento della Guerra statunitense in merito all’utilizzo militare del suo sistema Claude, con i funzionari della difesa che premono per consentire l’impiego della tecnologia per «tutti gli usi leciti».
L’azienda si era opoosta, esprimendo preoccupazione per la possibilità che il sistema potesse essere utilizzato per la sorveglianza di massa sul territorio nazionale o per la creazione di armi completamente autonome. Il Pentagono interruppe i negoziati, impose la designazione e ordinò agli appaltatori di interrompere l’utilizzo di Claude.
Giovedì, la giudice distrettuale statunitense Rita Lin ha inoltre bloccato un ordine di rescissione di tutti i contratti governativi con Anthropic, definendolo una «classica» ritorsione ai sensi del Primo Emendamento.
«Nulla nella legge in materia avvalora l’idea orwelliana che un’azienda americana possa essere etichettata come potenziale avversario… per aver espresso disaccordo con il governo», ha scritto Lin, sottolineando che tale qualifica è in genere riservata a «agenzie di Intelligence straniere, terroristi e altri soggetti ostili».
Iscriviti al canale Telegram ![]()
Lunedì Anthropic ha intentato causa contro l’amministrazione del presidente statunitense Donald Trump, definendo la mossa «senza precedenti e illegale» e sostenendo che si tratti di una ritorsione per le sue critiche alla politica governativa.
«La Costituzione non consente al governo di esercitare il suo enorme potere per punire un’azienda per aver espresso un’opinione tutelata dalla legge», ha dichiarato l’azienda nella sua denuncia.
Il mese scorso Trump ha ordinato a tutte le agenzie federali statunitensi, incluso il Pentagono, di interrompere l’utilizzo della tecnologia di Anthropic, concedendo all’esercito un periodo di sei mesi per la dismissione graduale dei sistemi già in uso.
Il segretario alla Guerra Pete Hegseth ha accusato l’azienda di «arroganza e tradimento», affermando che il Pentagono si sarebbe orientato verso un’alternativa «più patriottica». Il dipartimento ha quindi raggiunto un accordo con OpenAI, il cui CEO, Sam Atman, ha dichiarato che l’accordo include garanzie contro la sorveglianza di massa sul territorio nazionale e richiede la supervisione umana nell’uso della forza.
Anthropic ha avvertito che tali azioni hanno destato preoccupazione tra i clienti, compresi quelli senza legami con il governo federale, e potrebbero costare all’azienda miliardi di dollari in mancati ricavi futuri. Alcune agenzie, tra cui il Dipartimento della Salute e dei Servizi Umani e la General Services Administration, avrebbero già ritirato i suoi prodotti.
Anthropic è stato il primo sviluppatore commerciale di AI a implementare modelli linguistici di grandi dimensioni su reti classificate del Pentagono, nell’ambito di un contratto del valore di 200 milioni di dollari. Il suo chatbot Claude è stato utilizzato per analisi di intelligence, simulazioni operative, operazioni informatiche e flussi di lavoro di pianificazione.
Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.
Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.
Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».
Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.
Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.
Lo scorso mese Mrinank Sharma, fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
OpenAI chiude l’app video Sora
We’re saying goodbye to the Sora app. To everyone who created with Sora, shared it, and built community around it: thank you. What you made with Sora mattered, and we know this news is disappointing.
We’ll share more soon, including timelines for the app and API and details on… — Sora (@soraofficialapp) March 24, 2026
Iscriviti al canale Telegram ![]()
Nel frattempo, la chiusura di Sora precede anche una potenziale IPO di OpenAI, che secondo alcune indiscrezioni potrebbe concretizzarsi entro la fine dell’anno. Gli analisti interpretano la mossa come una strategia di riduzione dei costi, dato che la generazione di video tramite intelligenza artificiale richiede una potenza di calcolo elevata, per la quale OpenAI ha faticato a trovare un modello di business sostenibile. Alcune fonti suggeriscono che le priorità interne si stiano spostando verso aree commercialmente più redditizie, come i «collaboratori» basati sull’IA e la robotica. OpenAI ha dichiarato che a breve fornirà dettagli sulla tempistica di chiusura e su come gli utenti potranno salvare i propri video. SOSTIENI RENOVATIO 21 Immagine screenshot da YouTubeRIP Sora, you gave us the greatest ai video of all time https://t.co/Hd4vbqyw95 pic.twitter.com/37z1IdgBjZ
— spor (@sporadica) March 24, 2026
Arte
L’Iran sta facendo propaganda con fantasiosi video AI
Nella guerra della propaganda, l’Iran si sta distinguendo per i suoi molti creativi filmati fatti con l’Intelligenza Artificiale in cui attacca il nemico americano ed israeliano e chiede giustizia per la strage delle scolarette in apertura del conflitto.
Come riportato da Renovatio 21, aveva subito lanciato un breve video a base di omini Lego che suggeriva che Netanyahu e Satana avessero spinto Trump alla guerra ricattandolo con i file di Epstein. Il tema dei filmati a base di mattoncini è ora esplorato in ulteriori video che mostrano La Mecca e la distruzione di portaerei statunitense.
I richiami ai file di Esptein continuano anche nei filmati recenti, che mostrano anche la possanza delle armi missilistiche della Repubblica Islamica. Colpisce nell’infornata di video AI generati dagli iraniani il rimando costante all’elemento demoniaco, con Netanyahu e Trump descritti come adoratori del demone Baal. Il demone siro-cananeo e fenicio sostituisce in un video la statua della Libertà, venendo distrutto dai missili sciiti.
Sostieni Renovatio 21
Thread-collection of Iranian AI propaganda videos.
A phenomenon to study.
1. pic.twitter.com/CaarEbpDo7— Maria Dubovikova (@politblogme) March 25, 2026
— Maria Dubovikova (@politblogme) March 25, 2026
— Maria Dubovikova (@politblogme) March 25, 2026
— Maria Dubovikova (@politblogme) March 25, 2026
Iscriviti al canale Telegram ![]()
— Maria Dubovikova (@politblogme) March 25, 2026
— Maria Dubovikova (@politblogme) March 25, 2026
— Maria Dubovikova (@politblogme) March 25, 2026
Aiuta Renovatio 21
— Maria Dubovikova (@politblogme) March 25, 2026
— Maria Dubovikova (@politblogme) March 25, 2026
Come riportato da Renovatio 21, stanno suscitando polemiche i video postati dagli account ufficiale della Casa Bianca, che sembrano trattare la guerra come un videogiocoì, miscelando immagini di ver bombardamenti, meme e brani di film hollywoodiani. La comunicazione dell’amministrazione Trump sul conflitto è stata definita dai vescovi USA come «ripugnante».
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da Twitter
Intelligenza Artificiale
La Germania si affida all’Intelligenza Artificiale per prendere decisioni in ambito militare: parla capo dell’esercito
Iscriviti al canale Telegram ![]()
Iscriviti alla Newslettera di Renovatio 21
-



Spirito2 settimane faFoto del 1995 mostra Leone XIV mentre partecipa al rituale idolatrico della Pachamama
-



Sanità2 settimane faUna «separazione delle carriere» per chi giudica i medici. Intervista al dottor Giacomini del sindacato DI.CO.SI.
-



Vaccini1 settimana faStudio su oltre un milione di bambini rileva la miocardite solo nei bambini vaccinati
-



Pensiero7 giorni faMao e il «blocco storico» che ha vinto il referendum
-



Pensiero2 settimane faPerché votiamo Sì al referendum
-



Vaccini5 giorni faProposte di legge USA per definire i vaccini a mRNA contro il COVID «armi di distruzione di massa»
-



Necrocultura2 settimane faUna città senza tifo è una città morta
-



Necrocultura2 settimane faVolontà politica e Stato moderno: Renovatio 21 saluta Bossi il disintegratore













