Intelligenza Artificiale
OpenAI stringe un accordo con il Pentagono
OpenAI, proprietaria di ChatGPT, ha firmato un accordo con il Pentagono per l’utilizzo dei suoi strumenti di Intelligenza Artificiale nei sistemi classificati dell’esercito, ha annunciato venerdì il CEO Sam Altman. L’accordo prevederebbe misure di sicurezza simili a quelle richieste in precedenza dal concorrente Anthropic.
L’annuncio è arrivato poche ore dopo che il presidente degli Stati Uniti Donald Trump ha ordinato alle agenzie federali di interrompere l’uso dei sistemi di IA da Anthropic, citando preoccupazioni relative all’impiego militare e ai tentativi dell’azienda di imporre condizioni al Pentagono.
Altman ha sottolineato che il Pentagono ha «dimostrato un profondo rispetto per la sicurezza e il desiderio di collaborare per raggiungere il miglior risultato possibile». Ha aggiunto che due principi fondamentali di sicurezza – il divieto di sorveglianza di massa a livello nazionale e la responsabilità umana per l’uso della forza, compresi i sistemi d’arma autonomi – sono riflessi nell’accordo. L’azienda implementerà inoltre misure di sicurezza tecniche e crittografia completa del disco per garantire il funzionamento sicuro dei modelli di intelligenza artificiale, ma solo su reti cloud, ha aggiunto.
Aiuta Renovatio 21
Il CEO di OpenAI ha chiesto al Pentagono di estendere queste condizioni a tutte le aziende di Intelligenza Artificiale, esortando Washington a non intraprendere azioni legali.
In precedenza, il Pentagono si era affidato al modello Claude di Anthropic nelle reti classificate. Tuttavia, Anthropic si è successivamente rifiutata di concedere il pieno accesso ai suoi sistemi di intelligenza artificiale senza garanzie che la tecnologia non sarebbe stata utilizzata per la sorveglianza interna o per il puntamento di armi completamente autonomo senza la supervisione umana.
I funzionari del Pentagono hanno interpretato questo come un tentativo da parte dell’azienda di dettare termini che vanno oltre una normale partnership commerciale. Il vicesegretario alla Difesa Emil Michael ha criticato il CEO di Anthropic, Dario Amodei, per aver tentato di esercitare un controllo eccessivo sulle operazioni militari, alimentando le tensioni, come riportato da Bloomberg all’inizio di questa settimana.
Dopo aver vietato per sei mesi alle agenzie governative di utilizzare gli sviluppi dell’intelligenza artificiale di Anthropic, Trump ha accusato l’azienda di aver tentato di fare pressione sul Pentagono affinché rispettasse le sue condizioni e di aver messo a rischio la sicurezza nazionale.
«Non ne abbiamo bisogno, non li vogliamo e non avremo più a che fare con loro», ha scritto su Truth Social.
Anthropic è stato il primo sviluppatore commerciale di AI a implementare modelli linguistici di grandi dimensioni su reti classificate del Pentagono, nell’ambito di un contratto del valore di 200 milioni di dollari. Il suo chatbot Claude è stato utilizzato per analisi di intelligence, simulazioni operative, operazioni informatiche e flussi di lavoro di pianificazione.
Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.
Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.
Iscriviti al canale Telegram ![]()
Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».
Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.
Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.
Lo scorso mese Mrinank Sharma, fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».
Iscriviti alla Newslettera di Renovatio 21
Immagine di David B. Gleason via Wikimedia pubblicata su licenza Creative Commons Attribution-Share Alike 2.0 Generic