Intelligenza Artificiale
Il Pentagono vuole un’intelligenza artificiale killer senza garanzie
Il dipartimento della Difesa degli Stati Uniti è coinvolto in una controversia con la società di Intelligenza Artificiale Anthropic riguardo alle restrizioni che limiterebbero l’impiego dei suoi sistemi da parte dell’esercito, inclusi il puntamento autonomo delle armi e la sorveglianza interna.
Il disaccordo ha bloccato un contratto da 200 milioni di dollari, poiché i funzionari militari si oppongono a quelli che ritengono vincoli eccessivi imposti dall’azienda con sede a San Francisco sull’utilizzo della sua tecnologia, secondo quanto riportato da Reuters, che cita sei persone informate sulla vicenda.
Fonti citate da Reuters hanno riferito che Anthropic nutre timori sul fatto che i suoi strumenti di AI possano essere impiegati per condurre operazioni letali senza un’adeguata supervisione umana o per monitorare i cittadini americani.
I rappresentanti del Pentagono, tuttavia, sostengono che i sistemi di IA commerciali debbano poter essere utilizzati per scopi militari, indipendentemente dalle politiche interne di utilizzo stabilite dall’azienda, a patto che rispettino la legislazione statunitense.
Sostieni Renovatio 21
La disputa si colloca nel quadro più ampio degli sforzi dell’amministrazione Trump per integrare con rapidità l’AI artificiale nelle forze armate. All’inizio di questo mese, il Dipartimento della Difesa ha presentato una nuova strategia finalizzata a trasformare l’esercito statunitense in una forza «AI-first», cioè prioritariamente basata sull’Intelligenza Artificiale.
Il Pentagono considera essenziale mantenere il pieno controllo sull’impiego degli strumenti di IA sia sul campo di battaglia sia nelle operazioni di Intelligence. Il segretario alla Difesa Pete Hegseth ha dichiarato che non verranno adottati modelli che «non consentono di combattere guerre».
Un portavoce di Anthropic ha precisato che l’Intelligenza Artificiale dell’azienda è «ampiamente utilizzata dal governo degli Stati Uniti per missioni di sicurezza nazionale» e che sono in corso «discussioni produttive con il Dipartimento della Difesa su come proseguire tale collaborazione». Il Pentagono non ha ancora commentato ufficialmente la presunta rottura.
Il CEO di Anthropic, Dario Amodei, ha più volte espresso preoccupazione sui rischi legati a un uso incontrollato dell’IA, in particolare nella sorveglianza di massa e nei sistemi d’arma completamente autonomi. In un recente saggio ha affermato che l’azienda dovrebbe sostenere la difesa nazionale «in tutti i modi, tranne quelli che ci renderebbero più simili ai nostri avversari autocratici».
Lo stallo rappresenta un rischio significativo per Anthropic, che ha investito notevolmente nel conquistare clienti governativi e del settore della sicurezza nazionale e si sta preparando a una possibile quotazione in borsa. L’azienda è stata tra i principali sviluppatori di IA – insieme a OpenAI, Google e xAI di Elon Musk – ad aggiudicarsi contratti con il Pentagono nel corso dell’anno scorso.
Come riportato da Renovatio 21, ancora tre anni fa la Repubblica Popolare stava investendo in piattaforme abilitate all’Intelligenza Artificiale completamente senza input o controllo umano. La Cina vuole l’implementazione militare di robot killer già per la prossima guerra. Pochi mesi fa Israele ha dichiarato l’utilizzo dell’Intelligenza Artificiale negli attacchi aerei.
L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.
Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.
Iscriviti alla Newslettera di Renovatio 21