Intelligenza Artificiale

Il Pentagono potrebbe punire l’IA Anthropic per essersi rifiutato di modificare il codice etico

Pubblicato

il

Il dipartimento della Guerra degli Stati Uniti è prossimo a interrompere i rapporti con Anthropic, principale partner nel settore dell’intelligenza artificiale e sviluppatore del modello Claude, designandolo come un rischio per la filiera della fornitura americana. Lo riporta Axios, citando un funzionario del Pentagono. Tale classificazione è solitamente riservata a entità legate a stati considerati da Washington come avversari stranieri.

 

Secondo le informazioni riportate, il laboratorio con sede a San Francisco è in contrasto da mesi con il governo statunitense a causa della sua politica che restringe l’uso militare della propria tecnologia. Mentre il Pentagono ha insistito affinché l’azienda permettesse l’impiego di Claude per «tutti gli scopi legittimi», il protocollo etico di Anthropic vieta che la sua tecnologia venga usata per «facilitare la violenza, sviluppare armi o condurre attività di sorveglianza».

 

«Sarà una vera rottura di scatole districarci e faremo in modo che paghino il prezzo per averci forzato la mano in questo modo», ha dichiarato ad Axios un funzionario del Pentagono rimasto anonimo.

 

Claude rappresenta attualmente l’unico modello di AI in uso sulle piattaforme classificate dell’esercito, grazie a una collaborazione con Palantir Technologies, colosso del software di analisi e sorveglianza finanziato da Peter Thiel, venture capitalist ora molto discusso per le sue visioni sul futuro e sull’anticristo nonché per i suoi legami con la politica, in particolare con il vicepresidente JD Vance che fu suo dipendente in Silicon Valley.

 

Un eventuale inserimento nella lista nera obbligherebbe i contractor del Pentagono a dimostrare di non impiegare la tecnologia di Anthropic, con il rischio di perdere i contratti in caso contrario.

 

Il portavoce del Pentagono Sean Parnell ha affermato ad Axios che il rapporto tra il dipartimento e Anthropic «è in fase di revisione».

Sostieni Renovatio 21

«Tutti i partner del Pentagono devono essere disposti ad aiutare i nostri combattenti a vincere qualsiasi battaglia», ha aggiunto Parnell. Un portavoce di Anthropic ha dichiarato alla testata che l’azienda ha avuto «conversazioni produttive» con il dipartimento.

 

Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.

 

La scorsa settimana, Axios e il Wall Street Journal hanno riferito che Claude è stato impiegato sia per organizzare il raid sia per portarlo a termine, sebbene il suo ruolo preciso resti poco chiaro. Le accuse sono emerse dopo che l’azienda ha trascorso settimane a promuovere le proprie politiche di sicurezza e a presentarsi come l’opzione più attenta alla sicurezza nell’ambito dell’intelligenza artificiale.

 

Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.

 

Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».

 

Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.

 

Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.

 

La scorsa settimana Mrinank Sharma, l fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Più popolari

Exit mobile version