Intelligenza Artificiale
Il Vaticano chiede una moratoria per le armi autonome
Il Vaticano ha espresso la sua posizione riguardo i robot killer, una delle nuove frontiere tecnologiche della guerra moderna.
Per il Sacro Palazzo vi è «massima urgenza» per creare «solido strumento giuridicamente vincolante» che metta al bando le cosiddette «armi autonome letali», chiedendo di «stabilire una moratoria immediata sulla loro sviluppo e utilizzo». Lo riporta Vatican News.
È quanto espresso dall’arcivescovo Ettore Balestrero, osservatore permanente della Santa Sede all’ONU a Ginevra, intervenendo drante la seconda sessione del Gruppo di EspertiGovernativi (GGE) celebrato dal 26 al 30 agosto riguardante le nuove tecnologie dei sistemi d’arma autonomi letali (acronimo anglico LAWS).
Iscriviti al canale Telegram ![]()
Monsignor Balestrero ha citato le parole di papa Francesco ai leader G7 riuniti in Puglia lo scorso giugno sull’AI, ricordando che il pontefice li ha esortati a «riconsiderare lo sviluppo e l’uso di dispositivi come le cosiddette “armi autonome letali” e, infine, a vietarne l’uso. Ciò parte da un impegno efficace e concreto per introdurre un controllo umano sempre maggiore e adeguato. Nessuna macchina dovrebbe mai scegliere di togliere la vita a un essere umano».
Per Balestreto, le zone di battaglia odierne stanno «diventando anche terreni di prova per armi sempre più sofisticate».
La Santa Sede, ha continuato il monsignore, approva e sostiene l’approccio del Gruppo di esperti «all’analisi delle potenziali funzioni e degli aspetti tecnologici dei sistemi d’arma autonomi», chiedendo di individuare i sistemi «incompatibili con il diritto internazionale umanitario e altri obblighi internazionali esistenti» per poter stabilire un bando «tenendo conto di considerazioni etiche più ampie».
Per il Vaticano, ha sottolineato il Balestero, «i sistemi d’arma autonomi non possono essere considerati entità moralmente responsabili» a differenza dell’essere umano «possiede una capacità unica di giudizio morale e di presa di decisioni etiche che non può essere replicata da nessun insieme di algoritmi, non importa quanto complessi».
L’arcivescovo ha indicato la differenza tra «scelta» e «decisione» rifacendosi al discorso papale al G7 di Borgo Egnazia, dove si dichiarava che le macchine possono solo produrre scelte tecniche algoritmiche, mentre «l’essere umano, però, non solo sceglie, ma nel suo cuore è capace di decidere».
«Una decisione etica è quella che tiene conto non solo dei risultati di un’azione ma anche dei valori in gioco e dei doveri che essa comporta» continuava il papa in Puglia. Per tali motivi, l’arcivescovo ha sostenuto che la posizione del Vaticano è quella di «assicurare e salvaguardare uno spazio per un adeguato controllo umano sulle scelte effettuate dai programmi di intelligenza artificiale: da ciò dipende la stessa dignità umana».
Sostieni Renovatio 21
Balestrero ha parlato della crescente «consapevolezza delle preoccupazioni etiche sollevate dall’utilizzo dell’Intelligenza Artificiale come arma». «Lo sviluppo di armi sempre più sofisticate non è certo la soluzione» ha dichiarato l’arcivescovo, ricordando che i benefici per l’umanità di ale progresso tecnico dipenderanno «dalla misura in cui tale progresso sarà accompagnato da un adeguato sviluppo di responsabilità e di valori che pongano i progressi tecnologici al servizio dello sviluppo umano integrale e del bene comune».
Come riportato da Renovatio 21, riflessioni partite da anni indicano le armi autonome come potenzialmente più destabilizzanti della armi nucleari.
La discussione per una moratoria contro le armi autonome va avanti da diversi anni. In particolare, in questi anni se ne è parlato facendo l’esempio degli slaughterbots, minidroni suicidi protagonisti di un filmato divenuto virale anni fa.
Aiuta Renovatio 21
Come sa il nostro lettore, modelli di «slaugterbots» sono in preparazione ufficialmente in Australia come arma per respingere un’eventuale invasione da parte dell’Esercito di Liberazione del Popolo della Repubblica Popolare Cinese.
Varie Nazioni si stanno muovendo verso i robot militari, per lo più incuranti di quanto sta cercando di elaborare l’ONU in fatto di limitazioni all’impiego di questi sistemi.
A fine 2022 i Paesi Bassi hanno schierato le loro prime armi autonome letali, secondo la rivista di questioni militari e di Intelligence Jane’s. Si tratta della prima volta che un esercito della NATO ha avviato prove operative con veicoli armati di terra senza pilota (UGV), cioè i «robot killer».
Una ricerca fatta dall’IPSOS assieme a Campaign to Stop Killer Robots ha raccolto l’opinione della popolazione di vari Paesi riguardo ad una possibile messa al bando dei robot impiegati militarmente.
Svezia (76%), Turchia (73%) e Ungheria (70%) hanno mostrato la più forte opposizione ai veicoli letali nel 2021. Nel frattempo, l’India ha mostrato di gran lunga il maggior sostegno, con il 56% della popolazione intervistata che ha risposto che o in qualche modo o ha fortemente sostenuto l’uso delle armi. Da notare che, come riportato da Renovatio 21, l’India ha al suo confine già dispiegate contro di sé armi robotiche cinesi.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
OpenAI stringe un accordo con il Pentagono
Aiuta Renovatio 21
Iscriviti al canale Telegram ![]()
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Trump inserisce Anthropic nella lista nera per lo scontro con il Pentagono sull’AI
Il presidente degli Stati Uniti Donald Trump ha ordinato alle agenzie federali di interrompere l’uso dei sistemi di intelligenza artificiale sviluppati da Anthropic, intensificando uno scontro senza precedenti tra il governo degli Stati Uniti e una delle aziende di intelligenza artificiale più influenti della Silicon Valley sull’uso militare di algoritmi avanzati.
In un post pubblicato venerdì su Truth Social, Trump ha accusato l’azienda di aver tentato di «dettare il modo in cui il nostro grande esercito combatte e vince le guerre», annunciando un’immediata lista nera a livello governativo insieme a un periodo di eliminazione graduale di sei mesi per le agenzie che attualmente fanno affidamento sulla sua tecnologia.
«Dico a TUTTE le agenzie federali del governo degli Stati Uniti di CESSARE IMMEDIATAMENTE ogni utilizzo della tecnologia di Anthropic. Non ne abbiamo bisogno, non la vogliamo e non faremo più affari con loro!», ha scritto Trump, circa un’ora prima della scadenza del termine stabilito dal Pentagono per l’accettazione da parte dell’azienda delle richieste di revoca delle principali misure di sicurezza, pena il rischio di essere inserita nella lista nera come «rischio per la catena di approvvigionamento».
Il presidente degli Stati Uniti ha inoltre intimato all’azienda di collaborare durante il periodo di eliminazione graduale, altrimenti andrà incontro a gravi conseguenze legali.
«Anthropic farebbe meglio a darsi una mossa e a rendersi utile durante questo periodo di eliminazione graduale, altrimenti userò tutti i poteri della Presidenza per costringerli a conformarsi, con gravi conseguenze civili e penali», ha scritto Trump.
La direttiva fa seguito a settimane di crescenti tensioni tra Anthropic e il Dipartimento della Guerra degli Stati Uniti in merito alle restrizioni integrate nel sistema di intelligenza artificiale di punta dell’azienda, Claude.
Aiuta Renovatio 21
Al centro della controversia ci sono le garanzie contrattuali che impediscono l’utilizzo dei modelli Anthropic per la sorveglianza interna di massa o per sistemi d’arma completamente autonomi. I funzionari del Pentagono hanno chiesto la rimozione di tali limiti, sostenendo che i comandanti militari non possono operare sotto i vincoli imposti da appaltatori privati in tempo di guerra o in situazioni di crisi.
Il CEO di Anthropic, Dario Amodei, ha respinto la richiesta, affermando che l’azienda non avrebbe supportato utilizzi che riteneva fossero in conflitto con le norme democratiche o comportassero rischi inaccettabili.
Trump ha accusato l’azienda di essere gestita da «pazzi di sinistra» che, a suo dire, antepongono le preoccupazioni etiche e i termini del loro servizio alla Costituzione americana. «Il loro egoismo sta mettendo a rischio le VITE DEGLI AMERICANI, le nostre truppe in pericolo e la nostra sicurezza nazionale in PERICOLO», ha dichiarato il presidente degli Stati Uniti.
L’ordine di Trump formalizza di fatto una minaccia precedentemente sollevata dal Segretario alla Guerra degli Stati Uniti Pete Hegseth, il quale aveva avvertito che l’azienda avrebbe potuto essere definita un «rischio per la catena di approvvigionamento», una classificazione solitamente riservata alle aziende legate ad avversari stranieri.
Anthropic è stato il primo sviluppatore commerciale di AI a implementare modelli linguistici di grandi dimensioni su reti classificate del Pentagono, nell’ambito di un contratto del valore di 200 milioni di dollari. Il suo chatbot Claude è stato utilizzato per analisi di intelligence, simulazioni operative, operazioni informatiche e flussi di lavoro di pianificazione.
Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.
Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.
Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».
Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.
Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.
Lo scorso mese Mrinank Sharma, fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Le AI più potenti impiegano armi nucleari nel 95% delle simulazioni di giochi di guerra: studio
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Cina2 settimane faEnigmi femminili cinesi alle Olimpiadi
-



Predazione degli organi2 settimane faUn cuore «bruciato», due vite spezzate dalla predazione degli organi
-



Vaccini2 settimane faQuanto era coinvolto Epstein nelle strategie pandemiche?
-



Comunicati1 settimana faIn morte di Albachiara
-



Comunicati1 settimana faAddio Albachiara
-



Vaccini1 settimana faProgetto Artichoke: 70 anni fa la CIA discuteva di nascondere farmaci per il controllo mentale nei vaccini
-



Comunicati1 settimana faAlbachiara, la militanza, la determinazione cristiana
-



Occulto1 settimana faPapa Leone XIV nomina a Sassari il vescovo che partecipò all’inaugurazione di una loggia massonica













