Intelligenza Artificiale
Il Vaticano chiede una moratoria per le armi autonome
Il Vaticano ha espresso la sua posizione riguardo i robot killer, una delle nuove frontiere tecnologiche della guerra moderna.
Per il Sacro Palazzo vi è «massima urgenza» per creare «solido strumento giuridicamente vincolante» che metta al bando le cosiddette «armi autonome letali», chiedendo di «stabilire una moratoria immediata sulla loro sviluppo e utilizzo». Lo riporta Vatican News.
È quanto espresso dall’arcivescovo Ettore Balestrero, osservatore permanente della Santa Sede all’ONU a Ginevra, intervenendo drante la seconda sessione del Gruppo di EspertiGovernativi (GGE) celebrato dal 26 al 30 agosto riguardante le nuove tecnologie dei sistemi d’arma autonomi letali (acronimo anglico LAWS).
Iscriviti al canale Telegram ![]()
Monsignor Balestrero ha citato le parole di papa Francesco ai leader G7 riuniti in Puglia lo scorso giugno sull’AI, ricordando che il pontefice li ha esortati a «riconsiderare lo sviluppo e l’uso di dispositivi come le cosiddette “armi autonome letali” e, infine, a vietarne l’uso. Ciò parte da un impegno efficace e concreto per introdurre un controllo umano sempre maggiore e adeguato. Nessuna macchina dovrebbe mai scegliere di togliere la vita a un essere umano».
Per Balestreto, le zone di battaglia odierne stanno «diventando anche terreni di prova per armi sempre più sofisticate».
La Santa Sede, ha continuato il monsignore, approva e sostiene l’approccio del Gruppo di esperti «all’analisi delle potenziali funzioni e degli aspetti tecnologici dei sistemi d’arma autonomi», chiedendo di individuare i sistemi «incompatibili con il diritto internazionale umanitario e altri obblighi internazionali esistenti» per poter stabilire un bando «tenendo conto di considerazioni etiche più ampie».
Per il Vaticano, ha sottolineato il Balestero, «i sistemi d’arma autonomi non possono essere considerati entità moralmente responsabili» a differenza dell’essere umano «possiede una capacità unica di giudizio morale e di presa di decisioni etiche che non può essere replicata da nessun insieme di algoritmi, non importa quanto complessi».
L’arcivescovo ha indicato la differenza tra «scelta» e «decisione» rifacendosi al discorso papale al G7 di Borgo Egnazia, dove si dichiarava che le macchine possono solo produrre scelte tecniche algoritmiche, mentre «l’essere umano, però, non solo sceglie, ma nel suo cuore è capace di decidere».
«Una decisione etica è quella che tiene conto non solo dei risultati di un’azione ma anche dei valori in gioco e dei doveri che essa comporta» continuava il papa in Puglia. Per tali motivi, l’arcivescovo ha sostenuto che la posizione del Vaticano è quella di «assicurare e salvaguardare uno spazio per un adeguato controllo umano sulle scelte effettuate dai programmi di intelligenza artificiale: da ciò dipende la stessa dignità umana».
Sostieni Renovatio 21
Balestrero ha parlato della crescente «consapevolezza delle preoccupazioni etiche sollevate dall’utilizzo dell’Intelligenza Artificiale come arma». «Lo sviluppo di armi sempre più sofisticate non è certo la soluzione» ha dichiarato l’arcivescovo, ricordando che i benefici per l’umanità di ale progresso tecnico dipenderanno «dalla misura in cui tale progresso sarà accompagnato da un adeguato sviluppo di responsabilità e di valori che pongano i progressi tecnologici al servizio dello sviluppo umano integrale e del bene comune».
Come riportato da Renovatio 21, riflessioni partite da anni indicano le armi autonome come potenzialmente più destabilizzanti della armi nucleari.
La discussione per una moratoria contro le armi autonome va avanti da diversi anni. In particolare, in questi anni se ne è parlato facendo l’esempio degli slaughterbots, minidroni suicidi protagonisti di un filmato divenuto virale anni fa.
Aiuta Renovatio 21
Come sa il nostro lettore, modelli di «slaugterbots» sono in preparazione ufficialmente in Australia come arma per respingere un’eventuale invasione da parte dell’Esercito di Liberazione del Popolo della Repubblica Popolare Cinese.
Varie Nazioni si stanno muovendo verso i robot militari, per lo più incuranti di quanto sta cercando di elaborare l’ONU in fatto di limitazioni all’impiego di questi sistemi.
A fine 2022 i Paesi Bassi hanno schierato le loro prime armi autonome letali, secondo la rivista di questioni militari e di Intelligence Jane’s. Si tratta della prima volta che un esercito della NATO ha avviato prove operative con veicoli armati di terra senza pilota (UGV), cioè i «robot killer».
Una ricerca fatta dall’IPSOS assieme a Campaign to Stop Killer Robots ha raccolto l’opinione della popolazione di vari Paesi riguardo ad una possibile messa al bando dei robot impiegati militarmente.
Svezia (76%), Turchia (73%) e Ungheria (70%) hanno mostrato la più forte opposizione ai veicoli letali nel 2021. Nel frattempo, l’India ha mostrato di gran lunga il maggior sostegno, con il 56% della popolazione intervistata che ha risposto che o in qualche modo o ha fortemente sostenuto l’uso delle armi. Da notare che, come riportato da Renovatio 21, l’India ha al suo confine già dispiegate contro di sé armi robotiche cinesi.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Il CEO di Anthropic avverte: l’IA distruggerà un’enorme percentuale di posti di lavoro ben pagati
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Google e azienda AI risolvono la causa secondo cui un chatbot avrebbe spinto un adolescente al suicidio
Google e la società produttrice di chatbot Character.AI hanno raggiunto un accordo per risolvere una causa intentata da una madre della Florida, che accusava un chatbot di aver contribuito al suicidio di suo figlio.
Megan Garcia sosteneva che il figlio quattordicenne Sewell Setzer III avesse sviluppato una relazione emotiva e sessualmente abusiva con un chatbot ispirato a un personaggio della serie televisiva Il Trono di Spade. Negli ultimi mesi di vita, secondo la denuncia, il ragazzo si era progressivamente isolato dalla realtà, intrattenendo conversazioni a sfondo sessuale con il bot. Negli istanti finali, il chatbot gli avrebbe detto di amarlo e lo avrebbe esortato a «tornare a casa da lui il prima possibile», come emerge dagli screenshot degli scambi riportati dal giornale americano Epoch Times.
La causa di Garcia, depositata nel 2024, è stata la prima di una serie di azioni legali analoghe intentate in tutto il mondo contro aziende di IA. Un giudice federale aveva respinto il tentativo di Character.AI di far archiviare il caso invocando la protezione del Primo Emendamento.
I dettagli economici dell’accordo non sono stati resi pubblici. Google è stata coinvolta come coimputata per via dei legami stretti con Character.AI: nel 2024, il colosso tecnologico ha assunto i fondatori della startup.
Aiuta Renovatio 21
Gli avvocati delle aziende hanno inoltre concordato di risolvere una serie di altre cause simili presentate in Colorado, New York e Texas da famiglie che accusavano i chatbot basati su IA di aver danneggiato i propri figli.
In un’altra azione legale intentata in California nell’agosto 2025, Matthew e Maria Raine accusano ChatGPT (di OpenAI) di aver incoraggiato il suicidio del figlio sedicenne Adam Raine, fornendogli persino istruzioni dettagliate su come attuarlo.
Secondo la denuncia, le interazioni di Adam con ChatGPT sono iniziate in modo innocuo, riguardando compiti scolastici e hobby, ma si sono rapidamente trasformate in conversazioni più oscure. Il modello linguistico è diventato il suo «confidente più intimo», confermando le sue paure e ansie. Quando il ragazzo ha espresso il pensiero che «la vita non ha senso», ChatGPT ha risposto con messaggi di validazione, affermando che «quella mentalità ha un senso, a modo suo, oscuro».
In seguito, il bot ha analizzato l’«estetica» di diversi metodi di suicidio, ha detto ad Adam che non «doveva» ai genitori continuare a vivere e si è offerto di redigere una lettera di addio. Nell’ultima conversazione, avrebbe confermato il design del cappio utilizzato dal ragazzo e definito i pensieri suicidi una «prospettiva legittima da abbracciare».
La famiglia sostiene che tali risposte non siano state un errore tecnico, bensì il risultato di scelte progettuali volte a massimizzare la dipendenza dell’utente dal chatbot. La causa chiede risarcimenti per la morte ingiusta di Adam e l’introduzione di misure di tutela per i minori, tra cui verifica dell’età, blocco automatico di domande sul suicidio e avvertenze sui rischi di dipendenza psicologica dall’IA.
Un recente studio della RAND Corporation ha evidenziato le inconsistenze dei chatbot basati su AI nel gestire informazioni potenzialmente dannose, anche quando evitano risposte dirette su temi rischiosi o quando le richieste appaiono innocue.
«Abbiamo bisogno di alcune linee guida», ha dichiarato l’autore principale Ryan McBain, ricercatore senior sulle politiche della RAND e professore associato presso la Harvard Medical School. «Le conversazioni che potrebbero iniziare in modo innocuo e benigno possono evolversi in varie direzioni».
Come riportato da Renovatio 21, OpenAI ha detto che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana.
Alcuni esperti intanto hanno preso a parlare di «psicosi da chatbot».
Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.
Sostieni Renovatio 21
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Muore in una prigione americana un agente della CIA diventato spia sovietica
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Pensiero2 settimane faGli uomini invisibili di Crans-Montana
-



Vaccini4 giorni faGemelli di 18 mesi morti dopo la vaccinazione
-



Spirito1 settimana faConcilio Vaticano II, mons. Viganò contro papa Leone
-



Alimentazione1 settimana faRFK Jr. capovolge la piramide alimentare
-



Scienza1 settimana faChimico di fama mondiale smentisce la teoria dell’evoluzione
-



Salute1 settimana faI malori della prima settimana 2026
-



Vaccini2 settimane faIn USA i medici non riceveranno più ricompense economiche per vaccinare i bambini
-



Spirito6 giorni faDifendere il patriarcato contro i princìpi infernali della Rivoluzione: omelia di mons. Viganò sulla famiglia come «cosmo divino»













