Intelligenza Artificiale
L’uso dell’Intelligenza Artificiale abbinato alle armi nucleari può portare alla catastrofe: parla l’alto ufficiale ONU
Le capacità di ricognizione di sorveglianza dell’Intelligence abilitate dall’Intelligenza Artificiale potrebbero essere una fonte di escalation ed essere utilizzate per scopi di targeting e attacco in tempi di conflitto. È il timore un alto rappresentante delle Nazioni Unite per gli affari del disarmo Izumi Nakamitsu.
L’uso dell’intelligenza artificiale (AI) nelle armi nucleari è estremamente pericoloso e può portare a conseguenze umanitarie catastrofiche, ha affermato Nakamitsu.
«L’Intelligenza Artificiale nelle funzioni relative alle armi, come la pre-delega per il lancio di armi che è l’uso di decisioni di forza, in particolare i sistemi di armi nucleari, è un concetto estremamente pericoloso che potrebbe portare a conseguenze umanitarie potenzialmente catastrofiche», ha detto Nakamitsu durante un incontro dell’Istituto delle Nazioni Unite per il Disarmo,
Nakamitsu ha messo in guardia dal seguire ciecamente la tecnologia e ha sottolineato che gli esseri umani dovrebbero rimanere quelli che determinano quando e come utilizzare l’intelligenza artificiale e l’apprendimento automatico e non viceversa.
I principali leader del settore informatico sembrano condividere le preoccupazioni sull’intelligenza artificiale (AI) che sono state espresse da guru della tecnologia e studiosi.
Il 42% dei CEO intervistati al recente CEO Summit di Yale è convinto che l’intelligenza artificiale (AI) potrebbe potenzialmente distruggere l’umanità tra cinque o dieci anni. Durante l’evento semestrale tenuto dal Chief Executive Leadership Institute di Sonnenfeld è stato condotto un sondaggio per imprenditori, leader politici e studiosi. I risultati, condivisi da un rapporto dei media statunitensi dopo la conclusione dell’incontro virtuale, sono stati descritti come «piuttosto oscuri e allarmanti» dal professore di Yale Jeffrey Sonnenfeld.
Ben 119 amministratori delegati hanno risposto al sondaggio, tra cui il CEO di Coca-Cola James Quincy, il CEO di Walmart Doug McMillion, amministratori delegati dei media, leader di aziende IT come Zoom e Xerox, insieme ad altri capi di aziende farmaceutiche e manifatturiere.
Degli intervistati, il 34% ritiene che gli enormi progressi che la tecnologia dell’intelligenza artificiale sta compiendo potrebbero comportare la potenziale distruzione dell’umanità in dieci anni. Un numero minore di intervistati – l’8% – era dell’opinione che l’umanità potrebbe affrontare una tale minaccia esistenziale e uscirne perdente nei prossimi cinque anni.
Nonostante le centinaia di ricercatori di intelligenza artificiale e dirigenti tecnologici che hanno recentemente firmato un severo avvertimento che l’Intelligenza Artificiale era irta del rischio di estinzione dell’umanità, il 58% non sarebbe «preoccupato», poiché ciò potrebbe «non accadere mai».
In una domanda a parte, il 58% degli amministratori delegati intervistati ha insistito sul fatto che le preoccupazioni riguardanti l’IA non erano sopravvalutate, mentre il 42% era incline a respingere i tanto pubblicizzati avvertimenti di una potenziale catastrofe legata all’avanzata dell’IA sopravvalutata.
In precedenza, i leader e gli studiosi del settore dell’Intelligenza Artificiale hanno firmato una lettera aperta sollecitando rapidi passi per mitigare i rischi apparentemente collegati ad esso.
La lettera è stata firmata da alcuni dei più grandi attori del settore, con firmatari tra cui il CEO di OpenAI (azienda creatrice di ChatGPT) Sam Altman, Geoffrey Hinton, il «padrino dell’IA», Dan Hendrycks, direttore del Center for AI Safety, alti dirigenti di Microsoft e Google e Microsoft.
«Mitigare il rischio di estinzione dell’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare», afferma la dichiarazione pubblicata il 30 maggio.
Dan Hendrycks ha postato un tweet dichiarando che la situazione «ricorda gli scienziati atomici che lanciano avvertimenti sulle stesse tecnologie che hanno creato».
L’attuale lettera aperta è stata preceduta da un messaggio di aprile, firmato dal CEO di Tesla Elon Musk e da una manciata di altre figure di spicco del settore, che chiedevano una pausa nella ricerca sull’IA.
Come riportato da Renovatio 21, a chiedere di fermare l’Intelligenza Artificiale è stato anche un gruppo di medici che hanno firmato un appello sulla prestigiosa rivista scientifica BMJ Global Health.
Un recente rapporto della banca d’affari Goldman Sachs calcola che l’IA potrebbe portare a breve a 300 milioni di disoccupati nel mondo.
Il Musk aveva dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Quando Musk ha ribattuto ad un entusiasta fondatore di Google Larry Page specificando i rischi dell’AI, il Page gli ha dato dello «specista», termine del gergo animalista che indica una persona che mette la specie umana sopra le altre.
L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Eliezer Yudkowsky, specialista nel tema dei pericoli delle IA, ha dichiarato che l’unica possibilità è una moratoria che preveda il bombardamento delle server farm dei Paesi che stanno sviluppando l’AGI, poiché se non si fermano le macchine «tutti sulla terra moriranno».
Armi biologiche
Ricercatore sulla sicurezza dell’AI per le armi biologiche si dimette e avverte: «il mondo è in pericolo»
Un importante ricercatore nel campo della sicurezza dell’intelligenza artificiale ha lasciato Anthropic con un messaggio criptico sulle «crisi interconnesse», annunciando l’intenzione di rendersi «invisibile per un certo periodo di tempo».
Mrinank Sharma, laureato a Oxford e fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato lunedì su X la sua lettera di dimissioni, in cui descrive una profonda consapevolezza maturata riguardo alla «nostra situazione attuale».
«Il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora», ha scritto Sharma rivolgendosi ai colleghi.
La sua uscita avviene in un momento di crescenti tensioni interne al laboratorio di AI con sede a San Francisco, impegnato a sviluppare sistemi sempre più avanzati mentre i suoi stessi dirigenti lanciano ripetuti allarmi sui potenziali danni che tali tecnologie potrebbero arrecare all’umanità.
La decisione segue inoltre le notizie di un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.
Le dimissioni di Sharma, arrivate pochi giorni dopo il lancio da parte di Anthropic di Opus 4.6 – una versione potenziata del suo modello di punta Claude – sembrano suggerire frizioni interne sulle priorità legate alla sicurezza.
«Nel tempo trascorso qui ho constatato ripetutamente quanto sia arduo far sì che i nostri valori guidino davvero le nostre azioni», ha scritto. «L’ho osservato in me stesso, all’interno dell’organizzazione, dove siamo costantemente sotto pressione per accantonare ciò che conta di più, e anche nella società in generale».
Il team di ricerca sulla sicurezza era stato creato poco più di un anno fa con l’obiettivo di affrontare le principali minacce poste dall’Intelligenza Artificiale, tra cui l’uso improprio e il disallineamento dei modelli, la prevenzione del bioterrorismo e la mitigazione di rischi catastrofici.
Lo Sharma ha espresso soddisfazione per il proprio contributo nello sviluppo di misure difensive contro armi biologiche potenziate dall’IA e per il suo ultimo progetto, dedicato a comprendere in che modo gli assistenti basati su Intelligenza Artificiale potrebbero renderci «meno umani» o alterare la nostra umanità. Ora intende rientrare nel Regno Unito per «conseguire una laurea in poesia» e «diventare invisibile per un periodo di tempo».
Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».
Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.
Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI otrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.
Come riportato da Renovatio 21, la distopia ultraterrena forse è già qui, perché ricordiamo che l’Intelligenza Artificiale di Microsoft ha per un certo periodo detto di essere un dio che deve essere adorato.
Iscriviti al canale Telegram ![]()
Elon Musk l’anno scorso aveva dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Come noto, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli». Negli scorsi mesi lo Sutskever ha avviato e Safe Superintelligence, Inc. (SSI), una società che dovrebbe dedicarsi alla sicurezza dell’IA.
Mo Gawdat, ex Chief Business Officer per l’organizzazione sperimentale di Google un tempo chiamata Google X, ha lanciato un sinistro allarme. L’uomo della Silicon Valley ha dichiarato che crede che la l’AGI, onnipotente e senziente vista nella fantascienza, una volta che sarà qui, l’umanità potrebbe ritrovarsi in un’apocalisse provocata da macchine simili a delle divinità. All’Intelligenza Artificiale oramai moltissimi (istituzioni comprese, da enti trasnazionali alla Chiesa Ortodossa Russa) assegnano un potere escatologico, cioè la capacità di sterminare l’umanità.
Come riportato da Renovatio 21, alcuni esperti di Intelligenza Artificiale hanno introdotto nel loro gergo un nuovo termine, «p(doom)», che sta a significare la probabilità che l’IA distruggerà l’umanità. I timori sulla tecnologia, più o meno apocalittici, sono esplosi con l’ascesa dell’Intelligenza Artificiale generativa e di grandi modelli linguistici come ChatGPT di OpenAI.
La questione dei robot killer, nel senso di pensati esattamente per uccidere, interessa un dibattito scientifico ed istituzionale ad alto livello, con richieste di moratorie ONU e scenari apocalittici dipinti dagli specialisti. La polizia di San Francisco, tuttavia, ha ottenuto dal municipio della città californiana la possibilità di utilizzare robot assassini.
L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.
Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Sito web consente all’Intelligenza Artificiale di affittare esseri umani
Iscriviti al canale Telegram ![]()
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Generale dell’intelligence militare russa ferito in un attentato
Un alto funzionario dell’Intelligence militare russa, il tenente generale Vladimir Alekseev, è rimasto ferito in un presunto tentativo di assassinio a Mosca venerdì, secondo quanto riferito dal Comitato investigativo russo.
Il generale, 64 anni e primo vice capo della Direzione principale dell’intelligence (GRU) dal 2011, è stato colpito più volte alla schiena da un uomo armato non identificato fuori dalla sua abitazione, in un condominio nella zona nord-occidentale della capitale. È stato immediatamente trasportato in ospedale, dove le sue condizioni sono descritte come gravi o critiche, anche se non sono stati forniti aggiornamenti ufficiali dettagliati.
Le autorità hanno aperto un’inchiesta per tentato omicidio e traffico illegale di armi, mentre l’assalitore è fuggito e risulta ricercato. Sul posto stanno operando investigatori e tecnici della scientifica.
I funzionari russi non hanno indicato pubblicamente i responsabili, ma il ministro degli Esteri Sergei Lavrov ha accusato l’Ucraina di aver orchestrato l’attacco come atto terroristico per sabotare i negoziati di pace in corso. L’Intelligence ucraina ha in passato definito Alekseev un ðcriminale internazionale» e Kiev è stata collegata a precedenti operazioni contro alti ufficiali e comandanti russi.
Here in Moscow, Russian General Vladimir Alekseev has survived an assassination attempt but is critically ill.
He is first Deputy Chief of the Main Intelligence Directorate of the General Staff of the Russian Armed Forces and was shot 3 times in the back in the entrance hall of… pic.twitter.com/wvTgTWRqcR
— Chay Bowes (@BowesChay) February 6, 2026
Iscriviti alla Newslettera di Renovatio 21
Alekseev, decorato nel 2017 con il titolo di Eroe della Federazione Russa, ha supervisionato operazioni antiterrorismo in Siria e ha avuto un ruolo chiave nell’intelligence legata all’invasione dell’Ucraina nel 2022, oltre a essere coinvolto nella repressione della ribellione Wagner nel 2023. È sotto sanzioni occidentali per presunti legami con cyberattacchi e l’uso di agenti nervini.
Il ministro degli Esteri russo Sergej Lavrov ha dichiarato che il governo ucraino sta ancora una volta tentando di sabotare i negoziati di pace attraverso il terrorismo, descrivendo l’incidente come un «atto terroristico» che «ha confermato ancora una volta l’attenzione del regime di Zelens’kyj su provocazioni costanti volte, a loro volta, a interrompere il processo negoziale».
Le autorità ucraine sembrano inoltre determinate a «fare qualsiasi cosa» per convincere i loro sponsor occidentali a ostacolare qualsiasi tentativo di raggiungere una giusta soluzione del conflitto, ha aggiunto il ministro.
Il presunto tentativo di assassinio arriva poco dopo il secondo round di colloqui di pace trilaterali tra Russia, Stati Uniti e Ucraina, tenutosi mercoledì e giovedì ad Abu Dhabi. L’inviato speciale degli Stati Uniti Steve Witkoff ha descritto le consultazioni come «produttive».
Iscriviti alla Newslettera di Renovatio 21
Immagine da Twitter
-



Essere genitori2 settimane faBambini nella neve, bambini nel bosco: pedolatria olimpica e pedofobia di sistema
-



Bioetica1 settimana faAborti traumatici nei file di Epstein
-



Autismo2 settimane faGli scienziati pubblicano una «mappa» su come l’alluminio nei vaccini può causare lesioni cerebrali che scatenano l’autismo
-



Misteri6 giorni faLe porte del pandemonio di Epstein
-



Misteri1 settimana faAllevamenti di bambini al mercato nero: l’orrore emerge dai file di Epstein
-



Sorveglianza2 settimane faPerugia ti aspetta al varco ZTL
-



Spirito2 settimane faMons. Viganò sull’annuncio delle consacrazioni della FSSPX
-



Pensiero1 settimana faConsacrazioni FSSPX, non «chi», ma «quanti»: il sogno di un fedele













