Intelligenza Artificiale
Intelligenza artificiale assassina: le armi autonome potrebbero essere più destabilizzanti delle armi nucleari

L’era delle armi autonome è arrivata. I robot killer sono realtà. E uccidono vicino al nostro Paese.
Secondo un recente rapporto del Consiglio di sicurezza delle Nazioni Unite sulla guerra civile libica, i sistemi d’arma autonomi, comunemente noti come robot killer, potrebbero aver ucciso esseri umani per la prima volta in assoluto proprio lo scorso anno.
Gli storici non avrebbero quindi torto a identificare i robot killer libici come il punto di partenza della prossima grande corsa agli armamenti, quella che ha il potenziale per essere quella finale dell’umanità.
Gli apparati militari di tutto il mondo stanno investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno stanziato 18 miliardi di dollari per armi autonome tra il 2016 e il 2020
I sistemi d’arma autonomi sono robot armati che possono operare in modo indipendente, selezionando e attaccando bersagli – il tutto, dettaglio importante che li separa dai più comuni droni da combattimento, senza che un essere umano sia coinvolto nelle decisioni.
Gli apparati militari di tutto il mondo stanno investendo in maniera molto seria nella ricerca e lo sviluppo di armi autonome. Gli Stati Uniti da soli hanno stanziato 18 miliardi di dollari per armi autonome tra il 2016 e il 2020.
Nel frattempo, le organizzazioni per i diritti umani stanno facendo a gara per stabilire regolamenti e divieti sullo sviluppo di tali armi.
In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari.
In mancanza di un vero controllo su questa corsa agli armamenti (e senza un vero processo di elaborazione dell’opinione pubblica, che crede si tratti ancora di fantascienza) si pensa che le armi autonome possano destabilizzare le attuali strategie nucleari
Ciò può avvenire sia perché potrebbero cambiare radicalmente la percezione del dominio strategico, aumentando il rischio di attacchi preventivi, sia perché potrebbero combinarsi con armi NBCR: nucleari, biologiche, chimiche, radiologiche.
Vi sono almeno quattro problemi sollevati dalle armi autonome.
Il primo è il problema dell’errata identificazione. Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo? Tra civili in fuga da un luogo di conflitto e insorti in ritirata tattica? Vedi il robot cattivo ED-209 – nel famoso film Robocop – che durante una dimostrazione dinanzi ai dirigenti, non sente cadere l’arma del volontario che si presta a fare da esca crivellandolo di colpi.
Quando si seleziona un bersaglio, le armi autonome saranno in grado di distinguere tra soldati ostili e bambini che giocano con pistole giocattolo?
L’esperto di armi autonome Paul Scharre usa la metafora della runaway gun, la «pistola in fuga» per spiegare questa sostanziale differenza. Una pistola in fuga è una mitragliatrice difettosa che continua a sparare dopo il rilascio del grilletto. L’arma continua a sparare fino all’esaurimento delle munizioni perché, per così dire, l’arma non sa che sta commettendo un errore. Le pistole in fuga sono estremamente pericolose, ma fortunatamente hanno operatori umani che possono interrompere il collegamento delle munizioni o cercare di puntare l’arma in una direzione sicura. Le armi autonome, per definizione, non hanno tale salvaguardia.
È importante sottolineare che l’Intelligenza Artificiale armata non deve nemmeno essere difettosa per produrre l’effetto della pistola in fuga. Come hanno dimostrato numerosi studi sugli errori algoritmici in tutti i settori, i migliori algoritmi, operando come previsto, possono generare risultati internamente corretti che tuttavia diffondono rapidamente errori terribili tra le popolazioni.
Ad esempio, una rete neurale progettata per l’uso negli ospedali di Pittsburgh ha identificato l’asma come un fattore di riduzione del rischio nei casi di polmonite; il software di riconoscimento delle immagini utilizzato da Google ha identificato gli afroamericani come gorilla e così via.
Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli
Il problema non è solo che quando i sistemi di intelligenza artificiale sbagliano, sbagliano alla rinfusa. È che quando sbagliano, i loro creatori spesso non sanno perché lo hanno fatto e, quindi, come correggerli. Il problema della scatola nera dell’Intelligenza Artificiale rende quasi impossibile immaginare uno sviluppo moralmente responsabile di sistemi d’arma autonomi.
I prossimi due pericoli sono i problemi della proliferazione di fascia bassa e di fascia alta.
Cominciamo con la fascia bassa. Le forze armate che stanno sviluppando armi autonome ora procedono partendo dal presupposto che saranno in grado di contenere e controllare l’uso di armi autonome. Ma se la storia della tecnologia delle armi ha insegnato qualcosa al mondo, è questa: le armi si diffondono.
Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.
Le pressioni del mercato potrebbero portare alla creazione e alla vendita diffusa di ciò che può essere considerato l’equivalente di un’arma autonoma del fucile d’assalto Kalashnikov, uno dei più venduti e diffusi al mondo: robot killer economici, efficaci e quasi impossibili da contenere mentre circolano in tutto il mondo.
Queste nuovi armamenti potrebbero finire nelle mani di persone al di fuori del controllo del governo, inclusi terroristi internazionali e nazionali.
Tuttavia, la proliferazione di fascia alta è altrettanto negativa.
Le Nazioni potrebbero competere per sviluppare versioni sempre più devastanti di armi autonome, comprese quelle in grado di montare armi chimiche, biologiche, radiologiche e nucleari – come la Skynet nella pellicola Terminator – portando il mondo a una specie di autodistruzione.
È probabile che le armi autonome di fascia alta portino a guerre più frequenti perché diminuiranno due delle forze primarie che storicamente hanno prevenuto e accorciato le guerre: la preoccupazione per i civili e le potenziali perdite dei propri soldati.
Con molta probabilità le guerre asimmetriche – ovvero le guerre condotte sul suolo di nazioni prive di tecnologie concorrenti – diventeranno più comuni.
Si pensi all’instabilità globale causata dagli interventi militari sovietici e statunitensi durante la Guerra Fredda, dalla prima guerra per procura al contraccolpo sperimentato oggi in tutto il mondo. Moltiplichiamo per ogni Paese che attualmente punta a armi autonome di fascia alta.
Le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra
Infine, le armi autonome mineranno l’ultimo palliativo dell’umanità contro i crimini e le atrocità di guerra: le leggi internazionali di guerra.
Queste leggi, codificate in trattati che risalgono alla Convenzione di Ginevra del 1864, sono la sottile linea blu internazionale che separa la guerra con onore dal massacro. Si basano sull’idea che le persone possono essere ritenute responsabili delle proprie azioni anche in tempo di guerra, che il diritto di uccidere altri soldati durante il combattimento non dà il diritto di uccidere civili.
Ma come possono essere ritenute responsabili le armi autonome?
Di chi è la colpa di un robot che commette crimini di guerra?
Chi verrebbe processato? L’arma? Il soldato?
I comandanti del soldato? La società che ha fabbricato l’arma?
Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave divario di responsabilità
Le organizzazioni non governative e gli esperti di diritto internazionale temono che le armi autonome portino a un grave divario di responsabilità.
«Per ritenere un soldato penalmente responsabile del dispiegamento di un’arma autonoma che commette crimini di guerra, i pubblici ministeri dovrebbero provare sia actus reus che mens rea, termini latini che descrivono un atto colpevole e una mente colpevole» scrive il professore esperto in diritti umane James Dews.
«Questo sarebbe difficile dal punto di vista della legge, e forse ingiusto per una questione di moralità, dato che le armi autonome sono intrinsecamente imprevedibili. Credo che la distanza che separa il soldato dalle decisioni indipendenti prese dalle armi autonome in ambienti in rapida evoluzione sia semplicemente troppo grande».
La sfida legale e morale non è resa più facile spostando la colpa sulla catena di comando o tornando al luogo di produzione.
In un mondo senza regolamenti che impongono un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili
In un mondo senza regolamenti che impongono un controllo umano significativo delle armi autonome, ci saranno crimini di guerra senza criminali di guerra da ritenere responsabili.
La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.
«Proviamo a immaginare un mondo in cui militari, gruppi di insorti e terroristi nazionali e internazionali possano schierare una forza letale teoricamente illimitata a rischio teoricamente zero in tempi e luoghi di loro scelta, senza alcuna responsabilità legale risultante. È un mondo in cui il tipo di errori algoritmici inevitabili che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città».
La struttura delle leggi di guerra, insieme al loro valore deterrente, sarà notevolmente indebolita.
Il mondo non dovrebbe ripetere gli errori della corsa agli armamenti nucleari.
Intanto oggi, con la scusa delle «restrizioni COVID», alcuni robot autonomi sono stati schierati per le strade per far rispettare il distanziamento sociale tra cittadini e vigilare che indossino le mascherine oppure per proteggere le élite facoltose da una potenziale ribellione di massa.
Come riportato da Renovatio 21, la Cina disporrebbe già di sciami di droni suicidi esplosivi: i famosi slaughterbots tanto temuti dai teorici del pericolo delle armi autonome.
Il futuro è già qui.
I robot killer, pure.
Qualcuno vuole cominciare a discuterne seriamente?
È un mondo in cui il tipo di errori algoritmici inevitabili che affliggono anche i giganti della tecnologia come Amazon e Google possono ora portare all’eliminazione di intere città»
In effetti, ci sarebbe la fila: quando parleremo davvero delle armi biologiche, della manipolazione genetica gain of function, del CRISPR, del gene drive?
E quando parleremo della minaccia che pongono invece le armi cibernetiche?
Quando l’umanità si renderà conto dei rischi che corre a causa della tecnologia che essa stessa si ostina a creare al di fuori di qualsiasi legge morale?
Immagine di Tigersfather via Deviantart pubblicata su licenza Creative Commons Attribution-NonCommercial-NoDerivs 3.0 Unported (CC BY-NC-ND 3.0)
Intelligenza Artificiale
La prospettiva di estinzione causata dall’IA dovrebbe avere la stessa priorità della guerra nucleare: parlano gli esperti

Impedire che l’intelligenza artificiale fuori controllo causi l’estinzione dell’umanità dovrebbe essere una priorità globale di massimo livello, ha affermato a inizio settimana un’organizzazione senza scopo di lucro chiamata Center for AI Safety in una dichiarazione firmata da 350 persone di spicco nell’IA e nei campi correlati.
«Mitigare il rischio di estinzione dell’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare», si legge nella dichiarazione.
I firmatari includevano il CEO di Google DeepMind Demis Hassabis, il CEO di Anthropic Dario Amodei e – sorpresa – il CEO di OpenAI Sam Altman, che ha recentemente dichiarato al Congresso USA di essere preoccupato che la tecnologia potesse andare «abbastanza male» e li ha esortati a imporre regolamenti al settore.
I tre leader del settore hanno incontrato il presidente degli Stati Uniti Joe Biden e il vicepresidente Kamala Harris all’inizio di questo mese per discutere di potenziali normative. Numerosi dirigenti di grandi aziende hanno anche aggiunto i loro nomi alla dichiarazione di martedì.
Geoffrey Hinton e Yoshua Bengio, considerati i «padrini dell’IA» per il loro lavoro sulle reti neurali, sono stati elencati per primi nel documento, anche se Yann LeCun, che ha svolto la ricerca con loro e ora gestisce la ricerca sull’IA per Meta, invece non ha firmato. Hinton ha lasciato il suo lavoro in Google all’inizio di questo mese per lanciare l’allarme sui rischi dell’IA e ha dichiarata che a volte si rammarica del lavoro della sua vita. Pochi mesi fa un ingegnere di Google, Blake Lemoine, ha dichiarato pubblicamente che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.
La lettera rappresenta un ulteriore «coming out» per i leader del settore che in precedenza tenevano nascoste le loro preoccupazioni sul futuro dell’IA, ha dichiarato martedì al New York Times il direttore esecutivo del Center for AI Safety Dan Hendrycks.
«C’è un malinteso molto comune, anche nella comunità dell’AI, secondo cui ci sono solo una manciata di apocalittici», ha spiegato, chiarendo che «molte persone in privato esprimerebbero preoccupazioni su queste cose».
Il messaggio fa eco a un’altra lettera aperta pubblicata a marzo dal Future of Life Institute, sostenendo una moratoria di sei mesi sugli sviluppi dell’IA su larga scala al fine di evitare «una corsa fuori controllo per sviluppare e distribuire menti digitali sempre più potenti».
Il messaggio che richiedeva una moratoria per mettere in pausa le ricerche sull’AI è stato firmato da più di 1.000 figure influenti della tecnologia, tra cui il miliardario Elon Musk, che è particolarmente apocalittico da sempre sul tema, ed ha appena ricevuto l’approvazione del governo degli Stati Uniti per procedere con i test umani sulla sua interfaccia cervello-computer Neuralink, che ha lo scopo di dare alle persone un vantaggio competitivo contro l’Intelligenza Artificiale – una sorta di «transumanismo difensivo».
Tuttavia, non tutti gli esperti di Intelligenza Artificiale sono timidi.
Jensen Huang, il CEO di Nvidia (società di microprocessori che ha pena raggiunto il trilione di dollari di capitalizzazione), ha recentemente dichiarato a un pubblico della National Taiwan University che coloro che non sono saltati sul colosso dell’IA vedranno il loro lavoro rubato, le loro aziende morte e loro stessi divorati.
Ricordiamo anche la posizione del co-fondatore di Microsoft Bill Gates, un grande investitore di intelligenza artificiale (ha elargito 10 miliardi a OpenAI per usare ChatGPT sul suo motore di ricerca Microsoft Bing), insiste sul fatto che la tecnologia porterà solo «enormi vantaggi».
Come riportato da Renovatio 21, a chiedere di fermare l’Intelligenza Artificiale è stato anche un gruppo di medici che hanno firmato un appello sulla prestigiosa rivista scientifica BMJ Global Health.
Un recente rapporto della banca d’affari Goldman Sachs calcola che l’IA potrebbe portare a breve a 300 milioni di disoccupati nel mondo.
Il Musk aveva dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Quando Musk ha ribattuto ad un entusiasta fondatore di Google Larry Page specificando i rischi dell’AI, il Page gli ha dato dello «specista», termine del gergo animalista che indica una persona che mette la specie umana sopra le altre.
L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Eliezer Yudkowsky, specialista nel tema dei pericoli delle IA, ha dichiarato che l’unica possibilità è una moratoria che preveda il bombardamento delle server farm dei Paesi che stanno sviluppando l’AGI, poiché se non si fermano le macchine «tutti sulla terra moriranno».
Autismo
Epstein andava alla ricerca di bambini autistici da impiegare per la sua società di DNA e Intelligenza Artificiale

Nuovi allucinanti dettagli continuano ad uscire dalla storia di Epstein. Dopo gli incontri con il capo della CIA, l’ex premier israeliano, Woody Allen, i Rothschild e Noam Chomsky, emergono altri sorprendenti incontri del ricco pedofilo: quelli con bambini autistici delle Isole Vergini, da utilizzare negli algoritmi di una sua società di raccolta dati DNA.
Siamo oramai ben oltre il film, il romanzo, la fiction: siamo alla pura allucinazione. Che, epperò, dice tanto, tantissimo su ciò che sta succedendo oggi nelle nostre vite.
Come noto, il Wall Street Journal sta pubblicando una serie di documenti inediti, tra cui l’agenda degli appuntamenti di Epstein. Vi sono altri documenti legali: come noto, la procura delle Isole Vergini americane sta procedendo contro Epstein coinvolgendo anche la banca JP Morgan e tutta una serie di magnati a cui sono stati spediti dei mandati di comparizione, compreso Elon Musk e compreso Larry Page di Google, che risulta però irreperibile.
Qualcuno sospetta che la fonte del WSJ sia la stessa procura delle Isole Vergini, dove la figura della procuratrice generale che indagava sul piano Epstein, Denise M. George, è stata licenziata dal governatore.
Forse a causa di questi accadimenti, stanno uscendo notizie sempre più sbalorditive.
Nel 2007, dopo 13 mesi di detenzione in Florida per aver procurato una ragazza minorenne per la prostituzione, Epstein ha spostato il centro dei suoi interessi commerciali nelle Isole Vergini americane, dove – oltre che a possedere l’Isola di Little Saint James dove sarebbe avvenuto il traffico delle minorenni ai potenti della Terra – nel 2012, ha fondato Southern Trust, una società di data mining (cioè di raccolta dati) del DNA che mirava a lavorare con Big Pharma.
«Southern Trust stava cercando di valutare la predisposizione dei clienti al cancro “fondamentalmente organizzando algoritmi matematici”», scrive un articolo del New York Times dell’ottobre 2019.
Epstein disse all’epoca alla Commissione per lo sviluppo economico delle Isole Vergini americane che voleva coinvolgere i bambini locali nelle attività di programmazione e Intelligenza Artificiale della sua azienda.
Intervistata per la trasmissione YouTube Redacted, la giornalista investigativa Whitney Webb – che ha appena dato alle stampe due densi volumi sul caso Epstein – sostiene che il miliardario pedofilo avrebbe preso di mira specificamente i bambini vulnerabili, svantaggiati e poveri, una strategia che ha replicato la sua precedente tattica di adescare ragazze adolescenti economicamente svantaggiate.
«Alcuni di questi sforzi che stava creando nelle Isole Vergini prendevano di mira bambini maltrattati, bambini orfani e delinquenti minorili», sostiene la Webb. «Molti di quei bambini potrebbero non avere genitori, quindi ancora una volta questo è molto inquietante».
Storie come questa ci inducono a pensare che lo Epstein in realtà non gestisse solo una rete di traffico di minorenni da usare per eventuali ricatti ai potenti. La sua ragnatela era molto più fitta, e copriva diversi ambiti.
«Epstein stava reclutando ragazzi per lavorare in un’officina di programmazione dalle scuole delle Isole Vergini, ma ci è permesso parlare dei suoi crimini di traffico sessuale a Palm Beach dal 2000 al 2006 solo per quanto riguarda i media mainstream. C’è molto di più qui».
Il caso Epstein è sempre più una finestra sui sistemi utilizzati dall’oligarcato. «Questo è solo un microcosmo in un gruppo più ampio di persone che si mascherano da filantropi, ma in realtà stanno costruendo una prigione digitale» dice l’autrice. «Lo stanno sperimentando proprio ora su bambini vulnerabili, principalmente bambini neri, in Africa e nei Caraibi».
«Si tratta di legare un ID digitale a un portafoglio digitale e creare fondamentalmente un apparato di sorveglianza in cui vengono monitorate le prestazioni di questi bambini nelle scuole e ciò che fanno nella loro vita e i dati vengono salvati. E lo stanno usando per alimentare algoritmi di Intelligenza Artificiale, molto probabilmente senza il loro consenso».
«Alla fine della giornata, l’intenzione è di avere tutti i bambini e tutte le persone su questo tipo di sistema – su questa griglia di sorveglianza digitale – legati al tuo portafoglio digitale che contiene un CBDC [le monete digitali di Stato in arrivo, ndr] e avere tutto tracciato. Epstein stava cercando di anticipare questo oltre un decennio fa con la sua compagnia, Southern Trust, e aveva i tuoi dati genetici legati alla tua istruzione, legati alle tue finanze».
La Webb afferma che gli sforzi commerciali di Epstein nelle Isole Vergini americane fanno luce sulla «natura predatoria delle persone che stanno cercando di portare avanti» questa rete di sorveglianza che comprende i dati del cittadino.
Genetica, Algoritmi, Intelligenza Artificiale, sistemi di sorveglianza biometrica. Colpisce quanto Epstein già lustri fa fosse avanti con l’agenda che stia vedendo dipanarsi sotto i nostri occhi, tra mRNA, green pass, euro digitale, tracking carbonico e discorsi cinesi, climatici e transumanisti vari da Grande Reset e Quarta Rivoluzione Industriale made in Davos.
Colpisce nell’intervista, tuttavia, un riferimento all’autismo. Secondo quanto dice l’intervistatore Clayton Morris, che cita documenti del caso, vi sarebbe stata una predilezione di Epstein per arruolare in questo suo progetto di algoritmi genetici dei bambini autistici.
«È come un cattivo di James Bond» dice Morris «come se dovessi scrivere una parte per un film, ma ti dicessero che è ridicolo pensare a un miliardario che va alle Isole Vergini e cerca bambini per fare ricerca biomedica impiantando cose nei loro cervelli… e poi nella sua testimonianza nei documenti che ho visto, parla specificatamente di bambini autistici…. tipo un quarto di loro erano autistici… cercava specificatamente per bambini nello spettro».
Epstein aveva dichiarato un interesse per l’autismo anche in una vecchia intervista ad una rivista scientifica nel 2017, ripescata dal New York Post, dove si discuteva del suo interesse per il Massachusetts Institute of Technology, detto anche MIT, cioè il prestigiosissimo politecnico bostoniano. Qui l’enigmatico magnate pedofilo dichiarava di essere stato attratto dal MIT a causa della natura psicologica suo corpo studentesco unico: «Direi che il 25 percento dei bambini è autistico, nello spettro… Non lavorano davvero in gruppo. Non stanno prendendo lezioni. Non danno incarichi di insegnamento. Non hanno molto da fare, sono lì per pensare».
Secondo Whitney Webb, potrebbe essere che Epstein cercasse le capacità matematiche riconosciute in certi casi di autismo.
«Qualcosa di cui parla nella sua testimonianza alla Commissione delle Isole Vergini è l’idea di voler sequenziare geneticamente gli isolani, in quanto popolazione isolata, e poi parla di come quell’informazione genetica può essere usata per educare quei bambini».
Siamo dinanzi, senza ombra di dubbi, a microprogrammi prototipali di eugenetica del XXI secolo, dove la macchina va a giocare un ruolo fondamentale, e la popolazione viene schedata biologicamente e incoraggiata e/o scoraggiata alle attività in base del loro profilo genetico.
Non è una novità per il lettore di Renovatio 21, dove è stata ampiamente discussa la cifra eugenetica di Epstein, che voleva – tra le altre cose – usare le «sue» ragazzine come portatrici di embrioni concepiti dallo sperma di professori-geni che frequentavano il miliardario pedofilo. Secondo quanto riportato, il luogo dove le ragazze avrebbero dovuto portare avanti la gravidanza doveva essere un ranch in New Mexico.
Renovatio 21 ha ipotizzato che alla base dell’amicizia tra Bill Gates ed Epstein (una mai del tutto spiegata, che anche oggi imbarazza l’uomo Microsoft) potrebbe esserci stato anche l’eugenetica.
Se pensavate che l’eugenetica fosse sparita con Hitler vi sbagliate di grosso: gli stessi oligarchi che, in fine, Hitler lo avevano finanziato, sotto il naso delle sedicenti democrazie l’hanno portata avanti per tutto il XX secolo e ora, nel XXI, si servono di tecnologie informatiche e di intere popolazioni assoggettate.
Ci sembra ogni giorno di più che Epstein sia solo la punta dell’iceberg eugenetico delle élite occidentali.
Stiamo per vedere l’eugenetica scatenarsi come mai avremmo immaginato. Perché, ricordatelo sempre, fare i bambini con la bioingegneria «sarà come vaccinarli».
E, abbiamo capito, vanno vaccinati tutti – ma proprio tutti.
Roberto Dal Bosco
Intelligenza Artificiale
USA, Regno Unito e Australia provano gli sciami di droni AI

Stati Uniti, Regno Unito e Australia hanno mostrato nuovi sciami di droni alimentati dall’Intelligenza Artificiale, segnando la prima collaborazione in assoluto sulla tecnologia UAV autonoma tra i membri del patto di sicurezza AUKUS, descritto dai funzionari come un modo per contrastare la Cina.
Alla fine del mese scorso, gli alleati hanno effettuato la «prova delle capacità» a tre vie nel Wiltshire, in Gran Bretagna, dove hanno ottenuto per la prima volta «la riqualificazione collaborativa dal vivo dei modelli in volo e lo scambio di modelli di intelligenza artificiale tra le nazioni AUKUS», secondo l’Esercito USA.
«Il lavoro ha visto l’iniziale dispiegamento congiunto di risorse abilitate all’IA australiane, britanniche e statunitensi in uno sciame collaborativo per rilevare e tracciare obiettivi militari in un ambiente rappresentativo in tempo reale», ha affermato il Pentagono in una dichiarazione.
Costituito nel 2021 come un modo per scoraggiare la Cina nella regione indo-pacifica, il patto AUKUS è stato ripetutamente criticato da Pechino. In base al «Pillar I» dell’accordo, gli Stati Uniti si sono impegnati a fornire la tecnologia dei sottomarini nucleari all’Australia «il prima possibile».
Ospitati dal Defense Science and Technology Laboratory del Regno Unito, i test sui droni sono stati condotti nell’ambito del «Pillar II» della partnership AUKUS, che chiede di “sviluppare e fornire capacità militari avanzate congiunte” tra i tre alleati al fine di «promuovere la sicurezza e stabilità nella regione indo-pacifica».
Il ministero degli Esteri cinese insiste sul fatto che le nuove iniziative militari non faranno che «motivare una corsa agli armamenti, danneggiare il regime internazionale di non proliferazione nucleare e danneggiare la stabilità e la pace regionali», esortando i tre membri a smettere di “ignorare le preoccupazioni della comunità internazionale».
Sebbene i funzionari non abbiano fornito dettagli approfonditi sui test UAV, l’esercito britannico ha dichiarato di aver coinvolto «più di 70 membri del personale della difesa militare e civile e appaltatori del settore», che hanno testato sciami di droni Blue Bear Ghost e Boeing/Insitu CT220.
Le forze britanniche hanno fornito diversi carri armati e veicoli corazzati per la dimostrazione, mentre appaltatori privati hanno fornito una serie di obici semoventi e veicoli BMP di epoca sovietica prodotti nell’ex Cecoslovacchia. L’attrezzatura è stata utilizzata per testare la capacità dei droni di tracciare obiettivi militari sul campo di battaglia.
«Questo processo dimostra il vantaggio militare delle capacità avanzate di AUKUS, poiché lavoriamo in coalizione per identificare, tracciare e contrastare potenziali avversari da una distanza maggiore e con maggiore velocità», ha affermato in una dichiarazione il tenente generale britannico Rob Magowan, un alto funzionario del ministero della Difesa.
L’esercito australiano ha dichiarato che i test «hanno ottenuto diversi primati mondiali», incluso il riaddestramento dal vivo degli sciami di droni in volo.
Come riportato da Renovatio 21, l’Australia sta sviluppando da tempo sciami di droni suicidi da impiegare nel caso di un’invasione da parte della Repubblica Popolare Cinese, la quale ha svelato a inizio anno una nave catamarano porta-droni.
La Cina ha altresì dato dimostrazione della ricerca per sciami i droni autonomi cinesi assassini che riescono a cacciare gli esseri umani perfino nei boschi.
Gli USA stanno approntando sistemi che permettono ad un operatore di gestire «sciami» di 130 droni militari alla volta.
-
Ambiente1 settimana fa
Alluvione, undici scienziati dimostrano che le inondazioni non sono correlate ai cambiamenti climatici
-
Spirito2 settimane fa
La battaglia tra la stirpe di Cristo e quella di Satana, antichiesa e sinedrio globalista massonico. Omelia di mons. Viganò
-
Bioetica1 settimana fa
Verso la società della discriminazione genetica
-
Geopolitica6 giorni fa
Zelen’skyj in esilio in Italia?
-
Internet1 settimana fa
YouTube censura l’omelia di Pasqua di monsignor Viganò
-
Reazioni avverse1 settimana fa
Vaccino HPV, l’esperienza terrificante di Candace Owens
-
Pensiero1 settimana fa
Giorgia Meloni tace davanti al «figlio» di Castro
-
Spirito5 giorni fa
«Satana è il grande scenografo del Nuovo Ordine». Omelia di Pentecoste di mons. Viganò