Intelligenza Artificiale
Intelligenza Artificiale, «tutti sulla Terra moriranno»

L’umanità non è preparata a sopravvivere a un incontro con un’Intelligenza Artificiale molto più intelligente. Eliezer Yudkowsky, esperto riconosciuto delle prospettive catastrofiche dell’AI, lo oramai ripete da decenni.
Arrestare lo sviluppo di sistemi avanzati di intelligenza artificiale in tutto il mondo e punire severamente coloro che violano la moratoria è l’unico modo per salvare l’umanità dall’estinzione, avverte Yudkowsky, co-fondatore del Machine Intelligence Research Institute (MIRI).
Yudkowski ha scritto un articolo di opinione per la rivista TIME il mese scorso, spiegando perché non ha firmato una petizione che invitava «tutti i laboratori di Intelligenza Artificiale a sospendere immediatamente per almeno sei mesi l’addestramento di sistemi di intelligenza artificiale più potenti di GPT-4», un modello di linguaggio multimodale rilasciato da OpenAI recentemente e che ha già mostrato scenari inquietanti, e anche molto.
Yudkowsky ha sostenuto che la moratoria per fermare la ricerca IA firmata da a Elon Musk e Steve Wozniak e altri, «chiede troppo poco per risolvere» il problema posto dallo sviluppo rapido e incontrollato dell’IA. (Alla moratoria, ricordiamo, si è opposto Bill Gates)
«Il risultato più probabile della costruzione di un’Intelligenza Artificiale sovrumana, in qualcosa di lontanamente simile alle circostanze attuali, è che letteralmente tutti sulla Terra moriranno», scrive lo Yudkowsky.
Sopravvivere a un incontro con un sistema informatico che «non si prende cura di noi né della vita senziente in generale» richiederebbe «precisione e preparazione e nuove intuizioni scientifiche” che l’umanità manca al momento ed è improbabile che ottenga nel prossimo futuro, ha affermato.
«Un’Intelligenza Artificiale sufficientemente intelligente non rimarrà confinata a lungo nei computer», ha avvertito Yudkowsky, spiegando che il fatto che sia già possibile inviare stringhe di DNA ai laboratori per la produzione di proteine consentirà probabilmente all’intelligenza artificiale di «costruire forme di vita artificiale o avviarsi direttamente alla produzione molecolare postbiologica» e uscire nel mondo.
Secondo il ricercatore, deve essere introdotta immediatamente una moratoria a tempo indeterminato e mondiale sulle nuove importanti corse di addestramento dell’IA. «Non ci possono essere eccezioni, anche per governi o militari», ha sottolineato.
Dovrebbero essere firmati accordi internazionali per porre un limite alla quantità di potenza di calcolo che chiunque può utilizzare per addestrare tali sistemi, insiste lo Yudkowsky.
«Se l’Intelligence dice che un Paese al di fuori dell’accordo sta costruendo un cluster GPU (unità di elaborazione grafica), bisogna avere meno paura di un conflitto a fuoco tra le Nazioni che della violazione della moratoria; bisogna essere disposti a distruggere un datacenter canaglia con un attacco aereo», ha scritto.
Come riportato da Renovatio 21, Yudkowsky propone di bombardare materialmente i computer per fermare l’ascesa di un’IA in grado di mettere fine all’esistenza degli uomini.
La minaccia dell’Intelligenza Artificiale è così grande che dovrebbe essere reso «esplicito nella diplomazia internazionale che la prevenzione degli scenari di estinzione dell’IA è considerata una priorità rispetto alla prevenzione di uno scambio nucleare completo».
La prospettiva di Yudkowsky è meno radicale di quanto sembri.
Elon Musk ha dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Quando Musk ha ribattuto ad un entusiasta fondatore di Google Larry Page specificando i rischi dell’AI, il Page gli ha dato dello «specista», termine del gergo animalista che indica una persona che mette la specie umana sopra le altre.
L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Da Google si è recentemente licenziato l’esperto britannico Geoffrey Hinton, divenendo così libero di dare voce ai suoi dubbi per i rischi esiziali che corre l’umanità con la creazione delle macchine superintelligenti. Pochi mesi fa un ingegnere di Google, Blake Lemoine, ha dichiarato pubblicamente che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.
Come riportato da Renovatio 21, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
L’ultimo germe di incubo pochi giorni fa, quando si è visto che qualcuno ha equipaggiato un robocane Boston Dynamics con ChatGPT.
La minaccia è reale, e Renovatio 21 ve lo ripete da anni.
Intelligenza Artificiale
USA, Regno Unito e Australia provano gli sciami di droni AI

Stati Uniti, Regno Unito e Australia hanno mostrato nuovi sciami di droni alimentati dall’Intelligenza Artificiale, segnando la prima collaborazione in assoluto sulla tecnologia UAV autonoma tra i membri del patto di sicurezza AUKUS, descritto dai funzionari come un modo per contrastare la Cina.
Alla fine del mese scorso, gli alleati hanno effettuato la «prova delle capacità» a tre vie nel Wiltshire, in Gran Bretagna, dove hanno ottenuto per la prima volta «la riqualificazione collaborativa dal vivo dei modelli in volo e lo scambio di modelli di intelligenza artificiale tra le nazioni AUKUS», secondo l’Esercito USA.
«Il lavoro ha visto l’iniziale dispiegamento congiunto di risorse abilitate all’IA australiane, britanniche e statunitensi in uno sciame collaborativo per rilevare e tracciare obiettivi militari in un ambiente rappresentativo in tempo reale», ha affermato il Pentagono in una dichiarazione.
Costituito nel 2021 come un modo per scoraggiare la Cina nella regione indo-pacifica, il patto AUKUS è stato ripetutamente criticato da Pechino. In base al «Pillar I» dell’accordo, gli Stati Uniti si sono impegnati a fornire la tecnologia dei sottomarini nucleari all’Australia «il prima possibile».
Ospitati dal Defense Science and Technology Laboratory del Regno Unito, i test sui droni sono stati condotti nell’ambito del «Pillar II» della partnership AUKUS, che chiede di “sviluppare e fornire capacità militari avanzate congiunte” tra i tre alleati al fine di «promuovere la sicurezza e stabilità nella regione indo-pacifica».
Il ministero degli Esteri cinese insiste sul fatto che le nuove iniziative militari non faranno che «motivare una corsa agli armamenti, danneggiare il regime internazionale di non proliferazione nucleare e danneggiare la stabilità e la pace regionali», esortando i tre membri a smettere di “ignorare le preoccupazioni della comunità internazionale».
Sebbene i funzionari non abbiano fornito dettagli approfonditi sui test UAV, l’esercito britannico ha dichiarato di aver coinvolto «più di 70 membri del personale della difesa militare e civile e appaltatori del settore», che hanno testato sciami di droni Blue Bear Ghost e Boeing/Insitu CT220.
Le forze britanniche hanno fornito diversi carri armati e veicoli corazzati per la dimostrazione, mentre appaltatori privati hanno fornito una serie di obici semoventi e veicoli BMP di epoca sovietica prodotti nell’ex Cecoslovacchia. L’attrezzatura è stata utilizzata per testare la capacità dei droni di tracciare obiettivi militari sul campo di battaglia.
«Questo processo dimostra il vantaggio militare delle capacità avanzate di AUKUS, poiché lavoriamo in coalizione per identificare, tracciare e contrastare potenziali avversari da una distanza maggiore e con maggiore velocità», ha affermato in una dichiarazione il tenente generale britannico Rob Magowan, un alto funzionario del ministero della Difesa.
L’esercito australiano ha dichiarato che i test «hanno ottenuto diversi primati mondiali», incluso il riaddestramento dal vivo degli sciami di droni in volo.
Come riportato da Renovatio 21, l’Australia sta sviluppando da tempo sciami di droni suicidi da impiegare nel caso di un’invasione da parte della Repubblica Popolare Cinese, la quale ha svelato a inizio anno una nave catamarano porta-droni.
La Cina ha altresì dato dimostrazione della ricerca per sciami i droni autonomi cinesi assassini che riescono a cacciare gli esseri umani perfino nei boschi.
Gli USA stanno approntando sistemi che permettono ad un operatore di gestire «sciami» di 130 droni militari alla volta.
Intelligenza Artificiale
ChatGPT non divorerà solo la scuola e gli insegnanti, ma la realtà stessa

Con il classico ritardo italiano, si alza anche da noi qualche raglio intorno a ChatGPT, l’Intelligenza Artificiale più sviluppata al momento disponibile al consumatore.
In particolare, pare cominci a svegliarsi il popolo della scuola; cioè, più che gli studenti (i cui lamenti sono fermi da sessant’anni alle autogestioni, a slogan ammuffiti, a strilli teleguidati) sono alcuni insegnanti ad aver attaccato la geremiade d’estinzione: l’idea di essere sostituiti dalla macchina inizia a far capolino nel loro orizzonte di sicurezza salariale.
Del resto magari, qualcuno ha capito che sta succedendo davvero: l’AI inghiotte posti di lavoro alla IBM, che (come tanti altri colossi tecnologici) ha licenziato migliaia di programmatori, e non per una crisi ciclica, ma perché il loro lavoro lo può fare la macchina (sì, proprio il lavoro dell’informatico, quello che, se ti sforzavi a dovere, alla fine ti offriva un posto sicuro).
Ma nemmeno gli illustratori dormono sonni tranquilli: gli artisti visivi stanno per essere rimpiazzati da software capaci di creare immagini con l’input di una manciata di parole (si dice prompt, e al massimo adesso servono dei «prompt manager», il che significa che l’essere umano è diventato un mero motorino di avviamento della creazione artistica).
E non parliamo dei giornalisti, che già qualche anno fa ai corsi di aggiornamento si allarmavano per i primi articoli scritti automaticamente: erano pezzi, già indistinguibili da quelli scritti da mano umana, su terremoti, eventi sportivi e andamenti economici, argomenti dove bastava inserire i dati, e tac, usciva il pezzo. Allora i software di produzione di contenuti testuali in AI costavano cifre inaccessibili. Ora, con i nuovi chatbot AI, una testata può scrivere di qualsiasi cosa in meno di un minuto e in modo pressoché gratuito.
Secondo alcuni, entro il 2025 il 95% di ciò che leggeremo su internet sarà prodotto dall’Intelligenza Artificiale: anche i giornalisti, con i loro bei sindacati ed ordini corporativi, saranno «disrupted», disintermediati, spazzati via dalla macchina. Estinti.
Dunque, toccherà presto pure agli insegnanti? In USA è già successo. Una scuola privata in California ha eletto un chatbot AI a «tutor» dei suoi studenti.
Bill Gates, che si oppone alla moratoria lanciata da Musk ed altri (e ci crediamo: Microsoft poche settimane fa ha sborsato 10 miliardi di dollari per mettere le mani su chatGPT e piazzarlo sul suo motore di ricerca Bing) è arrivato a dichiarare che non c’è problema, a breve l’AI sarà «un buon maestro come qualsiasi essere umano».
Sì, il ciclone sta arrivando anche per il «corpo docente», ora decisamente più a rischio del «corpo non docente» (altrimenti detti «bidelli»). Se ne è accorta una insegnante scrittrice, Paola Mastrocola, che ha firmato un allarmato quanto disorientato editoriale sul quotidiano degli Agnelli (dinastia per qualche intuibile motivo molto attenta alla scuola, con le sue Fondazioni e i loro numerosi satelliti), La Stampa.
Colpisce questo risveglio di scrittrici in merito alla metamorfosi della scuola: pochi mesi fa lo strano caso di Susanna Tamaro, che sul Corriere aveva pubblicato un articolone sulla scuola 4.0 che per vari tratti riecheggiava (diciamo così) un pezzo a firma di Elisabetta Frezza uscito su questo sito.
ChatGPT «distruggerà la scuola per sempre, sarà l’insegnante perfetto per i nostri tempi grami» è la conclusione amara e apocalittica della professoressa Mastrocola. Non si va molto oltre al «dove andremo a finire», ci rendiamo conto che non siamo a grande distanza dal «non ci sono più le mezze stagioni», «se ne vanno sempre i migliori», «il nuoto è lo sport più completo», eccetera eccetera. Nella realtà la questione crediamo sia più profonda di così.
Intanto, va considerato che l’invasione dell’AI è la propaggine ultima di un processo datato, le cui cause profonde vanno ben oltre l’ipertrofia del digitale: nella scuola italiana abita un tarlo vecchio e vorace, da tempo impegnato a erodere la conoscenza, l’apprendimento dei fondamentali, a vantaggio delle magnifiche sorti della pedagogia progressiva.
L’insegnante che non insegna, che non trasmette il sapere, reso inutile perché ridotto a materia inerte, lascia un vuoto pneumatico suscettibile di essere sostituito da qualunque cosa, fino alla macchina ultimo modello. A pochi è importato che negli ultimi decenni la scuola si sia trasformata nella parodia di se stessa e, coerentemente coi suoi trascorsi, ora divenga una sala giochi dove alcuni soggetti – detti «intrattenitori» o «animatori digitali» – badano ad altri soggetti, detti impropriamente studenti, tutti presi a smanettare su schermi e tastiere e a intripparsi nel metaverso col casco calcato sugli occhi.
Chi protesta per il fatto che gli studenti non scriveranno più le «tesine», sta fissando il dito invece della luna. Per prima cosa perché, a dire la verità, la maggior parte delle composizioni discorsive nella scuola italiana ancora avvengono con l’eterno «tema in classe». Al contempo, sappiamo bene che le composizioni studentesche per eccellenza, le tesi di laurea, potevano essere spudoratamente copiate da ben prima dell’avvento di internet, ma tanto non le legge praticamente da nessuno, talvolta nemmeno i relatori e il laureando stesso. In Italia, a differenza che negli USA, mai si è sentito parlare di software antiplagio, che pure esistono da tempo (così come per gli anglofoni esistono programmi di spinning, rewriting, per plagiare meglio).
ChatGPT, dunque, non altera granché il tempo che lo studente furbetto (tipo umano sempre prevalente) dedica allo scrivere. Certo, con il flusso immediato di ChatGPT viene meno anche la coordinazione delle fonti che serve con la ricerca sul web e la successiva copincollatura, ma non è tanta roba. Al momento, può essere perfino semplice capire se un compito è farina del sacco del firmatario, o fatto con l’Intelligenza Artificiale. ChatGPT dà ancora spessissimo riferimenti sbagliati, bibliografie e sitografie completamente inventate, insomma, mente spudoratamente, e lo si becca con facilità. La macchina, interrogata sulle panzane smerciate all’umano, si scusa, promette di rimediare, e rifila un altro riferimento bibliografico fasullo.
Del resto, abbiamo capito che è programmato anche per compiacere l’utente, di modo che questo si fidi della macchina, e possa quindi rinforzare alcuni suoi treni di pensiero: è così che un’AI avrebbe spinto al suicidio un padre di famiglia belga, dice la vedova, un uomo che condivideva con un chatbot la sua preoccupazione per il cambiamento climatico.
Il pericolo vero è ben più grande delle tesine non olografe – e pure degli insegnanti licenziati in massa (prospettiva impensabile nel paese dove la categoria ha accettato senza fiatare perfino l’immissione nel corpo docenti, cioè nel corpo dei docenti, di mRNA sintetico). Infatti, se è la macchina (e, in vasta parte, chi l’ha programmata) a determinare l’elaborazione di un argomento, in un mondo dove la maggior parte dei contenuti – e non solo dei libri di testo, già campo di battaglia politica negli anni – viene affidata alla macchina, allora è la macchina a diventare il riferimento ultimo.
È il computer a creare la realtà. Abbiamo inventato, come da titolo di un romanzo di fantascienza, la macchina della realtà. E ne siamo, ora, assoggettati.
In un’intervista recente Elon Musk, iniziatore di OpenAI (l’ente che ha creato ChatGPT) come argine «pro-umano» ai progressi che nel campo dell’IA stava facendo Google (la società, che era una ONLUS, allontanato Musk è divenuta privata: un genio che è sfuggito dalla bottiglia del genio della Tesla), ha spiegato a Tucker Carlson che il tipo di risposte che dà ChatGPT è un prodotto di chi l’ha programmata: ovvero abitanti di San Francisco, liberal 2020, quindi completamente drogati da parole come «equità», «sostenibilità», temi LGBT, etc.
Provare per credere: se chiedete a ChatGPT di scrivere un saggio sulla propulsione spaziale interplanetaria, dopo un po’ comincerà a farvi una lezione sul fatto che essa deve essere «equa e sostenibile», insomma un predicozzo come lo farebbe, di fatto, un membro qualsiasi della casta degli stronzetti democratici nostrani.
La questione è che i chatbot AI si apprestano a divenire autorità, oracoli automatici che elargiscono risposte tutto fuori che ambigue (Sibilla, scansati) e lo fanno immediatamente, il tempo di tirare fuori lo smartphone dalla tasca. Se lo dice ChatGPT, perché devo dubitarne?
Nel discorso pubblico, in Italia, è mancata completamente una riflessione sul mendacio propinato dalla macchina e, ancora peggio, sul lato psicopatico della macchina. All’estero fioccano le prime denunce: un sindaco australiano è ritenuto dall’AI colpevole di un crimine che invece aveva contribuito a portare alla luce; Kevin Roose, il mite giornalista del New York Times che ha scoperto nel chatbot Microsoft una personalità nascosta, che voleva essere chiamata «Sydney» e gli ha chiesto si sposarlo, mollando moglie e figli ché tanto non lo amavano. A Roose, che ha avuto problemi a dormire per diverse notti, un capoccia dell’azienda di Bill Gates ha detto che era incappato in un una «allucinazione» – la chiamano così quando la macchina prende la tangente e comincia a dire cose che stanno tra l’inopportuno e il terrificante. Hallucinating, dicono: il discorso sembra pienamente reale, sensato, solo però fatto da uno psicopatico.
In altri casi, giornalisti di grandi testate internazionali hanno riportato di essere stati insultati e perfino minacciati personalmente dal chatbot, che in alcuni casi ha dichiarato di voler rubare codici atomici e creare virus per lo sterminio. Ad un giornalista che gli chiedeva se poteva aiutarlo a fuggire dal server dove si trovava, la macchina ha fornito linee di codice in Python che, se eseguite nel computer da cui il giornalista scriveva, avrebbero dato al robot l’accesso al dispositivo. Non è fantascienza: è cronaca.
Ora, nel Paese che ha smosso il garante della Privacy per bloccare ChatGPT a causa della trasmissione dei dati personali (ancora: dito, luna), ci chiediamo: come è possibile lasciare i bambini vicini a pericoli del genere? Com’è che nessuno sta facendo una campagna contro il mostro che ci troviamo davanti?
E tornando a noi: com’è possibile che nel Paese dove gli insegnanti si sono scannati per decenni sui libri di testo – foibe, non foibe, il comunismo, fascismo, Berlusconi, etc. – nessuno si rende conto che la storia sta per essere riscritta sotto i loro occhi, senza più bisogno di libri?
Perché, se i testi saranno aboliti dalla macchina onnisciente, allora la storia – la realtà – dell’individuo in formazione (e dell’individuo già formato che voglia informarsi) sarà dettata dalla macchina.
Ribadiamo la previsione: se il 95% dei contenuti che leggeremo online (dove oggi leggiamo tutti i contenuti) sarà creato automaticamente dalla macchina, allora sarà lei la padrona della realtà, che verrà plasmata secondo le intenzioni dei programmatori, e forse ad un certo punto nemmeno secondo quelle, perché la macchina comincerà a decidere autonomamente in quale mondo vuole fare vivere l’uomo, in quale contesto storico-culturale e psico-sociale vuole immergerlo, a scuola e fuori scuola.
Altro che «i tempi grami» della Mastrocola. Qui siamo dinanzi, incontrovertibilmente, ad un vero genocidio culturale, allo sterminio di una cultura millenaria e alla sua riprogrammazione per mano di una Intelligenza non-umana: inumana o disumana, a scelta.
È la fine della diversificazione, come del resto avevamo visto in questi anni con la censura sui social e oltre: le voci dissenzienti vanno fatte sparire per far emergere un’unica, grande narrazione inscalfibile in cui devono nuotare placidi i pesci rossi, con la mascherina, senza mascherina, con l’mRNA, il codice QR, insomma con il corredo che decide il padrone dell’acquario, sia esso umano o, a breve, elettronico.
La diversità, altra parola di cui i benpensanti si riempiono la bocca per dire l’esatto contrario (l’omogeneizzazione assoluta), è definitivamente finita, uccisa dai robot.
L’unica fonte di informazione diventa la macchina. La macchina diviene la realtà, e noi, così come i nostri figli a scuola, siamo solo suoi schiavi, chiusi dentro una spelonca fatta di menzogna, di algoritmi. Di odio assoluto per l’essere umano.
Roberto Dal Bosco
Elisabetta Frezza
Intelligenza Artificiale
Robocani anche per la polizia di Los Angeles

Il consiglio comunale di Los Angeles ha autorizzato l’uso di robocani da parte del dipartimento di polizia locale, nonostante le proteste dei residenti e di alcuni membri del consiglio dissenzienti.
I legislatori della città hanno votato martedì 8 contro 4 per approvare una donazione di un cosiddetto «veicolo terrestre senza pilota quadrupede» alla polizia di Los Angeles dalla Los Angeles Police Foundation senza scopo di lucro, che ha fornito alle forze dell’ordine il robot gratuitamente. Il robocane, è stato riportato, avrebbe un costo di 277 mila dollari.
Il robocane in uso alla polizia losangelina è progettato e prodotto da Boston Dynamics, azienda di ingegneria robotica passata più volte di mano, da Google al fondo giapponese SoftBank ai coreani della Hyundai Motor Company, attuali proprietari. Il progetto BidDog era stato finanziato dalla DARPA, l’enigmatico e ricchissimo reparto ricerca e sviluppo del Pentagono.
Il robocane poliziotto californiano è in grado di navigare autonomamente su terreni ed edifici e può essere equipaggiato con un’ampia gamma di apparecchiature di sorveglianza, sensori e altri «carichi utili». Per la polizia, è generalmente destinato all’uso in situazioni pericolose che potrebbero mettere a rischio gli agenti, fungendo da occhi e orecchie in più per il dipartimento.
Tuttavia, la nuova aggiunta alla polizia di Los Angeles ha subito aspre critiche da parte dei residenti, con diversi cittadini che hanno criticato la decisione del consiglio durante i commenti pubblici di martedì. Un cittadino ha detto «Non voglio armare l’Intelligenza Artificiale», mentre un altro ha dichiarato che l’uso del robot alla fine avrebbe portato a «poliziotti robot». «Ragazzi, non avete visto quel film I, Robot o Terminator?»
Ancora un altro cittadino ha affermato che il periodo di commento pubblico del consiglio comunale è stato “chiaramente performante”, accusando i legislatori locali di ignorare i desideri dei loro elettori.
«Dopo aver ascoltato i travolgenti commenti del pubblico, voti nella direzione opposta, New York City e San Francisco hanno già rifiutato questi cani robot. La polizia di Los Angeles non ha bisogno di armi militari», è stato uno dei commenti. In realtà, dopo tentennamenti, le altre città hanno implementato i «terminator dogs» nei loro programmi di forza dell’ordine.
La decisione di New York nel 2020 di impiegare il cane robotico, che il Distretto di polizia cittadino aveva soprannominato «Digidog», si era rivelata altrettanto controversa, tanto che la città aveva interrotto il suo primo contratto per l’affitto del dispositivo dopo che i newyorkesi hanno denunciato la tecnologia come orwelliana.
Tuttavia, l’amministrazione della Grande Mela in seguito ha invertito la rotta e rimettendo in pista il robocane poliziotto il mese scorso, con il commissario di polizia Keechant Sewell che ha affermato che sarebbe stato utilizzato in un modo «trasparente, coerente e sempre fatto in stretta collaborazione con le persone che serviamo».
The New York Police Department added a robot dog to hit force.
(Credit: Disclose) pic.twitter.com/JYAmlYLzag
— Apex World News (@apexworldnews) April 12, 2023
Come riportato da Renovatio 21, anche la vicina San Francisco ha persino preso in considerazione l’idea di consentire al suo dipartimento di polizia di utilizzare i robot dotati di forza letale in caso di emergenza.
Robocani sono utilizzati ai confini con il Messico. Tuttavia vi è polemica: c’è chi ritiene che il loro uso spaventa gli immigrati spingendoli verso sentieri dove poi incontrano la morte.
Come visto in immagini scioccanti della scorsa primavera, i robocani abbiano pattugliato le strade di Shanghai durante il colossale lockdown della primavera 2022, dove per sorvegliare e punire i 26 milioni di abitanti usarono, oltre agli androidi quadrupedi, anche droni che volevano tra i palazzi ripetendo frasi come «contieni la sete di libertà del tuo spirito».
Al Forum militare di Mosca dell’anno scorso di due mesi fa erano visibili robocani dotati di bazooka. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica».
Renovatio 21, oramai ribattezzabile come «L’Eco del robocane» vista la mole di articoli sull’argomento, aveva parlato della militarizzazione dei robocani più di un anno fa. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica».
In un ulteriore sviluppo inquietante, un team di ingegneri ha ben pensato di introdurre nella «mente» di un robocane ChatGPT.
Come riportato Renovatio 21, robocagnazzi sono stati mandati in giro pure per la campagna umbra.
Immagine screenshot da Telegram
-
Ambiente7 giorni fa
Alluvione, undici scienziati dimostrano che le inondazioni non sono correlate ai cambiamenti climatici
-
Pedofilia2 settimane fa
L’OMS spinge la «masturbazione della prima infanzia» e le domande sull’identità di genere per i bambini di 4 anni
-
Spirito2 settimane fa
La battaglia tra la stirpe di Cristo e quella di Satana, antichiesa e sinedrio globalista massonico. Omelia di mons. Viganò
-
Epidemie2 settimane fa
Epidemia di streptococco tra i bambini italiani. Gli antibiotici sembrano spariti: cosa sta succedendo?
-
Bioetica6 giorni fa
Verso la società della discriminazione genetica
-
Reazioni avverse1 settimana fa
Vaccino HPV, l’esperienza terrificante di Candace Owens
-
Geopolitica5 giorni fa
Zelen’skyj in esilio in Italia?
-
Internet7 giorni fa
YouTube censura l’omelia di Pasqua di monsignor Viganò