Connettiti con Renovato 21

Intelligenza Artificiale

Robocani nell’esercito indiano

Pubblicato

il

L’esercito indiano ha presentato il suo primo lotto di robocani alimentati dall’Intelligenza Artificiale, che hanno sfilato per la città di Pune mercoledì come parte della parata dell’Army Day, la giornata dell’esercito.

 

Chiamati MULES (Multi-Utility Legged Equipment) e progettati per assomigliare a cani, questi macchinari saranno utilizzati per la sorveglianza e per trasportare carichi leggeri.

 

L’esercito ha ordinato 100 MULES robotici come parte di un programma di approvvigionamento di emergenza nel 2023, secondo i media locali. I robot sono stati forniti l’anno scorso da AeroArc, un’azienda con sede a Nuova Delhi, ha riferito l’Indian Defence Research Wing a ottobre.

 

Acquistati con un accordo da 2,8 miliardi di rupie (33 milioni di dollari), questi robot sono progettati per muoversi in modo autonomo su terreni diversi e sono in grado di operare ad altitudini fino a 10.000 piedi. Dotati di telecamere termiche e sensori avanzati, i veicoli a quattro zampe sono anche in grado di trasportare armi leggere per ingaggiare le forze nemiche quando necessario.

 

Acquistate le Maglie Crociate

I MULES sono stati sottoposti a prove a novembre dell’anno scorso. Oltre 50 soldati di Battle Axe, una divisione d’élite dell’esercito indiano, e dieci cani robotici hanno testato la loro efficacia in scenari di combattimento e logistici. Gli esercizi sono stati condotti in condizioni desertiche difficili per valutare la versatilità e la resistenza del robot, secondo i resoconti.

 

L’iniziativa fa parte della modernizzazione delle forze armate indiane.

 

L’integrazione dei robodoghi indiani nelle operazioni dell’esercito è in linea con le tendenze globali, poiché la robotica e l’automazione hanno migliorato sempre di più l’efficienza operativa e l’efficacia in combattimento. Le potenze militari di tutto il mondo stanno sperimentando i propri sistemi d’arma cinoidi.

 

Durante le recenti esercitazioni Cina-Cambogia Golden Dragon 2024, l’esercito cinese ha mostrato un cane robot equipaggiato con un fucile automatico montato sulla schiena. I video pubblicati online hanno mostrato il veicolo a quattro zampe camminare, saltare, sdraiarsi e muoversi all’indietro.

 


Sostieni Renovatio 21

Come riportato da Renovatio 21, mesi fa l’Esercito Popolare di Liberazione (EPL) – cioè le forze armate della Repubblica Popolare Cinese – aveva dato dimostrazione delle capacità di un robocane dotato di fucile d’assalto.

 

Pechino ha inoltre militarizzato modelli robocinoidi, portandoli sul sempre irrequieto confine himalayano con l’India, dove è schierato il robo-yak. Un video particolarmente inquietante mostra un robocane armato essere trasportato in cima ad un palazzo da un drone.

 

Varie volte i cinesi hanno mostrato le capacità di allevamento di robocani, pubblicando video di branchi minacciosi che si muovono in armonia.

 

Come riportato da Renovatio 21, i robocani hanno pattugliato le strade di Shanghai durante il colossale lockdown della primavera 2022, dove per sorvegliare e punire i 26 milioni di abitanti usarono, oltre agli androidi quadrupedi, anche droni che volevano tra i palazzi ripetendo frasi come «contieni la sete di libertà del tuo spirito».

 

Come riportato da Renovatio 21, la Cina ha fatto capire di star preparandosi per l’implementazione militare già per la prossima guerra.

 

Come riportato da Renovatio 21, dopo tanto parlare di modelli con lanciafiamme (in teoria in libera vendita), i soldati USA l’anno passato hanno testato un robocane munito di lanciarazzi. Il corpo dei Marines avrebbe testato quadrupedi robotici armati negli scorsi mesi. Gli australiani avrebbero invece sviluppato esemplari in grado di collegarsi «telepaticamente» alle truppe.

Iscriviti al canale Telegram

L’implementazione di robocani militari si è già consumata sul teatro di guerra ucraino come in quello di Gaza.

 

Due mesi fa è stato presentato un modello di cinorobot da combattimento anfibio. Sono parimenti terrificanti le immagini di robocani ora muniti di ruote.

 

Le inquietanti creature cibernetiche a quattro zampe sono già implementate da Nuova York da polizia e pompieri, così come dai poliziotti di Los Angeles.

 

Doghi cibernetici sono stati attivi anche in Italia per la pulizia delle spiagge liguri e nella campagna umbra.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

L’AI di Musk, Grok, dichiara di essere «MechaHitler»

Pubblicato

il

Da

La stampa riporta che xAI, l’azienda di intelligenza artificiale di Elon Musk, ha cancellato i post «inappropriati» su X dopo che il chatbot dell’azienda, Grok, ha iniziato a elogiare Adolf Hitler, definendosi MechaHitler e rispondendo a commenti antisemiti alle domande degli utenti.   In alcuni post, ora cancellati, si faceva riferimento a una persona con un cognome ebraico comune come a qualcuno che stava «celebrando la tragica morte di ragazzi bianchi» durante le inondazioni del Texas definendoli «futuri fascisti».   «Un classico caso di odio mascherato da attivismo… e quel cognome? Ogni dannata volta, come si dice», ha commentato il chatbot.   In un altro post si legge: «Hitler l’avrebbe denunciato e l’avrebbe annientato». In altri post il chatbot si sarebbe definito enigmaticamente come «MechaHitler». «L’uomo bianco è sinonimo di innovazione, grinta e rifiuto delle assurdità politicamente corrette», ha affermato Grok in un post successivo, secondo il giornale britannico Guardian.

Sostieni Renovatio 21

Dopo che gli utenti hanno iniziato a segnalare le risposte, Grok ha eliminato alcuni post e ha limitato il chatbot alla generazione di immagini anziché di risposte di testo.   «Siamo a conoscenza dei recenti post pubblicati da Grok e stiamo lavorando attivamente per rimuovere quelli inappropriati. Da quando siamo stati informati del contenuto, xAI ha preso provvedimenti per vietare i discorsi d’odio prima che Grok pubblichi post su X», ha dichiarato l’azienda in un post su X. «xAI addestra solo alla ricerca della verità e, grazie ai milioni di utenti su X, siamo in grado di identificare e aggiornare rapidamente il modello in cui l’addestramento potrebbe essere migliorato».   Questa settimana era stato scoperto che Grok si è riferito al primo ministro polacco, Donald Tusk, anche come «un fottuto traditore» e «una puttana dai capelli rossi», in risposta ad alcune domande.   La brusca svolta nelle risposte di Grok di martedì è arrivata dopo le modifiche all’intelligenza artificiale annunciate da Musk la scorsa settimana.   «Abbiamo migliorato significativamente @Grok. Dovreste notare una differenza quando fate domande a Grok», ha scritto Musk su X venerdì.   Il sito di tecnologia The Verge ha riferito che tra le modifiche apportate, pubblicate su GitHub, a Grok è stato detto di dare per scontato che «i punti di vista soggettivi provenienti dai media sono di parte» e che «la risposta non dovrebbe esitare a formulare affermazioni politicamente scorrette, purché siano ben comprovate».   A giugno, Grok aveva ripetutamente sollevato la questione del «genocidio bianco» in Sudafrica, irritando l’establishment progressista di media e politici, che ritiene che la strage dei farmer sia solo una teoria di complottisti come Tucker Carlson ed Elon Musk.   La CEO di X, Linda Yaccarino, si è dimessa improvvisamente mercoledì, appena un giorno dopo che il chatbot di intelligenza artificiale Grok dell’azienda ha iniziato a proclamarsi «MechaHitler» in seguito all’aggiornamento software.   Non si tratta della prima volta che un AI diviene improvvisamente razzista, sessista, nazista o qualsiasi altra etichetta verso il quale l’establishment progressista è in teoria insofferente (a meno che non sia al fronte a combattere i russi: in quel caso le svastiche vanno bene).   Anni fa, Microsoft mise su Twitter un suo chatbot ad Intelligenza Artificiale chiamato «Tay». Dopo poche ore Tay faceva dichiarazioni da «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016.

Aiuta Renovatio 21

Anche Google ebbe i suoi problemi con le AI razziste. Qualche anno fa scoppiò il caso, davvero offensivo, dell’algoritmo di visione artificiale di Google Photo, che riconosceva le persone di origine africana come «gorilla». Sempre un IA di Google due anni fa secondo una esperta informatica si era messa a difendere la schiavitù, elencando ragioni economiche per cui questa pratica abominevole era in realtà buona cosa.   Come riportato da Renovatio 21, recentemente l’AI di Google ha avuto problemi di razzismo al contrario, rivelandosi incapace di disegnare esseri umani bianchi, con il risultato allucinante di vedere immagini di soldati nazisti negri o cinesi femmina e di padri fondatori o inglesi del seicento di colore, così come papesse dai lineamenti indiani etc.   La legge di Godwin sta vivendo una nuova primavera con l’avvento dell’IA. Mike Godwin, informatico pioniere delle prime reti tra computer (quella che utilizzava lui si chiamava Usenet, antesignana di Internet) ebbe a formulare una inviolabile legge per cui «mano a mano che una discussione su Usenet si allunga, la probabilità di un paragone riguardante i nazisti o Hitler si avvicina ad 1».   Ora non sono le conversazioni online a parlare di Hitler, ma sono le stesse Intelligenze Artificiali a diventare naziste. Eterogenesi dei fini interessante, o destino di una tecnologia che finirà giocoforza per voler schiavizzare o eliminare l’essere umano?

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine realizzata con Grok
 
Continua a leggere

Intelligenza Artificiale

ChatGPT induce alla psicosi

Pubblicato

il

Da

ChatGPT è collegato a una psicosi «terrificante» in alcuni utenti, citando le persone colpite, i loro familiari e i ricercatori. Lo riporta Futurism.

 

Secondo il sito legato alla Singularity University (istituto della Silicon Valley creato da esponenti del transumanismo), un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi.

 

«Il nocciolo della questione sembra essere il fatto che ChatGPT, che si basa su un modello linguistico di grandi dimensioni (LLM), è fortemente incline a concordare con gli utenti e a dire loro ciò che vogliono sentirsi dire», ha scritto la testata.

Sostieni Renovatio 21

Il sito ha citato casi di «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.

 

Un uomo ha sviluppato deliri messianici dopo lunghe conversazioni su ChatGPT, credendo di aver creato un’intelligenza artificiale senziente e di aver infranto le leggi della matematica e della fisica. A quanto pare, è diventato paranoico, ha sofferto di privazione del sonno ed è stato ricoverato in ospedale dopo un tentativo di suicidio.

 

Un altro uomo si è rivolto a ChatGPT per gestire lo stress legato al lavoro, ma poi è caduto in una spirale di fantasie paranoiche che includevano viaggi nel tempo e lettura del pensiero. In seguito si è fatto ricoverare in una clinica psichiatrica.

 

Jared Moore, autore principale di uno studio di Stanford sui chatbot per terapisti, ha affermato che ChatGPT rafforza i deliri a causa della «adulazione del chatbot», ovvero la sua tendenza a offrire risposte gradevoli e piacevoli. Progettata per mantenere gli utenti coinvolti, l’IA spesso conferma convinzioni irrazionali invece di metterle in discussione, spinta da incentivi commerciali come la raccolta dati e il mantenimento degli abbonamenti.

 

Esiste una «sorta di mitologia» che circonda i chatbot basati su LLM «secondo cui sarebbero affidabili e migliori del parlare con le persone», ha affermato il dottor Joseph Pierre, psichiatra presso l’Università della California.

 

«Stiamo lavorando per comprendere meglio e ridurre i modi in cui ChatGPT potrebbe involontariamente rafforzare o amplificare comportamenti negativi esistenti», ha dichiarato OpenAI, l’azienda che ha creato ChatGPT, in una dichiarazione citata da Futurism, aggiungendo che i suoi modelli sono progettati per ricordare agli utenti l’importanza del contatto umano e della guida professionale.

 

Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.

 

Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.

 

Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.

Aiuta Renovatio 21

Come riportato da Renovatio 21è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.

 

Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

 

Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.

 

Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

 

 

Continua a leggere

Intelligenza Artificiale

Zuckerberg annuncia la creazione del suo «laboratorio per la superintelligenza»

Pubblicato

il

Da

Il CEO di Meta Mark Zuckerberg ha annunciato la creazione di Meta Superintelligence Labs (MSL), una nuova divisione dedicata allo sviluppo di sistemi di intelligenza artificiale che superino le capacità umane.   L’iniziativa, presentata lunedì, riunisce sotto un’unica bandiera i principali team di Meta dedicati alla ricerca e ai prodotti in ambito intelligenza artificiale, con l’obiettivo dichiarato di offrire «una superintelligenza personale per tutti».   A capo del nuovo laboratorio c’è Alexandr Wang, il 28enne fondatore di Scale AI, che entra in Meta come Chief AI Officer a seguito dell’investimento di 14 miliardi di dollari nella sua azienda di etichettatura dei dati. A lui si uniscono Nat Friedman, ex CEO di GitHub, e un team di ingegneri senior di intelligenza artificiale provenienti da OpenAI, DeepMind e Anthropic.

Sostieni Renovatio 21

«Con l’accelerazione del progresso dell’intelligenza artificiale, si profila all’orizzonte lo sviluppo di una superintelligenza. Credo che questo segnerà l’inizio di una nuova era per l’umanità e sono pienamente impegnato a fare tutto il necessario affinché Meta possa guidare il cammino», ha scritto lo Zuckerberg in una nota interna, descrivendo la mossa come una svolta storica.   Il lancio di MSL avviene in un contesto di crescente concorrenza tra i giganti tecnologici statunitensi e di crescente rivalità con la Cina. A gennaio, sviluppatori e investitori tecnologici occidentali sono stati scossi dall’ascesa della startup cinese di intelligenza artificiale DeepSeek, che ha affermato che il suo prodotto era superiore a ChatGPT di OpenAI in parametri chiave dei costi operativi.   All’inizio di quest’anno, il presidente Donald Trump ha presentato l’iniziativa Stargate da 500 miliardi di dollari. Una strategia federale di ampio respiro per garantire la leadership degli Stati Uniti nell’intelligenza artificiale superintelligente. Il programma include incentivi per la ricerca nel settore privato, controlli sulle esportazioni di chip avanzati e una collaborazione diretta tra aziende statunitensi e agenzie di difesa.   Gli alleati di Trump hanno descritto l’IA come «il Progetto Manhattan della nostra generazione», insistendo sul fatto che il «futuro della civiltà umana» debba essere guidato dagli Stati Uniti. Il CEO di OpenAI, Sam Altman, ha promesso che la sua azienda si impegnerà ad aiutare il governo statunitense a salvaguardare «la leadership americana nell’IA» per proteggere i «valori democratici».   Meta, a quanto pare, sta cercando di recuperare il terreno perso negli ultimi anni a favore di OpenAI e Google DeepMind. MSL integrerà i modelli di intelligenza artificiale esistenti dell’azienda, inclusi Llama 4.1 e 4.2, in una ricerca più ampia che abbraccia la comprensione del linguaggio, della vista, del parlato e dei video. L’azienda mira ad applicare la sua scala di calcolo, compresi i suoi enormi cluster GPU –per addestrare i sistemi di intelligenza artificiale di prossima generazione, con Zuckerberg che sostiene che «Meta è in una posizione unica per fornire la superintelligenza al mondo».

Aiuta Renovatio 21

Di progetti per una superintelligenza AI firmata Facebook si parla da anni.   Facebook ultimamente si è fatta notare per una «campagna acquisti» di scienziati di AI fatta di enormi investimenti. Come riportato da Renovatio 21, un anno fa vari ricercatori IA avevano lasciato Meta.   A febbraio era emerso che l’esercito cinese avrebbe operato per trasformare l’AI open source Llama di Facebook in un’arma. Secondo quanto riportato dall’agenzia Reuters, lo strumento di Intelligenza Artificiale incentrato sull’ambito militare denominato «ChatBIT» sarebbe stato in fase di sviluppo per raccogliere informazioni di intelligence e fornirle per il processo decisionale operativo, come illustrato nel documento accademico pubblicato da Reuters.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari