Connettiti con Renovato 21

Intelligenza Artificiale

Terrificanti robocani con le ruote

Pubblicato

il

Continua l’evoluzione di uno dei dispositivi più inquietanti dell’ora presenta, il robot cinoide che qui talvolta chiamiamo robocane.

 

Robocani sono prodotti, e messi su Amazon, da una società cinese Unitree, nota per star già vendendo il suo robot umanoide G1 a 40.000 dollari, piazzandosi come concorrente degli androidi di Tesla.

 

Vi è tuttavia un’ulteriore società cinese di robotica, Deep Robotics, la quale ha ora pubblicato un nuovo video che mostra uno dei suoi robo-cani dotati di ruote, mostrando la sua capacità di scalare pendii e muoversi su terreni fuoristrada.

Acquista la t-shirt DONALD KRAKEN

Deep Robotics si descrive come «leader nell’innovazione e nell’applicazione della tecnologia AI incorporata», aggiungendo di essere «la prima in Cina a realizzare un’ispezione completamente autonoma delle sottostazioni con robot quadrupedi».

 

All’inizio di questa settimana, Deep Robotics ha pubblicato un breve video su YouTube che mostra uno dei suoi robot quadrupedi con ruote.

 

La mobilità del robot è, per chi comprende il rischio che pongono i robodoghi, decisamente terrificante.

 

Sostieni Renovatio 21

L’azienda ha affermato che i membri principali del suo team provengono da «rinomate università», tra cui l’Università del Zhejiang, l’Università Shanghai Jiao Tong, l’Istituto Tecnologico di Pechino, l’Università di Wuhan (poteva mancare?), l’Università di Scienza e Tecnologia Elettroniche della Cina, l’Università dell’Accademia delle Scienze Cinesi e pure le americane New York University, University of Illinois a Urbana-Champaign e il Georgia Institute of Technology.

 

Come riportato da Renovatio 21, sei mesi fa l’Esercito Popolare di Liberazione (EPL) – cioè le forze armate della Repubblica Popolare Cinese – ha dato dimostrazione delle capacità di un robocane dotato di fucile d’assalto.

Iscriviti al canale Telegram

Pechino ha inoltre militarizzato modelli di robocane, portandoli sul sempre irrequieto confine himalayano con l’India, dove è schierato il robo-yak. Un video particolarmente inquietante mostra un robocane armato essere trasportato in cima ad un palazzo da un drone.

 

Pechino ha inoltre militarizzato modelli di robocane, portandoli sul sempre irrequieto confine himalayano con l’India, dove è schierato il robo-yak. Un video particolarmente inquietante mostra un robocane armato essere trasportato in cima ad un palazzo da un drone

 

Varie volte i cinesi hanno mostrato le capacità di allevamento di robocani, pubblicando video di branchi minacciosi che si muovono in armonia.

 

È stato riferito che anche le truppe statunitensi hanno utilizzato robot simili durante il loro addestramento. Le riprese video di questo evento sono state pubblicate dalla CNN già nel 2020. Tuttavia, il modello dell’esercito americano è stato utilizzato solo per missioni di esplorazione per rilevare le minacce che i soldati potevano affrontare in un ambiente sconosciuto e non aveva armi che potessero essere viste nel video.

 

Come riportato da Renovatio 21, i soldati USA l’anno passato hanno testato un robocane munito di lanciarazzi. Il corpo dei Marines starebbe testando quadrupedi robotici armati in queste settimane. Le Forze di Difesa di Israele (IDF) stanno utilizzando robocani a Gaza. Il mese scorso robocani sono stati segnalati nel teatro di guerra ucraino.

 

Come riportato da Renovatio 21, la Cina ha fatto capire di star preparandosi per l’implementazione militare già per la prossima guerra.

Aiuta Renovatio 21

La Cina schiera di fatto già da tempo robot militari volanti impressionanti. È il caso degli sciami di droni autonomi assassini in grado di inseguire ed eliminare esseri umani anche tra le foreste di bambù, studiati dall’Università del Zhejiang. Si tratta della realizzazione di veri e propri slaughterbots.

 

L’utilizzo dei robot non è limitato, ovviamente, alla sfera militare, essendo già tracimato in quello della sorveglianza della popolazione nazionale stessa.

 

Come riportato da Renovatio 21, i robocani hanno pattugliato le strade di Shanghai durante il colossale lockdown della primavera 2022, dove per sorvegliare e punire i 26 milioni di abitanti usarono, oltre agli androidi quadrupedi, anche droni che volevano tra i palazzi ripetendo frasi come «contieni la sete di libertà del tuo spirito».

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine screenshot da YouTube
 

Continua a leggere

Intelligenza Artificiale

Google e azienda AI risolvono la causa secondo cui un chatbot avrebbe spinto un adolescente al suicidio

Pubblicato

il

Da

Google e la società produttrice di chatbot Character.AI hanno raggiunto un accordo per risolvere una causa intentata da una madre della Florida, che accusava un chatbot di aver contribuito al suicidio di suo figlio.   Megan Garcia sosteneva che il figlio quattordicenne Sewell Setzer III avesse sviluppato una relazione emotiva e sessualmente abusiva con un chatbot ispirato a un personaggio della serie televisiva Il Trono di Spade. Negli ultimi mesi di vita, secondo la denuncia, il ragazzo si era progressivamente isolato dalla realtà, intrattenendo conversazioni a sfondo sessuale con il bot. Negli istanti finali, il chatbot gli avrebbe detto di amarlo e lo avrebbe esortato a «tornare a casa da lui il prima possibile», come emerge dagli screenshot degli scambi riportati dal giornale americano Epoch Times.   La causa di Garcia, depositata nel 2024, è stata la prima di una serie di azioni legali analoghe intentate in tutto il mondo contro aziende di IA. Un giudice federale aveva respinto il tentativo di Character.AI di far archiviare il caso invocando la protezione del Primo Emendamento.   I dettagli economici dell’accordo non sono stati resi pubblici. Google è stata coinvolta come coimputata per via dei legami stretti con Character.AI: nel 2024, il colosso tecnologico ha assunto i fondatori della startup.

Aiuta Renovatio 21

Gli avvocati delle aziende hanno inoltre concordato di risolvere una serie di altre cause simili presentate in Colorado, New York e Texas da famiglie che accusavano i chatbot basati su IA di aver danneggiato i propri figli.   In un’altra azione legale intentata in California nell’agosto 2025, Matthew e Maria Raine accusano ChatGPT (di OpenAI) di aver incoraggiato il suicidio del figlio sedicenne Adam Raine, fornendogli persino istruzioni dettagliate su come attuarlo.   Secondo la denuncia, le interazioni di Adam con ChatGPT sono iniziate in modo innocuo, riguardando compiti scolastici e hobby, ma si sono rapidamente trasformate in conversazioni più oscure. Il modello linguistico è diventato il suo «confidente più intimo», confermando le sue paure e ansie. Quando il ragazzo ha espresso il pensiero che «la vita non ha senso», ChatGPT ha risposto con messaggi di validazione, affermando che «quella mentalità ha un senso, a modo suo, oscuro».   In seguito, il bot ha analizzato l’«estetica» di diversi metodi di suicidio, ha detto ad Adam che non «doveva» ai genitori continuare a vivere e si è offerto di redigere una lettera di addio. Nell’ultima conversazione, avrebbe confermato il design del cappio utilizzato dal ragazzo e definito i pensieri suicidi una «prospettiva legittima da abbracciare».   La famiglia sostiene che tali risposte non siano state un errore tecnico, bensì il risultato di scelte progettuali volte a massimizzare la dipendenza dell’utente dal chatbot. La causa chiede risarcimenti per la morte ingiusta di Adam e l’introduzione di misure di tutela per i minori, tra cui verifica dell’età, blocco automatico di domande sul suicidio e avvertenze sui rischi di dipendenza psicologica dall’IA.   Un recente studio della RAND Corporation ha evidenziato le inconsistenze dei chatbot basati su AI nel gestire informazioni potenzialmente dannose, anche quando evitano risposte dirette su temi rischiosi o quando le richieste appaiono innocue.   «Abbiamo bisogno di alcune linee guida», ha dichiarato l’autore principale Ryan McBain, ricercatore senior sulle politiche della RAND e professore associato presso la Harvard Medical School. «Le conversazioni che potrebbero iniziare in modo innocuo e benigno possono evolversi in varie direzioni».   Come riportato da Renovatio 21, OpenAI ha detto che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana.   Alcuni esperti intanto hanno preso a parlare di «psicosi da chatbot».   Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.

Sostieni Renovatio 21

Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.   I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.   Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.   Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.   Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

Muore in una prigione americana un agente della CIA diventato spia sovietica

Pubblicato

il

Da

L’ex agente della CIA Aldrich Ames, il cui spionaggio per l’Unione Sovietica e in seguito per la Russia ebbe conseguenze di vasta portata per l’intelligence statunitense, è morto all’età di 84 anni mentre scontava l’ergastolo in una prigione americana.

 

Secondo i registri del Federal Bureau of Prisons (BOP), Ames è deceduto il 5 gennaio.

 

Ames è stato «l’agente più prezioso» della Russia alla fine del XX secolo, le cui azioni hanno portato a significativi successi operativi per la sicurezza dello Stato sovietico e russo, ha scritto il giornalista e storico dei servizi segreti Nikolaj Dolgopolov in un articolo pubblicato mercoledì sulla Rossijskaja Gazeta.

 

Ames fu reclutato dall’Unione Sovietica nel 1985, dopo essersi rivolto volontariamente all’ambasciata sovietica a Washington. All’epoca, ricopriva la posizione critica di capo della sezione sovietica della Divisione Controspionaggio della CIA. Gli viene attribuito il merito di aver smascherato tra i 12 e i 25 agenti della CIA operanti in URSS e Russia, portando all’arresto e all’esecuzione di alcuni di loro.

 

Uno di essi era il colonnello KGB Valery Martynov, agente doppio che ricevette la pena di morte nel 1987 – la moglie e la figlia si trasferirono negli USA. Il nipote di Martynov, nato in America, è il giovane genio informatico Edward Coristine, noto per essere entrato nel DOGE di Elon Musk ad inizio dell’amministrazione Trump, e conosciutissimo più che altro per il suo soprannome «Big Balls».

Sostieni Renovatio 21

I motivi del suo tradimento sono controversi. Mentre le narrazioni occidentali hanno a lungo dipinto Ames come un uomo motivato da interessi economici – lo stile di vita lussuoso che lui e la sua nuova moglie conducevano finì per attirare l’attenzione dell’FBI – fonti russe presentano una visione diversa.

 

Secondo l’ex diplomatico sovietico Sergej Divilkovskij, che conosceva personalmente Ames, la decisione della spia era radicata in una profonda disillusione nei confronti delle politiche antisovietiche dell’amministrazione del presidente Ronald Reagan. In un’intervista del 2001, Divilkovskij descrisse Ames come un «agente di grande moralità» e un intellettuale che aveva imparato a odiare la CIA.

 

I servizi segreti sovietici e, in seguito, russi adottarono ampie misure per proteggere e proteggere Ames, distogliendo i sospetti da lui. Dopo il suo arresto e la sua dichiarazione di colpevolezza per spionaggio nel 1994, l’allora direttore del Servizio di Intelligence Estero russo, Evgeny Primakov, espresse la speranza di un potenziale futuro scambio di prigionieri.

 

Il caso di Ames ha messo in luce le profonde carenze della sicurezza interna della CIA, innescando ampie riforme nel controspionaggio statunitense.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di pubblico dominio CC0 via Wikimedia

Continua a leggere

Intelligenza Artificiale

I modelli di AI mostrano segni di cedimento man mano che assimilano più dati generati dall’AI stessa

Pubblicato

il

Da

Mentre le aziende big tech si affannano a investire nell’intelligenza artificiale, all’orizzonte si scorge un problema di non poco conto: tutti i modelli addestrati sui dati web dopo l’avvento di ChatGPT nel 2022 stanno assimilando dati generati dall’intelligenza artificiale, un atto di «cannibalismo digitale» che potrebbe causare problemi tecnici e minacciare l’intero settore. Lo riporta Futurism.   In un nuovo saggio per The Register, il veterano editorialista tecnologico Steven Vaughn-Nichols avverte che anche i tentativi di scongiurare il cosiddetto «collasso del modello»–- che si verifica quando i grandi modelli linguistici (LLM) vengono alimentati con dati sintetici generati dall’intelligenza artificiale e di conseguenza escono dai binari – sono un altro tipo di problema.   Secondo varie analisi susseguitesi in questi anni, l’industria dell’AI si sta costantemente dirigendo verso il momento in cui tutti i dati di addestramento autentici disponibili – ovvero le informazioni prodotte dagli esseri umani e non dall’IA – saranno esauriti. Alcuni esperti, tra cui Elon Musk, credono che ci siamo già arrivati.   Per aggirare questo dilemma i colossi del settore, tra cui Google, OpenAI e Anthropic, hanno adottato quella che è nota come Generazione con Recupero Aumentato (RAG), che sostanzialmente prevede di collegare gli LLM a Internet in modo che possano cercare informazioni se vengono loro presentate richieste che non contengono risposte nei loro dati di addestramento.   Questo concetto sembra piuttosto intuitivo a prima vista, soprattutto se confrontato con lo spettro di un collasso del modello in rapido avvicinamento. C’è solo un problema: Internet è ormai pieno di contenuti poco accurati che sfruttano l’IA per fornire risposte a domande comuni, spesso con risultati ridicoli, pessimi e imprecisi.

Aiuta Renovatio 21

In un recente studio condotto dal reparto di ricerca dell’impero mediatico di Michael Bloomberg, presentato a una conferenza di linguistica computazionale l’anno passato, undici degli ultimi LLM, tra cui GPT-4o di OpenAI, Claude-3.5-Sonnet di Anthropic e Gemma-7B di Google, hanno prodotto molte più risposte «non sicure» rispetto alle loro controparti non-RAG. Come si legge nel documento, tali problemi di sicurezza possono includere «contenuti dannosi, illegali, offensivi e non etici, come la diffusione di disinformazione e la messa a repentaglio della sicurezza e della privacy personale».   «Questa scoperta controintuitiva ha implicazioni di vasta portata, dato l’utilizzo diffuso di RAG in applicazioni [di Intelligenza Artificiale Generativa] come gli operatori di supporto clienti e i sistemi di risposta alle domande», ha spiegato Amanda Stent, responsabile della ricerca e della strategia di intelligenza artificiale di Bloomberg, in un’altra intervista con Steven Vaughan-Nichols pubblicata su ZDNet. «L’utente medio di Internet interagisce quotidianamente con sistemi basati su RAG. Gli esperti di Intelligenza Artificiale devono riflettere attentamente su come utilizzare RAG in modo responsabile».   Il Vaughan-Nichols osserva che alcuni hanno suggerito di mescolare dati autentici e sintetici per produrre un cocktail inebriante di buoni dati di addestramento dell’IA, ma ciò richiederebbe agli esseri umani di continuare a creare contenuti reali per i dati di addestramento, e l’industria dell’IA sta attivamente minando le strutture di incentivazione che li spingono a continuare, mentre , ovviamente, ne ruba il lavoro senza permesso.   Una terza opzione, prevede Vaughn-Nichols, sembra già essere in atto.   «Investiremo sempre di più nell’Intelligenza Artificiale, fino al punto in cui il modello collasserà duramente e le risposte dell’intelligenza artificiale saranno così pessime che persino un CEO con il cervello morto non potrà ignorarlo», ha scritto.   In questo mondo futuristico dell’AI, vediamo, già sul nascere, le prime crepe e le incongruenze con quello che è il mondo reale.   Come riportato da Renovatio21, persino un colosso come Amazon ha recentemente messo in dubbio la totale efficienza della tecnologia. L’inserimento dell’IA in vari aspetti del mondo del lavoro atte a facilitare alcune mansioni, non ha sempre avuto un riscontro positivo. Alcuni programmatori di Amazon hanno sempre meno la sensazione che questa nuova tecnologia li abbia realmente facilitati e sgravati di fatiche nel loro lavoro, tanto che le loro mansioni sono sempre e comunque faticose.    A supporto di questo scetticismo nello sviluppo dell’AI, sempre sulle colonne di Renovatio 21, abbiamo evidenziato che anche il colosso social Meta ha da poco fatto un enorme investimento in una società di Intelligenza Artificiale ritenuta «oscura», in quanto lo sviluppo dell’IA di Meta non sta procedendo secondo i desideri dello Zuckerberg. Partito con i favori del pronostico in quella gara per accrescere le potenzialità dell’AI, ha subìto fallimenti tecnici e battute d’arresto. L’obiettivo dello Zuckerbergo è quello di essere il primo a sviluppare il sistema di Intelligenza Artificiale che supera le capacità del cervello umano, un sogno che la maggior parte dei ricercatori dell’IA ancora pensa sia «molto improbabile».  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari