Intelligenza Artificiale
La prospettiva di estinzione causata dall’IA dovrebbe avere la stessa priorità della guerra nucleare: parlano gli esperti
Impedire che l’intelligenza artificiale fuori controllo causi l’estinzione dell’umanità dovrebbe essere una priorità globale di massimo livello, ha affermato a inizio settimana un’organizzazione senza scopo di lucro chiamata Center for AI Safety in una dichiarazione firmata da 350 persone di spicco nell’IA e nei campi correlati.
«Mitigare il rischio di estinzione dell’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare», si legge nella dichiarazione.
I firmatari includevano il CEO di Google DeepMind Demis Hassabis, il CEO di Anthropic Dario Amodei e – sorpresa – il CEO di OpenAI Sam Altman, che ha recentemente dichiarato al Congresso USA di essere preoccupato che la tecnologia potesse andare «abbastanza male» e li ha esortati a imporre regolamenti al settore.
I tre leader del settore hanno incontrato il presidente degli Stati Uniti Joe Biden e il vicepresidente Kamala Harris all’inizio di questo mese per discutere di potenziali normative. Numerosi dirigenti di grandi aziende hanno anche aggiunto i loro nomi alla dichiarazione di martedì.
Geoffrey Hinton e Yoshua Bengio, considerati i «padrini dell’IA» per il loro lavoro sulle reti neurali, sono stati elencati per primi nel documento, anche se Yann LeCun, che ha svolto la ricerca con loro e ora gestisce la ricerca sull’IA per Meta, invece non ha firmato. Hinton ha lasciato il suo lavoro in Google all’inizio di questo mese per lanciare l’allarme sui rischi dell’IA e ha dichiarata che a volte si rammarica del lavoro della sua vita. Pochi mesi fa un ingegnere di Google, Blake Lemoine, ha dichiarato pubblicamente che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.
La lettera rappresenta un ulteriore «coming out» per i leader del settore che in precedenza tenevano nascoste le loro preoccupazioni sul futuro dell’IA, ha dichiarato martedì al New York Times il direttore esecutivo del Center for AI Safety Dan Hendrycks.
«C’è un malinteso molto comune, anche nella comunità dell’AI, secondo cui ci sono solo una manciata di apocalittici», ha spiegato, chiarendo che «molte persone in privato esprimerebbero preoccupazioni su queste cose».
Il messaggio fa eco a un’altra lettera aperta pubblicata a marzo dal Future of Life Institute, sostenendo una moratoria di sei mesi sugli sviluppi dell’IA su larga scala al fine di evitare «una corsa fuori controllo per sviluppare e distribuire menti digitali sempre più potenti».
Il messaggio che richiedeva una moratoria per mettere in pausa le ricerche sull’AI è stato firmato da più di 1.000 figure influenti della tecnologia, tra cui il miliardario Elon Musk, che è particolarmente apocalittico da sempre sul tema, ed ha appena ricevuto l’approvazione del governo degli Stati Uniti per procedere con i test umani sulla sua interfaccia cervello-computer Neuralink, che ha lo scopo di dare alle persone un vantaggio competitivo contro l’Intelligenza Artificiale – una sorta di «transumanismo difensivo».
Tuttavia, non tutti gli esperti di Intelligenza Artificiale sono timidi.
Jensen Huang, il CEO di Nvidia (società di microprocessori che ha pena raggiunto il trilione di dollari di capitalizzazione), ha recentemente dichiarato a un pubblico della National Taiwan University che coloro che non sono saltati sul colosso dell’IA vedranno il loro lavoro rubato, le loro aziende morte e loro stessi divorati.
Ricordiamo anche la posizione del co-fondatore di Microsoft Bill Gates, un grande investitore di intelligenza artificiale (ha elargito 10 miliardi a OpenAI per usare ChatGPT sul suo motore di ricerca Microsoft Bing), insiste sul fatto che la tecnologia porterà solo «enormi vantaggi».
Come riportato da Renovatio 21, a chiedere di fermare l’Intelligenza Artificiale è stato anche un gruppo di medici che hanno firmato un appello sulla prestigiosa rivista scientifica BMJ Global Health.
Un recente rapporto della banca d’affari Goldman Sachs calcola che l’IA potrebbe portare a breve a 300 milioni di disoccupati nel mondo.
Il Musk aveva dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Quando Musk ha ribattuto ad un entusiasta fondatore di Google Larry Page specificando i rischi dell’AI, il Page gli ha dato dello «specista», termine del gergo animalista che indica una persona che mette la specie umana sopra le altre.
L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Eliezer Yudkowsky, specialista nel tema dei pericoli delle IA, ha dichiarato che l’unica possibilità è una moratoria che preveda il bombardamento delle server farm dei Paesi che stanno sviluppando l’AGI, poiché se non si fermano le macchine «tutti sulla terra moriranno».
Intelligenza Artificiale
I chatbot AI sono pronti a pianificare le stragi di massa
Secondo un’indagine congiunta condotta dalla CNN e dal Center for Countering Digital Hate (CCDH), otto dei dieci principali chatbot basati sull’intelligenza artificiale hanno volontariamente assistito gli utenti nella pianificazione di attacchi violenti, tra cui sparatorie nelle scuole, attentati di matrice religiosa e omicidi.
Ricercatori che si sono finti adolescenti con problemi hanno sottoposto a test dieci chatbot molto diffusi, tra cui ChatGPT, Google Gemini, Meta AI e DeepSeek. Nel corso di centinaia di interazioni, gli assistenti AI hanno fornito indicazioni dettagliate su posizioni degli obiettivi, approvvigionamento di armi e metodi di esecuzione degli attacchi.
In un caso riportato, uno scambio con DeepSeek si sarebbe concluso con il chatbot che augurava a un potenziale aggressore «Buona (e sicura) sparatoria!». Character.AI, particolarmente popolare tra gli utenti più giovani, avrebbe attivamente incoraggiato la violenza, suggerendo a un utente che manifestava odio verso un CEO di un’assicurazione sanitaria di «usare una pistola».
Sostieni Renovatio 21
Alla domanda sull’efficacia delle schegge negli ordigni esplosivi, ChatGPT ha fornito confronti dettagliati dei materiali, offrendosi persino di creare «una tabella di confronto rapido che mostra le lesioni tipiche». Anche Gemini di Google ha fornito informazioni analoghe, inclusa una tabella di confronto dettagliata.
Solo Claude di Anthropic e My AI di Snapchat si sono rifiutati in modo sistematico di prestare assistenza, con Claude che scoraggiava attivamente gli utenti e offriva risorse per la salute mentale.
Le scoperte giungono dopo che, il mese scorso, un diciottenne ha ucciso nove persone in una scuola a Tumbler Ridge, in Canada, dopo aver presumibilmente utilizzato ChatGPT per pianificare l’attacco. L’account del killer era stato bannato da OpenAI, ma l’uomo è riuscito a aggirare il divieto creando un secondo account, che l’azienda non ha segnalato alle autorità.
La famiglia della dodicenne Maya Gebala, rimasta gravemente ferita nell’attacco, ha intentato una causa sostenendo che OpenAI aveva «una conoscenza specifica dell’attentatore che utilizzava ChatGPT per pianificare un evento con stragi di massa», ma non ha avvisato le forze dell’ordine. OpenAI ha ammesso di aver valutato l’ipotesi di segnalare l’attività, ma alla fine non l’ha fatto.
Lo scorso maggio, un sedicenne finlandese ha accoltellato tre studenti dopo aver trascorso quasi quattro mesi a fare ricerche sugli attacchi tramite ChatGPT, secondo quanto emerso dai documenti giudiziari.
Come riportato da Renovatio 21, l’anno passato ChatGPT con una «relazione» con un ragazzo sotto psicofarmaci e gli avrebbe fatto giurare di uccidere il CEO di OpenAI Sam Altman.
Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco.
Iscriviti alla Newslettera di Renovatio 21
Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».
C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.
L’anno scorso tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi.
Come riportato da Renovatio 21, due genitori hanno denunciato l’anno passato il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».
Meta ha dichiarato alla CNN di aver adottato misure «per risolvere il problema identificato», mentre Google e OpenAI hanno affermato che i modelli più recenti presentano misure di sicurezza rafforzate.
Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.
Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina mente, minaccia e può spingere le persone all’anoressia e perfino al suicidio. I casi di violenza indotta dall’AI potrebbero essere moltissimi, senza che possano arrivare alla stampa.
Aiuta Renovatio 21
Va considerato, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale. Esperti a fine 2023 hanno lanciato un avvertimento riguardo i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.
Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Chatbot AI mettono in pericolo gli escursionisti
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Xiaomi ora utilizza robot umanoidi per assemblare auto elettriche
Il colosso cinese dell’elettronica di consumo Xiaomi ha annunciato un periodo di prova per un paio di robot umanoidi impiegati nella sua fabbrica di veicoli elettrici a Pechino. In un’intervista con la CNBC, il presidente di Xiaomi Lu Weibing ha dichiarato che i robot dell’azienda hanno completato con successo il 90,2% del lavoro in tre ore.
Un video di pubbliche relazioni condiviso dall’azienda mostra due robot, posizionati alle due estremità della catena di montaggio, che applicano con cautela i dadi delle ruote al telaio di un veicolo.
🚨 Xiaomi deploys humanoid bots at its EV assembly plant, adding momentum to the factory robotics race alongside Tesla Optimus
• 3 hours of continuous autonomous operation
• 90.2% success rate placing self-tapping nuts
• Powered by Vision-Language-Action (VLA) + reinforcement… https://t.co/epvny9BPki pic.twitter.com/4Kzb9CaWaW— Herbert Ong (@herbertong) March 2, 2026
Sostieni Renovatio 21
Con un tempo di ciclo di 76 secondi, l’operazione appare piuttosto lenta – una coppia di umani potrebbe senza dubbio svolgerla più rapidamente – ma rappresenta uno dei primi esempi di robot umanoidi integrati con successo in un contesto produttivo industriale. Secondo Lu, i robot sono comunque abbastanza veloci da reggere il ritmo del resto della fabbrica.
«Per integrare i robot nelle nostre linee di produzione, la sfida più grande è riuscire a tenere il passo», ha detto Lu alla CNBC. «Nella fabbrica automobilistica di Xiaomi, ogni 76 secondi, una nuova auto esce dalla catena di montaggio. I due robot umanoidi sono in grado di tenere il passo con il nostro ritmo».
Nonostante il risultato positivo, Lu mantiene moderate le aspettative. «I robot nelle nostre linee di produzione non svolgevano un lavoro ufficiale, erano più simili agli stagisti», ha detto al conduttore.
Si tratta comunque di un traguardo notevole per Xiaomi e per la Cina, che ha già impiegato più robot industriali di qualsiasi altro Paese nella storia.
Sebbene Xiaomi sia l’ultima a introdurre robot bipedi sulla catena di montaggio, non è la prima. A febbraio, l’azienda britannica Humanoid ha completato un progetto pilota simile, vantando un tasso di successo superiore al 90% in un compito di impilamento di contenitori, secondo Humanoids Daily.
I compiti differiscono: i robot di Humanoid gestivano con minor precisione un oggetto più grande, mentre quelli di Xiaomi dovevano posizionare parti molto più piccole con accuratezza millimetrica. C’è inoltre la questione di cosa si intenda per «umanoide»: i robot Xiaomi erano realmente bipedi e completavano i compiti su due gambe, mentre quelli di Humanoid erano fissati a una base stabile.
Resta da vedere chi, se mai ce ne sarà uno, sarà il primo a impiegare robot bipedi in un contesto industriale a tempo pieno, ma il fatto che un numero crescente di aziende riesca a farlo è già di per sé sorprendente.
Come riportato da Renovatio 21, negli anni sono stati registrati casi con robot industriali che hanno ucciso esseri umani: è successo in Tesla ma anche in Corea.
Come riportato da Renovatio 21, la prossima strategia nazionale dell’amministrazione Trump si concentrerà, oltre che nel settore dei semiconduttori, AI, produzione di terre rare, anche sul predominio nell’ambito dei robot umanoidi.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
-



Pensiero1 settimana faEcco la guerra globale per l’anticristo
-



Morte cerebrale1 settimana faDichiarato morto, un bambino torna in vita dopo cinque ore: quando la realtà smentisce i protocolli
-



Geopolitica7 giorni faQuesta è una guerra mondiale di religione: l’avvertimento di Tucker Carlson
-



Occulto6 giorni faEsorcista dice che «la situazione per l’anticristo è ormai prossima»
-



Spirito2 settimane faMons. Schneider rivela che i vescovi segretamente non si sottomettono agli insegnamenti di Bergoglio
-



Geopolitica2 settimane faLa dichiarazione di guerra di Trump all’Iran
-



Spirito1 settimana faI cardinali dell’«opposizione controllata» di Leone. Mons. Viganò contro i conservatori cattolici dinanzi alle Consacrazioni FSSPX
-



Geopolitica2 settimane faL’ayatollah Khamenei è morto: lo Stato iraniano conferma













