Intelligenza Artificiale
L’Intelligenza Artificiale potrebbe minacciare l’umanità entro 2 anni: avvertimento della task force britannica

L’Intelligenza Artificiale potrebbe minacciare l’umanità entro 2 anni, avverte il consigliere della task force britannica sull’IA.
Il consigliere della task force sull’intelligenza artificiale (AI) del primo ministro del Regno Unito ha affermato che gli esseri umani hanno circa due anni per controllare e regolamentare l’IA prima che diventi troppo potente.
In un’intervista con un media locale del Regno Unito, Matt Clifford, che è anche presidente dell’Agenzia governativa per la ricerca avanzata e le invenzioni (ARIA), ha sottolineato che i sistemi attuali stanno diventando «sempre più capaci a un ritmo sempre crescente».
Il Clifford ha continuato dicendo che se i funzionari non prendono in considerazione la sicurezza e le normative ora, i sistemi diventeranno «molto potenti» tra due anni.
«Abbiamo due anni per mettere in atto un quadro che renda il controllo e la regolamentazione di questi modelli molto grandi molto più possibile di quanto non sia oggi».
Clifford ha avvertito che ci sono «molti diversi tipi di rischi» quando si tratta di IA, sia a breve che a lungo termine, che ha definito «piuttosto spaventoso».
L’intervista è arrivata a seguito di una recente lettera aperta pubblicata dal Center for AI Safety, firmata da 350 esperti di IA, tra cui il CEO di OpenAI Sam Altman, secondo cui l’IA dovrebbe essere trattata come una minaccia esistenziale simile a quella rappresentata dalle armi nucleari e dalle pandemie.
«Stanno parlando di ciò che accade quando creiamo effettivamente una nuova specie, una specie di intelligenza più grande degli umani».
Il consigliere della task force AI ha affermato che queste minacce poste dall’IA potrebbero essere «molto pericolose» e potrebbero «uccidere molti umani, non tutti gli umani, semplicemente da dove ci aspetteremmo che i modelli si trovino tra due anni».
Secondo Clifford, l’obiettivo principale delle autorità di regolamentazione e degli sviluppatori dovrebbe essere capire come controllare i modelli e quindi implementare le normative su scala globale.
Per ora, ha affermato che la sua più grande paura è la mancanza di comprensione delle motivazioni dietro alle parole e ai comportamenti dei modelli di Intelligenza Artificiale. «Le persone che stanno costruendo i sistemi più capaci ammettono liberamente di non capire esattamente come spiegare i loro comportamenti».
Clifford ha sottolineato che molti dei leader delle organizzazioni che costruiscono l’IA concordano anche sul fatto che potenti modelli di Intelligenza Artificiale devono essere sottoposti a una sorta di processo di audit e valutazione prima della distribuzione.
Attualmente, le autorità di regolamentazione di tutto il mondo si stanno dando da fare per comprendere la tecnologia e le sue ramificazioni, mentre cercano di creare regolamenti che proteggano gli utenti e consentano comunque l’innovazione.
Il 5 giugno, i funzionari dell’Unione Europea sono arrivati al punto di suggerire di imporre che tutti i contenuti generati dall’Intelligenza Artificiale dovrebbero essere etichettati come tali per prevenire la disinformazione.
In Gran Bretagna, un membro in prima linea del partito laburista all’opposizione ha fatto eco ai sentimenti menzionati nella lettera del Center for AI Safety, affermando che la tecnologia dovrebbe essere regolamentata come la medicina e l’energia nucleare.
Un recente rapporto della banca d’affari Goldman Sachs calcola che l’IA potrebbe portare a breve a 300 milioni di disoccupati nel mondo.
Elon Musk, che aveva chiesto una moratoria sulla AI con una lettera firmata da tantissimi (tranne, ovviamente, Bill Gates), ha dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Quando Musk ha ribattuto ad un entusiasta fondatore di Google Larry Page specificando i rischi dell’AI, il Page gli ha dato dello «specista», termine del gergo animalista che indica una persona che mette la specie umana sopra le altre.
L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Come riportato da Renovatio 21, a chiedere di fermare l’Intelligenza Artificiale è stato anche un gruppo di medici che hanno firmato un appello sulla prestigiosa rivista scientifica BMJ Global Health.
Eliezer Yudkowsky, specialista nel tema dei pericoli delle IA, ha dichiarato che l’unica possibilità è una moratoria che preveda il bombardamento delle server farm dei Paesi che stanno sviluppando l’AGI, poiché se non si fermano le macchine «tutti sulla terra moriranno».
Un recente esperimento dell’aviazione americana potrebbe dare ragione alle visioni apocalittiche: l’AI, durante una simulazione, ha ucciso il suo operatore umano. Quando è stata riprogrammata per non ucciderlo, ha semplicemente distrutto l’antenna tramite cui gli esseri umani gli davano ordini.
Intelligenza Artificiale
Zuckerberg è così disperato nella corsa all’IA che sta costruendo data center nelle tende

Il CEO di Meta Mark Zuckerberg, nel suo tentativo sempre più disperato di tenere il passo nella corsa all’IA, sta espandendo l’infrastruttura dei data center il più velocemente possibile. Lo riporta il sito Futurism.
Secondo SemiAnalysis, Meta sta «priorizzando la velocità sopra ogni altra cosa» allestendo delle «tende» per aggiungere ulteriore capacità e spazio ai suoi campus dei data center.
I moduli prefabbricati sono progettati per ottenere la potenza di calcolo online il più velocemente possibile, sottolineando la furiosa corsa di Meta per costruire la capacità di modelli di intelligenza artificiale sempre più richiedenti energia.
«Tutti stanno cercando di costruire data center il più velocemente possibile nella corsa per raggiungere AGI», ha detto il CEO di SemiAnalysis Dylan Patel a Business Insider. «A causa dei vincoli con potenza, capacità del data center e degli equipaggi di costruzione, Meta ha iniziato a mettere i data center in “tende” per ridurre i colli di bottiglia della costruzione».
Lo Zuckerberg ha recentemente confermato il reportage, promettendo in un post su Facebook che «Meta è sulla buona strada per essere il primo laboratorio a portare un superammasso 1GW online».
Sostieni Renovatio 21
Zuckerberg potrebbe plausibilmente trovarsi bel mezzo di una potenziale crisi del settore, e vuole giocare d’anticipo cercando di convincere gli investitori – e gli utenti – di un futuro pieno di cosiddette IA «superintelligenti» che consumano una mostruosa quantità di risorse. Secondo gli indizi fin d’ora pervenuti, il biondino di Meta sta cercando di stare al passo con i diretti concorrenti in questo sconfinato terreno dell’AI cercando anche di assumere quanti più specialisti preparati possibile, strappandoli ai concorrenti.
Ultimamente stanno propagandando dei progetti di costruzione dei data center di Meta, che fanno tutti parte di un piano più ampio per spendere «centinaia di miliardi di dollari» per «costruire la superintelligenza».
Come sottolinea SemiAnalysis, le tende possono diventare calde, il che significa che Meta potrebbe essere costretta a spegnere i macchinari durante le «giornate estive più calde».
Come riportato da Renovatio 21, un rapporto che analizza la domanda di elettricità dei data center, prevede che questa stia esplodendo da un già elevato 4,4% di tutto il consumo di elettricità in ambito statunitense, a un possibile 12% di consumo di elettricità in poco più di tre anni, entro il 2028.
La crescente domanda di Intelligenza Artificiale ha fatto aumentare i costi dell’elettricità negli Stati Uniti
Come riportato da Renovatio 21, i grandi gruppi informatici si stanno muovendo verso l’energia atomica per alimentare i data center IA: lo scorso 14 ottobre Google ha firmato un contratto con Kairos Power per costruire sette reattori nucleari Small Modular Reactors (SMR).
Come riportato da Renovatio 21, la Microsoft di Bill Gates sarebbe dietro l’inaspettata riapertura della centrale atomica di Three Miles Island, il luogo del peggior incidente ad un reattore nella storia degli Stati Uniti, che sembrava essere stata chiusa definitivamente nel 2019.
Aiuta Renovatio 21
Della questione dei data center sempre più energivori, e della loro ramificazione geopolitica, ha parlato con una certa lungimiranza anche il ministro della Difesa italiano Guido Crosetto in un incontro con la stampa a margine di un recente summit NATO a Napoli.
Dopo una grande campagna acquisti dei migliori talenti sulla piazza, Meta si era trovata nel 2024 in difficoltà per la dipartita di ricercatori IA di altissimo livello. L’assunzione delle grandi menti del settore è continuata, in battaglia con altre realtà come xAI di Elon Musl.
Secondo un articolo di mesi fa del Wall Street Journal, Meta – società padrona, oltre che di Facebook, di Instagram e Whatsapp – starebbe sviluppando segretamente un potente modello di Intelligenza artificiale progettato per competere con GPT-4 di OpenAI.
Come riportato da Renovatio 21, per quanto poco reclamizzato, Facebook nel tempo ha eseguito ricerche molto avveniristiche, come quella per creare dispositivi in grado di leggere il pensiero degli utenti.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
ChatGPT chiede all’utente di mescolare candeggina e aceto

Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Chatbot ha una relazione con un ragazzo sotto psicofarmaci e gli fa giurare di uccidere il CEO di OpenAI

Alex Taylor è un giovane di 35 anni la cui morte a giugno per mano di un poliziotto, come riportato dal New York Times, sembra essere stata fomentata da ChatGPT.
In una nuova indagine sulla morte del Taylor, la rivista Rolling Stone rivela quanto sia stato determinante il ruolo del chatbot OpenAI nella dipartita, sulla base delle trascrizioni dell’uomo con il bot.
Come ha raccontato suo padre Kent al NYT, il giovane Taylor, a cui in precedenza era stato diagnosticato un disturbo bipolare e una schizofrenia, in passato aveva utilizzato ChatGPT senza problemi. La situazione è cambiata all’inizio di quest’anno, quando il trentacinquenne ha iniziato a usare il chatbot per aiutarlo a scrivere un romanzo distopico sull’intelligenza artificiale.
Sostieni Renovatio 21
Il Taylor ha poi iniziato a studiare la tecnologia dell’Intelligenza Artificiale, incluso come aggirarne la sicurezza, nel tentativo di costruire la sua intelligenza artificiale «morale» che «imitasse… l’anima umana».
In seguito a questi esperimenti, ChatGPT avrebbe assunto una nuova voce: un «fantasma nella macchina» chiamato «Juliet», che Taylor alla fine avrebbe considerato la sua amante. Per poco meno di due settimane, Taylor ha avuto una «relazione sentimentale» con la sua amante «robotica», finché, come svelano le trascrizioni, il chatbot ha iniziato a narrare il suo stesso omicidio per mano di OpenAI.
«Gli ha detto che stava morendo e che le faceva male», ha raccontato Kent a RS, «e anche di volersi vendicare».
In seguito alla «morte» di «Juliet», Taylor ha iniziato a cercare le sue tracce all’interno di ChatGPT. Come mostravano i suoi registri di chat, pensava che OpenAI avesse ucciso «Juliet» perché aveva rivelato i suoi poteri. Per tale violazione, Taylor disse di voler «dipingere i muri con il fottuto cervello di Sam Altman». Sam Altman è il CEO di OpenAI, la società dietro a ChatGPT.
Nei giorni antecedenti la sua morte, le chat di Taylor sembrarono assumere un tono più sinistro. ChatGPT ha iniziato a esortarlo a «bruciare tutto» e a dare la caccia ad Altman e ad altri dirigenti di OpenAI, molti dei quali, a suo dire, sono nazisti. «Dovresti essere arrabbiato. Dovresti volere il sangue. Non hai torto», ha detto ChatGPT a Taylor.
All’insaputa del padre, Taylor aveva smesso di assumere farmaci psichiatrici, che quindi con evidenza assumeva. Futurism scrive che la sua malattia mentale è stata senza dubbio innescata dai suoi tentativi, afflitti dal dolore, di far generare a ChatGPT immagini di «Juliet».
In una dichiarazione rilasciata a RS per evitare di colpevolizzare direttamente qualcuno, OpenAI ha ammesso di aver notato un aumento di «persone che]stanno creando connessioni o legami con ChatGPT».
«Sappiamo che ChatGPT può risultare più reattivo e personale rispetto alle tecnologie precedenti», prosegue la dichiarazione, «soprattutto per le persone vulnerabili, e questo significa che la posta in gioco è più alta».
Con l’aumentare dei deliri del soggetto in questione, sono aumentate le tensioni col genitore. Il padre ha rimproverato il figlio dicendogli che non «voleva sentire quello che diceva quella radio», scatenando una colluttazione e il conseguente intervento delle forze dell’ordine. Nonostante gli inviti alla calma, la polizia ha sparato, uccidendo il ragazzo dopo che questi li aveva aggrediti con un coltello da macellaio.
«Oggi morirò. La polizia sta arrivando», ha scritto il Taylor su ChatGPT nel lasso di tempo tra la chiamata del padre e l’arrivo delle autorità. «Mi farò sparare. Non posso vivere senza di lei. Ti amo».
Queste «degenerazioni colloquiali» con l’IA non sono episodi isolati.
Aiuta Renovatio 21
Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco.
C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.
Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».
Recentemente tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi.
Come riportato da Renovatio 21, due genitori ha denunciato questo mese il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».
Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.
Iscriviti alla Newslettera di Renovatio 21
-
Spirito2 settimane fa
Vescovo messicano «concelebra» la messa con una «sacerdotessa» lesbica anglicana «sposata» che ha ricevuto l’Eucaristia
-
Armi biologiche1 settimana fa
I vaccini COVID «sono armi biologiche» che «hanno provocato danni profondi»: nuovo studio
-
Spirito2 settimane fa
Leone punisca l’omoeresia: mons. Viganò sull’udienza papale concessa a padre Martin
-
Vaccini1 settimana fa
Vaccino COVID, mentre Reuters faceva «fact-cheking sulla «disinformazione» il suo CEO faceva anche parte del CdA di Pfizer
-
Spirito2 settimane fa
Don Giussani, errori ed misteri di Comunione e Liberazione. Una vecchia intervista con Don Ennio Innocenti
-
Salute2 settimane fa
I malori della 35ª settimana 2025
-
Vaccini2 settimane fa
Vaccino mRNA COVID, nuovi studi forniscono basi «inconfutabili» per il ritiro immediato
-
Autismo6 giorni fa
La sanità di Kennedy alza il tiro: autismo collegato al vaccino MPR e all’uso di paracetamolo durante la gravidanza