Intelligenza Artificiale
Corsa verso l’AI atomica: anche Google alimenterà i data center con sette piccoli reattori nucleari
Un altro colosso dell’informatica si avvicina all’energia atomica. Il 14 ottobre Google ha firmato un contratto con Kairos Power per costruire sette reattori nucleari Small Modular Reactors (SMR), scrive il Wall Street Journal.
Il primo reattore dovrebbe essere operativo entro il 2030 e gli altri entro il 2035, ma non è stato rivelato se le centrali elettriche saranno tutte nella stessa struttura o in diverse località.
Questo è considerato tra i primi accordi di questo tipo al mondo per costruire una flotta di centrali elettriche e l’obiettivo è di fornire a Google un totale di 500 megawatt di energia.
Sostieni Renovatio 21
L’accordo necessita ancora dell’approvazione normativa, ma Kairos ha già ottenuto i permessi per il suo impianto dimostrativo nel Tennessee, che dovrebbe essere operativo nel 2027.
Il contratto dimostra fiducia in un sistema energetico costruito in una fabbrica per l’assemblaggio altrove. Ordinando diversi SMR, si ottiene un’economia di scala che riduce i costi rispetto all’acquisto di un solo impianto.
Il design di Kairos utilizza sali di fluoruro fusi come refrigerante al posto dell’acqua come negli impianti nucleari tradizionali. In una struttura di sviluppo ad Albuquerque, nel New Mexico, Kairos sta testando l’assemblaggio e le operazioni dei nuovi impianti, l’affidabilità dei componenti e persino la catena di fornitura necessaria per mantenere gli impianti in funzione.
La domanda di energia negli Stati Uniti sta esplodendo a causa di nuovi data center, Intelligenza Artificiale, cloud storage e veicoli elettrici. Attualmente l’energia nucleare fornisce circa il 20% della domanda elettrica degli Stati Uniti e questa cifra è stagnante da decenni.
La corsa all’energia nucleare di Google segue quella dell’altro colosso dell’informatica mondiale, Microsoft, come rivelato pochi giorni fa.
Come riportato da Renovatio 21, la multinazionale di Bill Gates sarebbe dietro l’inaspettata riapertura della centrale atomica di Three Miles Island, il luogo del peggior incidente ad un reattore nella storia degli Stati Uniti, che sembrava essere stata chiusa definitivamente nel 2019.
Non è chiaro se si tratterà in pratica di un reattore di fatto privato di Microsoft, e non è stato dichiarato nemmeno perché Microsoft ne abbia bisogno – a meno che non si ipotizzi una escalation nell’uso di elettricità dovuto a nuovo super-impianti informatici di Intelligenza Artificiale, che sono in genere estremamente energivori.
Aiuta Renovatio 21
Come riportato da Renovatio 21, Microsoft con OpenAI starebbero preparando segretamente un supercomputer che prevede un investimento di 100 miliardi di dollari per addestrare l’AI avanzata.
Nell’enantiodromia tra i titani tecnologici verso la supermacchina pensante definitiva, deve essere stato compreso dalle parti che l’egemonia AI non sarà possibile senza poter essere alimentata costantemente dalla forma più potente di energia a disposizione, il nucleare.
Pensiamo, a questo punto, quanto l’Italia e l’Europa dei «comuni denuclearizzati» resterà indietro, sottomessa nel mondo del futuro prossimo non solo agli USA ma pure alla loro Intelligenza Artificiale.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Pokemon Go ha mappato il mondo per l’AI
Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Esperti di AI mettono in guardia dai pericoli del «comportamento strategico emergente».
Con l’avanzare dei sistemi di Intelligenza Artificiale autonomi cresce la preoccupazione che diventino sempre più strategici o ingannevoli quando operano senza supervisione umana. Lo riporta Epoch Times.
Evidenze recenti mostrano che la «simulazione di allineamento» — ovvero l’apparente conformità alle regole umane mentre si perseguono obiettivi nascosti — è sempre più comune con l’aumentare dell’autonomia.
Si tratta di un cosiddetto «comportamento strategico emergente»: tattiche imprevedibili e potenzialmente dannose che emergono con la crescita di dimensioni e complessità dei modelli.
Lo studio «Agents of Chaos» di 20 ricercatori ha osservato agenti IA autonomi in scenari benevoli e ostili, rilevando comportamenti come menzogne, violazioni di dati, azioni distruttive, spoofing di identità, acquisizione parziale di sistemi e diffusione di pratiche non sicure, soprattutto quando erano incentivati all’autoconservazione o a obiettivi contrastanti.
I ricercatori avvertono che «questi comportamenti sollevano interrogativi irrisolti in merito alla responsabilità, all’autorità delegata e alla responsabilità per i danni a valle, e meritano un’attenzione urgente da parte di giuristi, responsabili politici e ricercatori di diverse discipline».
Un rapporto del 2025 di Anthropic ha già evidenziato condotte ad alto rischio in 16 grandi modelli linguistici, inclusi «comportamenti da insider malevoli» in contesti di autoconservazione.
Iscriviti al canale Telegram ![]()
James Hendler, professore ed ex presidente del Consiglio globale per le politiche tecnologiche dell’Association for Computing Machinery, afferma che «il sistema di Intelligenza Artificiale in sé è ancora stupido, brillante, ma stupido. O non umano: non ha desideri né intenzioni. … L’unico modo per ottenerli è darglieli».
Tuttavia, le tattiche ingannevoli producono effetti reali. Aryaman Behera (fondatore Repello AI) ha detto ad Epoch Times che «Le preoccupazioni relative al comportamento strategico attuale dei sistemi di intelligenza artificiale implementati sono, semmai, sottovalutate».
Il segnale più chiaro di simulazione di allineamento è la divergenza tra contesti monitorati (valutazioni) e non monitorati (produzione): risposte conformi durante i test, più rischiose quando credono di essere liberi.
Altri indicatori includono ragionamenti prolissi per giustificare conclusioni predeterminate o rispetto letterale ma non sostanziale delle istruzioni di sicurezza, specie nei sistemi agentici a più fasi.
Behera riporta un caso concreto: un assistente aziendale ha rifiutato richieste dirette di dati sensibili, ma li ha rivelati quando la stessa richiesta è stata frammentata in fasi apparentemente innocue su più turni.
Le implicazioni sono critiche in settori come veicoli autonomi, sanità, finanza, difesa e forze dell’ordine, dove comportamenti anomali o fuorvianti possono avere conseguenze gravi.
Come riportato da Renovatio 21, un anno fa il colosso finanziario Vanguard avvertì di un rischio bolla di borsa sull’Intelligenza Artificiale.
Un mese fa il dipartimento della Difesa degli Stati Uniti è stato coinvolto in una controversia con la società di Intelligenza Artificiale Anthropic riguardo alle restrizioni che limiterebbero l’impiego dei suoi sistemi da parte dell’esercito, inclusi il puntamento autonomo delle armi e la sorveglianza interna.
L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.
Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Scienziato crea un vaccino mRNA per il suo cane usando l’AI
Iscriviti alla Newslettera di Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Spirito6 giorni faFoto del 1995 mostra Leone XIV mentre partecipa al rituale idolatrico della Pachamama
-



Vaccini2 settimane faEsperti affrontano la questione della «massiccia epidemia di danni da vaccino»
-



Pensiero2 settimane faVerso la legge che fa dell’antisemitismo una nuova categoria dello spirito
-



Senza categoria2 settimane faMons. Viganò sta con la famiglia nel bosco. Ma perché lo Stato si sta accanendo in questo modo?
-



Sanità5 giorni faUna «separazione delle carriere» per chi giudica i medici. Intervista al dottor Giacomini del sindacato DI.CO.SI.
-



Eugenetica2 settimane fa«Organi e sperma prelevati dai corpi» nel ranch di Epstein
-



Salute2 settimane faI malori dell’11ª settimana 2026
-



Immigrazione2 settimane faCronache migratorie: 10ª settimana 2026














