Connettiti con Renovato 21

Intelligenza Artificiale

Corsa verso l’AI atomica: anche Google alimenterà i data center con sette piccoli reattori nucleari

Pubblicato

il

Un altro colosso dell’informatica si avvicina all’energia atomica. Il 14 ottobre Google ha firmato un contratto con Kairos Power per costruire sette reattori nucleari Small Modular Reactors (SMR), scrive il Wall Street Journal.

 

Il primo reattore dovrebbe essere operativo entro il 2030 e gli altri entro il 2035, ma non è stato rivelato se le centrali elettriche saranno tutte nella stessa struttura o in diverse località.

 

Questo è considerato tra i primi accordi di questo tipo al mondo per costruire una flotta di centrali elettriche e l’obiettivo è di fornire a Google un totale di 500 megawatt di energia.

Sostieni Renovatio 21

L’accordo necessita ancora dell’approvazione normativa, ma Kairos ha già ottenuto i permessi per il suo impianto dimostrativo nel Tennessee, che dovrebbe essere operativo nel 2027.

 

Il contratto dimostra fiducia in un sistema energetico costruito in una fabbrica per l’assemblaggio altrove. Ordinando diversi SMR, si ottiene un’economia di scala che riduce i costi rispetto all’acquisto di un solo impianto.

 

Il design di Kairos utilizza sali di fluoruro fusi come refrigerante al posto dell’acqua come negli impianti nucleari tradizionali. In una struttura di sviluppo ad Albuquerque, nel New Mexico, Kairos sta testando l’assemblaggio e le operazioni dei nuovi impianti, l’affidabilità dei componenti e persino la catena di fornitura necessaria per mantenere gli impianti in funzione.

 

La domanda di energia negli Stati Uniti sta esplodendo a causa di nuovi data center, Intelligenza Artificiale, cloud storage e veicoli elettrici. Attualmente l’energia nucleare fornisce circa il 20% della domanda elettrica degli Stati Uniti e questa cifra è stagnante da decenni.

 

La corsa all’energia nucleare di Google segue quella dell’altro colosso dell’informatica mondiale, Microsoft, come rivelato pochi giorni fa.

 

Come riportato da Renovatio 21, la multinazionale di Bill Gates sarebbe dietro l’inaspettata riapertura della centrale atomica di Three Miles Island, il luogo del peggior incidente ad un reattore nella storia degli Stati Uniti, che sembrava essere stata chiusa definitivamente nel 2019.

 

Non è chiaro se si tratterà in pratica di un reattore di fatto privato di Microsoft, e non è stato dichiarato nemmeno perché Microsoft ne abbia bisogno – a meno che non si ipotizzi una escalation nell’uso di elettricità dovuto a nuovo super-impianti informatici di Intelligenza Artificiale, che sono in genere estremamente energivori.

Aiuta Renovatio 21

Come riportato da Renovatio 21, Microsoft con OpenAI starebbero preparando segretamente un supercomputer che prevede un investimento di 100 miliardi di dollari per addestrare l’AI avanzata.

 

Nell’enantiodromia tra i titani tecnologici verso la supermacchina pensante definitiva, deve essere stato compreso dalle parti che l’egemonia AI non sarà possibile senza poter essere alimentata costantemente dalla forma più potente di energia a disposizione, il nucleare.

 

Pensiamo, a questo punto, quanto l’Italia e l’Europa dei «comuni denuclearizzati» resterà indietro, sottomessa nel mondo del futuro prossimo non solo agli USA ma pure alla loro Intelligenza Artificiale.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Intelligenza Artificiale

Il Pentagono potrebbe punire l’IA Anthropic per essersi rifiutato di modificare il codice etico

Pubblicato

il

Da

Il dipartimento della Guerra degli Stati Uniti è prossimo a interrompere i rapporti con Anthropic, principale partner nel settore dell’intelligenza artificiale e sviluppatore del modello Claude, designandolo come un rischio per la filiera della fornitura americana. Lo riporta Axios, citando un funzionario del Pentagono. Tale classificazione è solitamente riservata a entità legate a stati considerati da Washington come avversari stranieri.   Secondo le informazioni riportate, il laboratorio con sede a San Francisco è in contrasto da mesi con il governo statunitense a causa della sua politica che restringe l’uso militare della propria tecnologia. Mentre il Pentagono ha insistito affinché l’azienda permettesse l’impiego di Claude per «tutti gli scopi legittimi», il protocollo etico di Anthropic vieta che la sua tecnologia venga usata per «facilitare la violenza, sviluppare armi o condurre attività di sorveglianza».   «Sarà una vera rottura di scatole districarci e faremo in modo che paghino il prezzo per averci forzato la mano in questo modo», ha dichiarato ad Axios un funzionario del Pentagono rimasto anonimo.   Claude rappresenta attualmente l’unico modello di AI in uso sulle piattaforme classificate dell’esercito, grazie a una collaborazione con Palantir Technologies, colosso del software di analisi e sorveglianza finanziato da Peter Thiel, venture capitalist ora molto discusso per le sue visioni sul futuro e sull’anticristo nonché per i suoi legami con la politica, in particolare con il vicepresidente JD Vance che fu suo dipendente in Silicon Valley.   Un eventuale inserimento nella lista nera obbligherebbe i contractor del Pentagono a dimostrare di non impiegare la tecnologia di Anthropic, con il rischio di perdere i contratti in caso contrario.   Il portavoce del Pentagono Sean Parnell ha affermato ad Axios che il rapporto tra il dipartimento e Anthropic «è in fase di revisione».

Sostieni Renovatio 21

«Tutti i partner del Pentagono devono essere disposti ad aiutare i nostri combattenti a vincere qualsiasi battaglia», ha aggiunto Parnell. Un portavoce di Anthropic ha dichiarato alla testata che l’azienda ha avuto «conversazioni produttive» con il dipartimento.   Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.   La scorsa settimana, Axios e il Wall Street Journal hanno riferito che Claude è stato impiegato sia per organizzare il raid sia per portarlo a termine, sebbene il suo ruolo preciso resti poco chiaro. Le accuse sono emerse dopo che l’azienda ha trascorso settimane a promuovere le proprie politiche di sicurezza e a presentarsi come l’opzione più attenta alla sicurezza nell’ambito dell’intelligenza artificiale.   Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.   Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».   Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.   Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.   La scorsa settimana Mrinank Sharma, l fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

Bill Gates non va al vertice indiano sull’AI per le ricadute dei documenti di Epstein

Pubblicato

il

Da

Bill Gates si è ritirato dal discorso principale all’AI Impact Summit in India, a causa delle crescenti pressioni sui suoi legami con il defunto molestatore sessuale Jeffrey Epstein.

 

Gates era arrivato in India qualche giorno prima del suo intervento programmato e aveva incontrato alti funzionari eletti nello stato dell’Andhra Pradesh per discutere dei progetti portati avanti dalla sua fondazione.

 

Martedì hanno iniziato a circolare voci secondo cui non avrebbe preso la parola all’evento, spingendo la Fondazione Gates a insistere affinché il miliardario, che ha divorziato in seguito alla sua rivelazione come stretto confidente di Epstein, partecipasse e tenesse il discorso al summit.

 

Tuttavia, la fondazione ha successivamente ritrattato tale dichiarazione. «Dopo un’attenta valutazione, e per garantire che l’attenzione rimanga sulle priorità chiave dell’AI Summit, il signor Gates non terrà il suo discorso principale», ha dichiarato giovedì la fondazione.

Sostieni Renovatio 21

Le accuse secondo cui Epstein sapeva che Gates aveva nascosto una malattia sessualmente trasmissibile alla sua allora moglie sono emerse dagli ultimi file di Epstein, una serie di 3 milioni di pagine di documenti, migliaia di video e 180.000 immagini della famiglia Epstein, pubblicati dal Dipartimento di Giustizia degli Stati Uniti.

 

I documenti rivelano gli stretti rapporti tra il famigerato faccendiere pedofilo e importanti figure politiciche, imprenditoriali e tecnologici, tra cui l’ex ambasciatore britannico negli Stati Uniti Peter Mandelson, Bill Clinton e lo stesso Gates. Un portavoce di Gates ha definito le affermazioni contenute nei documenti «assolutamente assurde e completamente false». Il miliardario ha affermato di «rimpiangere» di aver conosciuto Epstein.

 

«Ogni minuto che ho trascorso con lui, me ne pento», ha detto Gates al canale australiano 9 News all’inizio di questo mese.

 

Ankur Vora, presidente delle sedi in Africa e India della Fondazione Gates, ha preso il posto del miliardario al summit.

 

La Fondazione Gates ha dichiarato di investire massicciamente nell’Intelligenza Srtificiale per migliorare la salute, l’istruzione e lo sviluppo a livello globale, concentrandosi sull’equità nei Paesi a basso e medio reddito. L’obiettivo è aiutare gli operatori sanitari e ridurre la povertà.

 

La notizia del discorso di apertura di Gates al Delhi AI Summit ha scatenato l’ira di diversi politici dell’opposizione e attivisti sociali indiani. È stato inoltre accusato di usare l’India come «laboratorio» per le sue ricerche in corso – come noto, gruppi di avvocati accusano Gates per la catastrofe vaccinale del siero HPV, che ha creato numeri immani di danni sulle ragazzine indiane.

 

Come riportato da Renovatio 21, dai carteggi degli Epstein files sta emergendo che Epstein si stava adoperando per un piano che avrebbe fatto ottenere «più soldi» per i vaccini di Gates. Del coinvolgimento dei due in progetti di vaccinazione universale si era già parlato anni fa.

 

È parimenti emerso che Gates ed Epstein hanno finanziato un portale di ricerca nel tentativo di controllare il dibattito scientifico. Un’altra figura centrale nel controllo del discorso pandemico, l’architetto della lista nera della disinformazione Tim Allan, si è dimesso dal governo britannico a seguito dei legami saltati fuori con lo Epsteino.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di © European Union, 1998 – 2026 via Wikimedia pubblicata secondo indicazioni; immagini tagliata.

Continua a leggere

Intelligenza Artificiale

Il Pentagono ha utilizzato Claude AI per rapire Maduro

Pubblicato

il

Da

L’esercito statunitense ha fatto attivamente ricorso al modello di Intelligenza Artificiale Claude di Anthropic nel corso dell’operazione volta a catturare il presidente venezuelano Nicolás Maduro il mese scorso, evidenziando che la tecnologia dell’azienda ha svolto un ruolo diretto nel raid condotto all’estero. Lo hanno riportato le testate statunitensi Axios e dal Wall Street Journal.   Claude è stato impiegato durante l’operazione stessa, e non solo nelle fasi di pianificazione, hanno riferito venerdì Axios e il WSJ. Il ruolo preciso rimane poco definito, benché l’esercito abbia già utilizzato modelli di intelligenza artificiale per l’analisi di immagini satellitari e dati di intelligence in tempo reale.   Le politiche di utilizzo del laboratorio di intelligenza artificiale con sede a San Francisco vietano espressamente che la sua tecnologia venga impiegata per «facilitare la violenza, sviluppare armi o condurre attività di sorveglianza». Nessun cittadino americano ha perso la vita durante il raid, ma decine di soldati e membri del personale di sicurezza venezuelani e cubani sono stati uccisi il 3 gennaio.   «Non possiamo dire se Claude, o qualsiasi altro modello di intelligenza artificiale, sia stato utilizzato per operazioni specifiche, classificate o meno», ha dichiarato un portavoce di Anthropic ad Axios. «Qualsiasi utilizzo di Claude, sia nel settore privato che in ambito governativo, è soggetto alle nostre Norme di Utilizzo».

Sostieni Renovatio 21

I concorrenti di Anthropic, tra cui OpenAI, Google e xAI di Elon Musk, hanno tutti stipulato accordi che assicurano al Pentagono l’accesso ai loro modelli senza molte delle restrizioni imposte agli utenti ordinari. Tuttavia, solo Claude viene impiegato, attraverso una partnership con Palantir Technologies, sulle piattaforme classificate destinate alle attività più sensibili dell’esercito statunitense.   La notizia emerge in un momento delicato per l’azienda, che nelle scorse settimane ha ribadito pubblicamente il proprio impegno verso le misure di sicurezza nell’Intelligenza Artificiale e si è presentata come un’alternativa responsabile e attenta alla sicurezza nel panorama dell’IA.   Il CEO Dario Amodei ha messo in guardia dai rischi esistenziali derivanti da un utilizzo incontrollato dell’IA. Lunedì il responsabile del Safeguards Research Team di Anthropic, Mrinank Sharma, si è dimesso improvvisamente lasciando un avvertimento criptico: «Il mondo è in pericolo». Pochi giorni dopo, l’azienda ha stanziato 20 milioni di dollari in un gruppo di pressione politica a favore di una regolamentazione solida dell’IA.   Anthropic starebbe negoziando con il Pentagono per allentare le limitazioni sull’uso dell’IA nel puntamento autonomo di armi e nella sorveglianza interna. Lo stallo ha bloccato un contratto da 200 milioni di dollari, con il segretario alla Difesa Pete Hegseth che ha dichiarato di non voler utilizzare modelli che «non permettono di combattere guerre».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
     
Continua a leggere

Più popolari