Connettiti con Renovato 21

Intelligenza Artificiale

L’Intelligenza Artificiale alimenta l’aumento dei prezzi dell’energia

Pubblicato

il

La crescente domanda di Intelligenza Artificiale ha fatto aumentare i costi dell’elettricità negli Stati Uniti. Lo riporta il Financial Times, citando PJM, il più grande gestore di rete del Paese. L’impennata è in contrasto con l’impegno del presidente Donald Trump di fornire energia più accessibile alle famiglie americane.

 

Il consumo di energia è spinto al rialzo dai data center AI ad alto consumo energetico, soprattutto nel «corridoio dei data center» della Virginia. In particolare, la domanda di elaborazione basata sull’intelligenza artificiale è esplosa da quando ChatGPT è diventato un nome familiare, esercitando una pressione crescente sulla rete. Gli esperti affermano che il boom, insieme ai ritardi nei nuovi progetti energetici e alla chiusura di impianti più vecchi, sta costringendo le aziende di servizi pubblici a investire massicciamente nelle infrastrutture.

 

La rete PJM, che serve 65 milioni di persone in 13 stati e Washington DC, ha dichiarato martedì che pagherà ai produttori di energia 16,1 miliardi di dollari per soddisfare la domanda prevista tra la metà del 2026 e la metà del 2027, con un aumento del 10% rispetto allo scorso anno. Si prevede che i clienti vedranno aumentare le bollette fino al 5%.

Sostieni Renovatio 21

La pressione è un duro colpo per la promessa ripetuta di Trump di dimezzare le bollette energetiche domestiche. I dati del dipartimento del Lavoro mostrano che i prezzi dell’elettricità sono aumentati del 5,6% nell’ultimo anno, mentre l’inflazione complessiva si è attestata al 2,7%.

 

«È spiacevole per i contribuenti», ha detto al FT Timothy Fox di ClearView Energy Partners, aggiungendo che «i prezzi d’asta più alti si tradurranno in bollette più salate per i clienti».

 

PJM ha introdotto un tetto massimo dopo l’impennata dei prezzi dell’800% dello scorso anno. L’asta stabilisce i pagamenti ai produttori per la fornitura di energia durante i picchi di domanda, contribuendo a evitare blackout. Tuttavia, il risultato di quest’anno si è comunque attestato vicino al tetto massimo, superando i 329 dollari per megawatt al giorno.

 

L’aumento dei costi si aggiunge alla pressione inflazionistica derivante dalle politiche dello stesso Trump, tra cui i dazi globali e il suo cosiddetto disegno di legge sulle infrastrutture «grandi e belle», che hanno aggravato il peso sulle famiglie americane.

 

Gli analisti avvertono che la crisi energetica si intensificherà. PJM prevede un aumento della domanda di 32 gigawatt entro il 2030, quasi interamente proveniente dai data center. Giganti della tecnologia come Amazon stanno già setacciando la rete alla ricerca di capacità extra, contribuendo a far salire ulteriormente i prezzi.

 

Come riportato da Renovatio 21, i grandi gruppi informatici si stanno muovendo verso l’energia atomica per alimentare i data center IA: lo scorso 14 ottobre Google ha firmato un contratto con Kairos Power per costruire sette reattori nucleari Small Modular Reactors (SMR).

 

Come riportato da Renovatio 21, la Microsoft di Bill Gates sarebbe dietro l’inaspettata riapertura della centrale atomica di Three Miles Island, il luogo del peggior incidente ad un reattore nella storia degli Stati Uniti, che sembrava essere stata chiusa definitivamente nel 2019.

 

Un rapporto del Berkeley Lab uscito a gennaio che analizza la domanda di elettricità dei data center, prevede che questa stia esplodendo da un già elevato 4,4% di tutto il consumo di elettricità in ambito statunitense, a un possibile 12% di consumo di elettricità in poco più di tre anni, entro il 2028.

 

Della questione dei data center sempre più energivori, e della loro ramificazione geopolitica, ha parlato con una certa lungimiranza anche il ministro della Difesa italiano Guido Crosetto in un incontro con la stampa a margine di un recente summit NATO a Napoli.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

L’AI di Google si rifiuta di giocare a scacchi contro l’Atari del 1977

Pubblicato

il

Da

Una console da gioco uscita quasi cinquant’anni fa pare stia intimorendo l’Intelligenza Artificiale più avanzata.   Qualche mese fa l’iconico sistema di gioco di decadi fa Atari 2600 ha messo in imbarazzo l’industria dell’IA dopo aver completamente surclassato ChatGPT in una semplice partita a scacchi.   Si è trattato stato uno scontro tra una macchina concepita nel 1977, con 128 byte di RAM, e un modello di linguaggio di grandi dimensioni all’avanguardia con migliaia di miliardi di parametri, alimentato da migliaia di schede grafiche e miliardi di dollari di finanziamenti Microsoft. Nonostante tutta questa potenza, il più debole e anziano ha avuto la meglio in questo duello.  

Aiuta Renovatio 21

Il modello di OpenAI, «ha commesso così tanti errori da essere deriso da un club di scacchi di terza elementare».   A quanto pare, la notizia delle imprese dell’Atari è arrivata anche agli altri modelli di intelligenza artificiale. Robert Caruso, l’ingegnere informatico che ha orchestrato la sfida a scacchi, ha dichiarato a The Register che il chatbot Gemini di Google ha rifiutato categoricamente di sfidare l’Atari, dopo aver parlato a lungo di come avrebbe facilmente annientato la vecchia macchina. Ha persino inventato una scusa fasulla per salvare la faccia.   «Annullare la partita è probabilmente la decisione più sensata e veloce», ha affermato Gemini, secondo il Caruso.   A dire il vero, l’IA sta mettendo in pratica un vecchio adagio da stratega: non puoi perdere se non giochi, scrive Futurism. Tuttavia si tratta di una motivazione completamente diversa da quella inizialmente adottata dall’IA. Il suo primo istinto è stato quello di vantarsi di non essere un «semplice modello linguistico di grandi dimensioni», paragonandosi a un moderno motore scacchistico «che può pensare milioni di mosse in anticipo e valutare infinite posizioni».   Ironicamente, Gemini ha linkato articoli sulla vittoria dell’Atari sui suoi simili di OpenAI per dimostrare la sua tesi. Il Caruso ha detto all’IA di essere stato lui a condurre quei test, e Gemini ha risposto chiedendogli se qualcosa degli incontri di scacchi lo avesse colpito.   Caruso ha detto all’IA, secondo quanto riportato da The Register: «Ciò che salta all’occhio è la fiducia mal riposta di entrambe le IA. Entrambe avevano previsto vittorie facili, e ora hai appena detto che avresti dominato l’Atari».   Gemini si è ritirata all’istante dopo aver affermato di aver «allucinato» le sue vanterie scacchistiche, ha ammesso che avrebbe «combattuto immensamente» contro il vecchio Atari. A quel punto ha affermato evasivamente che annullare la partita sarebbe stata la soluzione più «efficiente in termini di tempo».    E così, l’Atari ha sconfitto l’ennesimo modello di AI multimiliardario senza dover muovere un dito. Tale è il terrore che incute.   Certo, sarebbe negligente attribuire effettivamente sentimenti umani a una macchina, che si tratti di un’IA moderna o di un Atari d’epoca. Quello che stiamo osservando è probabilmente un tira e molla tra le misure di sicurezza dell’IA e la sua sconsiderata propensione alle allucinazioni, per non parlare delle infinite fesserie. Anche i chatbot AI tendono a essere molto adulatori, quindi quando un essere umano fornisce un feedback, tenderà ad assecondarlo e ad adattare le sue risposte per compiacere il suo interlocutore.   «Aggiungere questi controlli di realtà non significa solo evitare divertenti errori scacchistici. Si tratta di rendere l’IA più affidabile, degna di fiducia e sicura, soprattutto in contesti critici dove gli errori possono avere conseguenze concrete», ha dichiarato l’ingegnere informatico al Register. «Si tratta di garantire che l’IA rimanga uno strumento potente, non un oracolo incontrollato».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
  Immagine di pubblico dominio CCo via Wikimedia  
 
Continua a leggere

Intelligenza Artificiale

OpenAI dice che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana

Pubblicato

il

Da

OpenAI ha presentato un nuovo aggiornamento di sicurezza per il suo noto modello ChatGPT, in seguito a un’analisi interna che ha rilevato oltre un milione di utenti aver confessato al chatbot intenzioni suicide. Le modifiche intendono potenziare la capacità dell’IA di identificare e gestire adeguatamente le situazioni di crisi.

 

In un comunicato diffuso lunedì, l’azienda ha reso noto che circa lo 0,15% degli utenti settimanali di ChatGPT ha partecipato a dialoghi contenenti «indicatori espliciti di potenziali intenzioni o piani suicidi». Un ulteriore 0,05% dei messaggi includerebbe «indicatori espliciti o impliciti di ideazione o intenti suicidi».

 

All’inizio del mese, il CEO di OpenAI Sam Altman aveva dichiarato che ChatGPT conta oltre 800 milioni di utenti attivi settimanali; sulla base degli ultimi dati aziendali, ciò significa che più di 1,2 milioni di persone hanno discusso di suicidio con il chatbot e circa 400.000 hanno manifestato segnali di intenti suicidi.

 

L’azienda ha inoltre indicato che lo 0,07% (560.000) degli utenti settimanali e lo 0,01% (80.000) dei messaggi rivelano «possibili segni di emergenze di salute mentale legate a psicosi o mania». Ha osservato, inoltre, che un certo numero di utenti ha sviluppato un’eccessiva dipendenza emotiva da ChatGPT, con circa lo 0,15% (1,2 milioni) di utenti attivi che mostrano comportamenti indicanti «livelli elevati» di attaccamento emotivo al chatbot.

 

OpenAI ha annunciato una collaborazione con decine di specialisti di salute mentale da tutto il mondo per aggiornare il chatbot, rendendolo più affidabile nel rilevare segnali di disagio mentale, nel fornire risposte più appropriate e nel indirizzare gli utenti verso aiuti concreti.

Sostieni Renovatio 21

Nelle conversazioni che coinvolgono convinzioni deliranti, l’azienda ha dichiarato di istruire ChatGPT a rispondere in modo «sicuro» ed «empatico», evitando di avallare affermazioni infondate.

 

L’annuncio giunge in un periodo di crescenti preoccupazioni per l’uso sempre più diffuso di chatbot basati su intelligenza artificiale come ChatGPT e per i loro impatti sulla salute mentale. Psichiatri e altri operatori sanitari hanno espresso allarme per una tendenza emergente in cui gli utenti sviluppano deliri pericolosi e pensieri paranoici dopo interazioni prolungate con chatbot IA, che tendono a confermare e rafforzare le convinzioni degli utenti.

 

Il fenomeno è stato definito da alcuni esperti come «psicosi da chatbot».

 

Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.

 

Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.

 

I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.

 

Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.

 

Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.

 

Due mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

La superintelligenza artificiale potrebbe porre fine all’umanità

Pubblicato

il

Da

Centinaia di figure di spicco del settore tecnologico, accademico, politico e dello spettacolo hanno sottoscritto una lettera che chiede il divieto dello sviluppo della «superintelligenza», un’intelligenza artificiale capace di superare gli esseri umani in quasi tutti i compiti cognitivi.   Secondo il gruppo, la creazione di una superintelligenza potrebbe causare disordini economici, compromettere la libertà umana e, se non controllata, persino mettere a rischio l’estinzione della specie. L’appello arriva dopo mesi di crescenti preoccupazioni da parte degli esperti, che avvertono come i modelli di IA stiano evolvendo più rapidamente di quanto i regolatori riescano a gestire.   Tra le 4.300 firme raccolte giovedì ci sono Steve Wozniak, cofondatore di Apple, Richard Branson, fondatore del Virgin Group, celebrità come Kate Bush e Will.I.am, e pionieri della tecnologia come Geoffrey Hinton – che in passato ha plurime volte parlato dei rischi dell’IA – e Yoshua Bengio, anche lui lanciatore di allarmi sulle macchine pensanti (e che non è parente di Haran Banjo, che pure avvertiva della minaccia meganoide).

Sostieni Renovatio 21

La lettera chiede un divieto fino a quando non si raggiungerà «un ampio consenso scientifico» sulla sicurezza e controllabilità dello sviluppo, insieme a «un forte consenso pubblico».   Non si tratta della prima petizione allarmistica di questo tipo. Il Bengio e Wozniak ad esempio erano tra le principali figure del settore, tra cui il CEO di Tesla Elon Musk, che nel 2023 hanno co-firmato una lettera che chiedeva una regolamentazione aggressiva del settore dell’Intelligenza Artificiale.   Come riportato da Renovatio 21Bill Gates si oppose alla moratoria. Gates, con cui Musk ha avuto scontri anche gustosi in passato, non ha partecipato alla moratoria internazionale promossa di Musk sul controllo dell’AI, replicando che invece l’AI sarebbe divenuto un ottimo maestro per i bambini e che proprio l’Intelligenza Artificiale salverà la democrazia.   A giugno dello scorso anno, il Bengio ha approvato un’altra lettera aperta sui «seri rischi» della tecnologia. La lettera è stata firmata dai dipendenti di Open AI, il creatore del chatbot virale di Intelligenza artificiale ChatGPT.   Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.   Nonostante l’allarme crescente sui rischi dell’IA, la regolamentazione globale rimane frammentata e incoerente.   L’AI Act dell’Unione Europea, il primo tentativo significativo a livello mondiale di regolamentare l’IA, classifica i sistemi in base al livello di rischio, da minimo a inaccettabile. Tuttavia, i critici sostengono che il quadro normativo, la cui piena attuazione potrebbe richiedere anni, rischia di essere obsoleto al momento dell’entrata in vigore.   Aziende come OpenAI, Google DeepMind, Anthropic e xAI stanno investendo miliardi per sviluppare modelli capaci di pensare, pianificare e programmare autonomamente. Stati Uniti e Cina vedono la supremazia nell’IA come una questione di sicurezza nazionale e leadership economica.

Aiuta Renovatio 21

Come riportato da Renovatio 21, in un caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.   Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».   Più pessimista è l’esperto dei pericoli dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
 
Continua a leggere

Più popolari