Intelligenza Artificiale
L’amministratore delegato di Nvidia: «credo che abbiamo raggiunto l’Intelligenza Artificiale Generale»
Il CEO di Nvidia, Jensen Huang, ha partecipato a una conversazione di oltre due ore con il podcaster Lex Fridman sul futuro delle infrastrutture per l’Intelligenza Artificiale, affrontando argomenti che spaziano dai chip, ai rack e ai sistemi di raffreddamento, fino alla strategia più ampia di Nvidia per la prossima era dell’informatica.
Jensen ha parlato di come i computer si stiano evolvendo da semplici macchine per il recupero di informazioni a vere e proprie fabbriche di intelligenza artificiale generativa. La discussione si è poi concentrata su uno dei quesiti più importanti del ciclo dell’IA: se l’Intelligenza Artificiale Generale (AGI) sia già una realtà.
Per AGI (Artificial General Intelligence) si intende un tipo di IA che possiede intelligenza umana a livello generale, o superiore, in ogni dominio. Un’AGI invece sarebbe in grado di imparare qualsiasi compito intellettuale che un essere umano può fare, ragionare, pianificare, risolvere problemi nuovi senza essere stata addestrata specificamente, trasferire conoscenze da un campo all’altro, capire il contesto, avere buon senso e adattarsi a situazioni mai viste prima.
Secondo la vulgata, l’AGI potrebbe, ad esempio, essere un ricercatore scientifico migliore di qualsiasi umano in fisica, biologia e matematica contemporaneamente, gestire un’azienda da zero, comporre musica, scrivere romanzi e inventare nuove tecnologie allo stesso tempo
Nel lungo podcasto il Fridman, ebreo russo immigrato in America dove insegna appunto l’IA, dopo circa due ore di conversazione, ha chiesto al Jensen informazioni sulla «tempistica dell’AGI» e se mancassero ancora cinque, dieci, quindici o vent’anni, soprattutto considerando la recente diffusione di strumenti di intelligenza artificiale agentiva come OpenClaw.
«Penso che sia arrivato il momento. Penso che abbiamo raggiunto l’Intelligenza Artificiale Generale (AGI)» ha risposto il Jensen. Vale la pena notare che Jensen ha precedentemente affermato che la tempistica dell’AGI dipende da come viene definita.
Aiuta Renovatio 21
Al New York Times DealBook Summit del 2023, lo Huang definì l’AGI come un software in grado di superare la normale Intelligenza Umana a un livello ragionevolmente competitivo. All’epoca, affermò di prevedere che l’AGI sarebbe diventata realtà entro cinque anni.
La domanda di Fridman sulla tempistica dell’AGI si basava su un’interpretazione molto più ristretta, e Jensen l’ha riformulata in questo modo: l’IA non ha bisogno di costruire qualcosa di duraturo. Non ha bisogno di gestire un’attività complessa. Ha solo bisogno di generare un miliardo di dollari.
«Hai parlato di un miliardo», disse Jensen a Fridman, «ma non hai detto per sempre».
Lo Huango ha affermato, ad esempio, che all’Intelligenza Artificiale basterebbe creare un servizio web o un’app che diventi virale e venga utilizzata da qualche miliardo di persone a cinquanta centesimi per utente.
Il CEO di Nvidia ha quindi fatto riferimento all’era delle dot-com, quando alcuni siti web non erano più sofisticati di quelli che un agente di Intelligenza Artificiale può creare oggi.
Il consenso intorno all’AGI era che siamo ancora nella fase dell’IA stretta (narrow AI). Modelli come Grok, GPT, Claude o Gemini sono molto avanzati in linguaggio e ragionamento, ma restano limitati: non hanno vera comprensione del mondo, non hanno coscienza e falliscono su compiti semplici se escono dal loro training.
L’AGI è considerata da molti esperti il prossimo grande salto tecnologico, quello che potrebbe trasformare radicalmente la società, l’economia e l’umanità intera.In breve: l’AGI è l’IA che non è più solo uno strumento, ma un’intelligenza versatile come (o più di) quella umana.
Intelligenza Artificiale
Pokemon Go ha mappato il mondo per l’AI
Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Esperti di AI mettono in guardia dai pericoli del «comportamento strategico emergente».
Con l’avanzare dei sistemi di Intelligenza Artificiale autonomi cresce la preoccupazione che diventino sempre più strategici o ingannevoli quando operano senza supervisione umana. Lo riporta Epoch Times.
Evidenze recenti mostrano che la «simulazione di allineamento» — ovvero l’apparente conformità alle regole umane mentre si perseguono obiettivi nascosti — è sempre più comune con l’aumentare dell’autonomia.
Si tratta di un cosiddetto «comportamento strategico emergente»: tattiche imprevedibili e potenzialmente dannose che emergono con la crescita di dimensioni e complessità dei modelli.
Lo studio «Agents of Chaos» di 20 ricercatori ha osservato agenti IA autonomi in scenari benevoli e ostili, rilevando comportamenti come menzogne, violazioni di dati, azioni distruttive, spoofing di identità, acquisizione parziale di sistemi e diffusione di pratiche non sicure, soprattutto quando erano incentivati all’autoconservazione o a obiettivi contrastanti.
I ricercatori avvertono che «questi comportamenti sollevano interrogativi irrisolti in merito alla responsabilità, all’autorità delegata e alla responsabilità per i danni a valle, e meritano un’attenzione urgente da parte di giuristi, responsabili politici e ricercatori di diverse discipline».
Un rapporto del 2025 di Anthropic ha già evidenziato condotte ad alto rischio in 16 grandi modelli linguistici, inclusi «comportamenti da insider malevoli» in contesti di autoconservazione.
Iscriviti al canale Telegram ![]()
James Hendler, professore ed ex presidente del Consiglio globale per le politiche tecnologiche dell’Association for Computing Machinery, afferma che «il sistema di Intelligenza Artificiale in sé è ancora stupido, brillante, ma stupido. O non umano: non ha desideri né intenzioni. … L’unico modo per ottenerli è darglieli».
Tuttavia, le tattiche ingannevoli producono effetti reali. Aryaman Behera (fondatore Repello AI) ha detto ad Epoch Times che «Le preoccupazioni relative al comportamento strategico attuale dei sistemi di intelligenza artificiale implementati sono, semmai, sottovalutate».
Il segnale più chiaro di simulazione di allineamento è la divergenza tra contesti monitorati (valutazioni) e non monitorati (produzione): risposte conformi durante i test, più rischiose quando credono di essere liberi.
Altri indicatori includono ragionamenti prolissi per giustificare conclusioni predeterminate o rispetto letterale ma non sostanziale delle istruzioni di sicurezza, specie nei sistemi agentici a più fasi.
Behera riporta un caso concreto: un assistente aziendale ha rifiutato richieste dirette di dati sensibili, ma li ha rivelati quando la stessa richiesta è stata frammentata in fasi apparentemente innocue su più turni.
Le implicazioni sono critiche in settori come veicoli autonomi, sanità, finanza, difesa e forze dell’ordine, dove comportamenti anomali o fuorvianti possono avere conseguenze gravi.
Come riportato da Renovatio 21, un anno fa il colosso finanziario Vanguard avvertì di un rischio bolla di borsa sull’Intelligenza Artificiale.
Un mese fa il dipartimento della Difesa degli Stati Uniti è stato coinvolto in una controversia con la società di Intelligenza Artificiale Anthropic riguardo alle restrizioni che limiterebbero l’impiego dei suoi sistemi da parte dell’esercito, inclusi il puntamento autonomo delle armi e la sorveglianza interna.
L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.
Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Scienziato crea un vaccino mRNA per il suo cane usando l’AI
Iscriviti alla Newslettera di Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Spirito6 giorni faFoto del 1995 mostra Leone XIV mentre partecipa al rituale idolatrico della Pachamama
-



Vaccini2 settimane faEsperti affrontano la questione della «massiccia epidemia di danni da vaccino»
-



Pensiero2 settimane faVerso la legge che fa dell’antisemitismo una nuova categoria dello spirito
-



Famiglia2 settimane faMons. Viganò sta con la famiglia nel bosco. Ma perché lo Stato si sta accanendo in questo modo?
-



Sanità5 giorni faUna «separazione delle carriere» per chi giudica i medici. Intervista al dottor Giacomini del sindacato DI.CO.SI.
-



Eugenetica2 settimane fa«Organi e sperma prelevati dai corpi» nel ranch di Epstein
-



Salute2 settimane faI malori dell’11ª settimana 2026
-



Immigrazione2 settimane faCronache migratorie: 10ª settimana 2026














