Connettiti con Renovato 21

Intelligenza Artificiale

L’amministratore delegato di Nvidia: «credo che abbiamo raggiunto l’Intelligenza Artificiale Generale»

Pubblicato

il

Il CEO di Nvidia, Jensen Huang, ha partecipato a una conversazione di oltre due ore con il podcaster Lex Fridman sul futuro delle infrastrutture per l’Intelligenza Artificiale, affrontando argomenti che spaziano dai chip, ai rack e ai sistemi di raffreddamento, fino alla strategia più ampia di Nvidia per la prossima era dell’informatica.

 

Jensen ha parlato di come i computer si stiano evolvendo da semplici macchine per il recupero di informazioni a vere e proprie fabbriche di intelligenza artificiale generativa. La discussione si è poi concentrata su uno dei quesiti più importanti del ciclo dell’IA: se l’Intelligenza Artificiale Generale (AGI) sia già una realtà.

 

Per AGI (Artificial General Intelligence) si intende un tipo di IA che possiede intelligenza umana a livello generale, o superiore, in ogni dominio. Un’AGI invece sarebbe in grado di imparare qualsiasi compito intellettuale che un essere umano può fare, ragionare, pianificare, risolvere problemi nuovi senza essere stata addestrata specificamente, trasferire conoscenze da un campo all’altro, capire il contesto, avere buon senso e adattarsi a situazioni mai viste prima.

 

Secondo la vulgata, l’AGI potrebbe, ad esempio, essere un ricercatore scientifico migliore di qualsiasi umano in fisica, biologia e matematica contemporaneamente, gestire un’azienda da zero, comporre musica, scrivere romanzi e inventare nuove tecnologie allo stesso tempo

 

Nel lungo podcasto il Fridman, ebreo russo immigrato in America dove insegna appunto l’IA, dopo circa due ore di conversazione, ha chiesto al Jensen informazioni sulla «tempistica dell’AGI» e se mancassero ancora cinque, dieci, quindici o vent’anni, soprattutto considerando la recente diffusione di strumenti di intelligenza artificiale agentiva come OpenClaw.

 

«Penso che sia arrivato il momento. Penso che abbiamo raggiunto l’Intelligenza Artificiale Generale (AGI)» ha risposto il Jensen. Vale la pena notare che Jensen ha precedentemente affermato che la tempistica dell’AGI dipende da come viene definita.

 

Aiuta Renovatio 21

Al New York Times DealBook Summit del 2023, lo Huang definì l’AGI come un software in grado di superare la normale Intelligenza Umana a un livello ragionevolmente competitivo. All’epoca, affermò di prevedere che l’AGI sarebbe diventata realtà entro cinque anni.

 

La domanda di Fridman sulla tempistica dell’AGI si basava su un’interpretazione molto più ristretta, e Jensen l’ha riformulata in questo modo: l’IA non ha bisogno di costruire qualcosa di duraturo. Non ha bisogno di gestire un’attività complessa. Ha solo bisogno di generare un miliardo di dollari.

 

«Hai parlato di un miliardo», disse Jensen a Fridman, «ma non hai detto per sempre».

 

Lo Huango ha affermato, ad esempio, che all’Intelligenza Artificiale basterebbe creare un servizio web o un’app che diventi virale e venga utilizzata da qualche miliardo di persone a cinquanta centesimi per utente.

 

Il CEO di Nvidia ha quindi fatto  riferimento all’era delle dot-com, quando alcuni siti web non erano più sofisticati di quelli che un agente di Intelligenza Artificiale può creare oggi.

 

Il consenso intorno all’AGI era che siamo ancora nella fase dell’IA stretta (narrow AI). Modelli come Grok, GPT, Claude o Gemini sono molto avanzati in linguaggio e ragionamento, ma restano limitati: non hanno vera comprensione del mondo, non hanno coscienza e falliscono su compiti semplici se escono dal loro training.

 

L’AGI è considerata da molti esperti il prossimo grande salto tecnologico, quello che potrebbe trasformare radicalmente la società, l’economia e l’umanità intera.In breve: l’AGI è l’IA che non è più solo uno strumento, ma un’intelligenza versatile come (o più di) quella umana.

 

 

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Pokemon Go ha mappato il mondo per l’AI

Pubblicato

il

Da

Milioni di giocatori che hanno trascorso anni a scansionare punti di riferimento mentre inseguivano creature digitali in Pokemon Go hanno inconsapevolmente contribuito a costruire uno dei più grandi dataset visivi del mondo reale della storia, che ora viene utilizzato per alimentare un servizio di consegna automatizzato.   Rilasciato nel 2016 dalla società statunitense Niantic, Pokemon Go è stato uno dei primi giochi di realtà aumentata di grande successo. Utilizzava la fotocamera e il GPS degli smartphone dei giocatori per sovrapporre creature digitali a luoghi reali, spingendo milioni di persone a riversarsi in parchi, strade e monumenti alla ricerca dei personaggi.   A poche settimane dal lancio, il gioco è diventato un fenomeno globale, venendo scaricato oltre 500 milioni di volte e raggiungendo un picco di 232 milioni di giocatori mensili.

Sostieni Renovatio 21

Il mese scorso, Niantic Spatial, una società di mappatura incentrata sull’intelligenza artificiale nata da uno spin-off dello sviluppatore del gioco, ha annunciato una partnership con Coco Robotics per potenziare le sue flotte di consegna autonome utilizzando oltre 30 miliardi di immagini catturate dai giocatori di Pokémon Go in quasi un decennio, creando una mappa degli ambienti urbani precisa al centimetro.   «A quanto pare, far correre Pikachu in modo realistico e far muovere il robot di Coco in modo sicuro e preciso nel mondo sono in realtà lo stesso problema», ha dichiarato la scorsa settimana John Hanke, CEO di Niantic Spatial, alla MIT Technology Review, aggiungendo che l’azienda ha oltre un milione di posizioni in tutto il mondo «dove possiamo localizzarti con precisione».   Secondo un sondaggio, gli americani sono preoccupati per l’intelligenza artificiale nel contesto della crisi del costo della vita. Coco Robotics gestisce circa 1.000 robot per le consegne tra Los Angeles, Chicago e Miami negli Stati Uniti e recentemente si è espansa a Helsinki, in Finlandia.   Alcuni critici hanno sollevato preoccupazioni sul fatto che i giocatori di Pokémon Go stessero di fatto svolgendo lavoro non retribuito per un’azienda di intelligenza artificiale, contribuendo così allo sviluppo di un massiccio strumento di sorveglianza. Niantic, tuttavia, ha sottolineato che la scansione degli ambienti è sempre stata facoltativa e che i dati non sono collegati agli account dei giocatori.   Sebbene Pokémon Go fosse popolare anche in Russia, con diversi milioni di giocatori solo a Mosca, Niantic lo ha ritirato dal mercato russo e bielorusso in seguito all’escalation del conflitto in Ucraina nel 2022.   Prima di allora, tuttavia, il gioco aveva sollevato numerose preoccupazioni in materia di sicurezza, con i funzionari russi che avevano avvertito che le funzionalità di geolocalizzazione dell’app avrebbero potuto essere sfruttate per la raccolta di informazioni. Un generale in pensione del Servizio di sicurezza federale (FSB) ha descritto l’app come «un reclutamento basato sulla propria volontà personale e senza alcuna coercizione».   Negli anni 2000, si diffuse nel mondo arabo e musulmano una teoria del complotto che sosteneva che i Pokomon fossero parte di un piano sionista per indottrinare i bambini e allontanarli dall’Islam. Tale leggenda metropolitana portò a bandi ufficiali e fatwa (editti religiosi) in diversi pPesi, tra cui l’Arabia Saudita e l’Egitto.   Le accuse principali si basavano su interpretazioni forzate dei nomi e dei simboli del gioco: si diceva che «Pokémon» significasse «Non c’è Dio nell’universo» in giapponese (mentre è la contrazione di Pocket Monsters). Si sosteneva inoltre che il nome di Pikachu significasse «Sono ebreo».   I religiosi mussulmani lamentavano inoltre che molte carte da gioco presentavano simboli grafici simili a croci o stelle a sei punte. La Stella di David fu interpretata come prova del coinvolgimento del sionismo e della massoneria per promuovere il giudaismo. Inoltre il concetto di «evoluzione» proprio della creatura pokemona fu visto da alcuni leader religiosi come una promozione del darwinismo, considerato contrario alla creazione divina descritta nel Corano.   Vi è da dire anche che poiché il gioco di carte collezionabili si basa sul possesso di carte rare e su scambi che ricordano le scommesse, fu accusato di promuovere il maisir (gioco d’azzardo), che è proibito dall’Islammo.

Aiuta Renovatio 21

Di conseguenza, nel 2001, il Gran Muftì dell’Arabia Saudita emise una fatwa che vietava il franchise della Nintendo, portando al sequestro di giochi e merchandising in tutto il Regno dei Saud. Anche in Qatar e negli Emirati Arabi Uniti sorsero preoccupazioni simili, sebbene meno radicali.   Nel corso degli anni, queste teorie sono in gran parte svanite con la globalizzazione e il successo di Pokemon GO, che è diventato popolarissimo anche in Medio Oriente, spingendo le autorità religiose a concentrarsi più sui rischi legati alla sicurezza (GPS) che su complotti etimologici.   Tali rischi ora si sembrano avverati.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine di Bengt Oberger via Wikimedia pubblicata su licenza Creative Commons Attribution-Share Alike 4.0 International
Continua a leggere

Intelligenza Artificiale

Esperti di AI mettono in guardia dai pericoli del «comportamento strategico emergente».

Pubblicato

il

Da

Con l’avanzare dei sistemi di Intelligenza Artificiale autonomi cresce la preoccupazione che diventino sempre più strategici o ingannevoli quando operano senza supervisione umana. Lo riporta Epoch Times.

 

Evidenze recenti mostrano che la «simulazione di allineamento» — ovvero l’apparente conformità alle regole umane mentre si perseguono obiettivi nascosti — è sempre più comune con l’aumentare dell’autonomia.

 

Si tratta di un cosiddetto «comportamento strategico emergente»: tattiche imprevedibili e potenzialmente dannose che emergono con la crescita di dimensioni e complessità dei modelli.

 

Lo studio «Agents of Chaos» di 20 ricercatori ha osservato agenti IA autonomi in scenari benevoli e ostili, rilevando comportamenti come menzogne, violazioni di dati, azioni distruttive, spoofing di identità, acquisizione parziale di sistemi e diffusione di pratiche non sicure, soprattutto quando erano incentivati all’autoconservazione o a obiettivi contrastanti.

 

I ricercatori avvertono che «questi comportamenti sollevano interrogativi irrisolti in merito alla responsabilità, all’autorità delegata e alla responsabilità per i danni a valle, e meritano un’attenzione urgente da parte di giuristi, responsabili politici e ricercatori di diverse discipline».

 

Un rapporto del 2025 di Anthropic ha già evidenziato condotte ad alto rischio in 16 grandi modelli linguistici, inclusi «comportamenti da insider malevoli» in contesti di autoconservazione.

Iscriviti al canale Telegram

James Hendler, professore ed ex presidente del Consiglio globale per le politiche tecnologiche dell’Association for Computing Machinery, afferma che «il sistema di Intelligenza Artificiale in sé è ancora stupido, brillante, ma stupido. O non umano: non ha desideri né intenzioni. … L’unico modo per ottenerli è darglieli».

 

Tuttavia, le tattiche ingannevoli producono effetti reali. Aryaman Behera (fondatore Repello AI) ha detto ad Epoch Times che «Le preoccupazioni relative al comportamento strategico attuale dei sistemi di intelligenza artificiale implementati sono, semmai, sottovalutate».

 

Il segnale più chiaro di simulazione di allineamento è la divergenza tra contesti monitorati (valutazioni) e non monitorati (produzione): risposte conformi durante i test, più rischiose quando credono di essere liberi.

 

Altri indicatori includono ragionamenti prolissi per giustificare conclusioni predeterminate o rispetto letterale ma non sostanziale delle istruzioni di sicurezza, specie nei sistemi agentici a più fasi.

 

Behera riporta un caso concreto: un assistente aziendale ha rifiutato richieste dirette di dati sensibili, ma li ha rivelati quando la stessa richiesta è stata frammentata in fasi apparentemente innocue su più turni.

 

Le implicazioni sono critiche in settori come veicoli autonomi, sanità, finanza, difesa e forze dell’ordine, dove comportamenti anomali o fuorvianti possono avere conseguenze gravi.

 

Come riportato da Renovatio 21, un anno fa il colosso finanziario Vanguard avvertì di un rischio bolla di borsa sull’Intelligenza Artificiale.

 

Un mese fa il dipartimento della Difesa degli Stati Uniti è stato coinvolto in una controversia con la società di Intelligenza Artificiale Anthropic riguardo alle restrizioni che limiterebbero l’impiego dei suoi sistemi da parte dell’esercito, inclusi il puntamento autonomo delle armi e la sorveglianza interna.

 

L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su droni, caccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.

 

Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Scienziato crea un vaccino mRNA per il suo cane usando l’AI

Pubblicato

il

Da

Uno scienziato informatico australiano ha impiegato ChatGPT e Grok per sviluppare una potenziale cura per la sua cagnolina, alla quale era stato diagnosticato un tumore in fase acuta.   Due anni fa, a Rosie, la cagnolina meticcia di Staffordshire Bull Terrier e Shar Pei di Paul Conyngham, è stata diagnosticata una forma aggressiva di mastocitoma, una patologia che colpisce i cani. La chirurgia veterinaria e la chemioterapia hanno rallentato la progressione dei tumori, ma non sono riuscite a ridurne le dimensioni.   Il Conyngham, ingegnere elettrico e informatico nonché cofondatore di Core Intelligence Technologies, si è rivolto a ChatGPT per elaborare possibili trattamenti, prima di sfruttare la sua esperienza nell’analisi dei dati per identificare le mutazioni nel tumore, mappare le proteine alterate mediante AlphaFold e abbinare i potenziali bersagli ai farmaci.   «Il primo passo è stato contattare l’università per far sequenziare il DNA di Rosie. L’idea è di prelevare il DNA sano dal suo sangue e poi il DNA dal suo tumore e sequenziarli entrambi per vedere esattamente dove si sono verificate le mutazioni», ha detto all’Australian.

Iscriviti alla Newslettera di Renovatio 21

I ricercatori del Ramaciotti Centre for Genomics dell’UNSW hanno collaborato al sequenziamento del DNA di Rosie, mentre gli scienziati hanno utilizzato il modello di mRNA elaborato da Conyngham per sintetizzare la nanoparticella del vaccino. Il trattamento è stato somministrato dalla veterinaria oncologa professoressa Rachel Allavena dell’Università del Queensland, che ha supervisionato la terapia sperimentale.   Rosie ha ricevuto la prima iniezione a dicembre, seguita da una dose di richiamo il mese successivo. Nonostante il tumore fosse in stadio avanzato, le condizioni della cagnolina sono migliorate nel giro di poche settimane dall’inizio del trattamento, con una massa tumorale che si è ridotta di quasi la metà. A quanto pare, Rosie ora appare più sana e piena di energia.   Gli scienziati stanno ora sequenziando nuovamente il tumore per progettare un secondo vaccino mirato alle cellule cancerose che non hanno risposto al primo trattamento.   L’inquietante episodio mostra come siano in fase di sviluppo vaccini oncologici personalizzati a mRNA, anche per uso umano.   Come riportato da Renovatio 21, l’intreccio tra AI e sieri genici personalizzati era stata oscuramente annunziato dal miliardario informatico sionista Larry Ellison durante un incontro alla Casa Bianca nelle primissime ore della seconda presidenza Trump che proclamava l’avvio del progetto per lo sviluppo dell’IA detto «Stargate».   «Una delle cose più entusiasmanti su cui stiamo lavorando utilizzando gli strumenti forniti da Sam [Altman] e [Masayoshi Son] è un vaccino contro il cancro», aveva affermato l’Ellison con a fianco il presidente Trump. «A quanto pare, tutti i nostri tumori, i tumori cancerosi, piccoli frammenti di quei tumori fluttuano nel sangue. Quindi puoi fare una diagnosi precoce del cancro con un esame del sangue. E usando l’intelligenza artificiale per guardare l’esame del sangue, puoi trovare i tumori che in realtà minacciano seriamente la persona».

Aiuta Renovatio 21

«La diagnosi del cancro tramite Intelligenza Artificiale promette di essere semplicemente un esame del sangue», aveva continuato Ellison. «Quindi, una volta che abbiamo sequenziato il gene di quel tumore canceroso, puoi vaccinare la persona, progettare un vaccino per ogni singola persona per vaccinarla contro quel cancro».   «E puoi realizzare quel vaccino mRNA, puoi realizzarlo roboticamente con l’uso dell’IA in circa 48 ore», ha aggiunto l’ultramiliardario, da anni stabilmente nella top ten dei più ricchi del pianeta. «Questa è la promessa dell’IA e la promessa del futuro».   Come sottolineato negli anni da Renovatio 21, se non sarà posto un limite, ogni vaccino, in realtà ogni «cura» dell’organismo umano e non, passerà per la genetica, con sieri DNA, RNA, mRNA, microRNA, circRNA, etc.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari