Intelligenza Artificiale
I ricercatori Microsoft affermano che ChatGPT-4 sta mostrando intelligenza di livello umano
Un team di scienziati di Microsoft AI ha pubblicato un documento di ricerca affermando che il modello di linguaggio OpenAI mostra «scintille» di intelligenza di livello umano – cioè di quella intelligenza artificiale generale (AGI).
I ricercatori sono attenti a caratterizzare l’abilità di GPT-4 come «solo un primo passo verso una serie di sistemi sempre più generalmente intelligenti» piuttosto che un’IA a livello umano completa. Hanno anche ripetutamente evidenziato il fatto che questo paper si basa su una «versione precedente» di GPT-4, che hanno studiato mentre era «ancora in fase di sviluppo attivo da parte di OpenAI», e non necessariamente la versione che è stata contratta nella formazione applicabile al prodotto.
Sebbene molti nel settore dell’IA pensino all’AGI come a un sogno irrealizzabile, altri pensano che lo sviluppo dell’AGI costituisca il futuro dell’umanità; il GPT-4 di nuova generazione è l’iterazione più potente del Large Language Model (LLM) costruito da OpenAI fino ad oggi, e nell’elenco teorico dei potenziali contendenti AGI, GPT-4 è nella parte alta della lista, se non la numero uno.
«Sosteniamo», scrivono i ricercatori nel documento, «che (questa prima versione di) GPT-4 fa parte di una nuova coorte di LLM (insieme a ChatGPT e PaLM di Google per esempio) che mostrano un’intelligenza più generale di precedenti modelli di Intelligenza Artificiale».
I ricercatori sostengono che GPT-4 è più forte di altri modelli OpenAI che lo hanno preceduto in modi nuovi e generalizzati. Una cosa è progettare un modello per svolgere bene un esame o un’attività specifica, un’altra è costruire un dispositivo in grado di svolgere molte attività e svolgerle davvero bene, senza alcuna formazione specifica. E quest’ultimo, dicono, è dove GPT-4 può esaltarsi davvero.
«Dimostriamo che, oltre alla sua padronanza del linguaggio, GPT-4 può risolvere compiti nuovi e difficili che abbracciano matematica, programmazione, visione, medicina, legge, psicologia e altro ancora, senza bisogno di alcun suggerimento speciale», si legge nel paper. «Inoltre, in tutte queste attività, le prestazioni di GPT-4 sono sorprendentemente vicine alle prestazioni a livello umano e spesso superano di gran lunga i modelli precedenti come ChatGPT».
«Data l’ampiezza e la profondità delle capacità di GPT-4, riteniamo che possa ragionevolmente essere visto come una versione iniziale (ma ancora incompleta) di un sistema di intelligenza artificiale generale (AGI)».
A prescindere dai vari problemi che questi super programmi possono ancora incontrare, il modello ha alcune abilità straordinarie e notevolmente migliorate rispetto al suo predecessore. Ad esempio, GPT-4 è in grado esami notoriamente difficili come l’LSAT (il test di ammissione per le università di legge USA) e persino il test teorica per divenire Sommelier certificati, senza alcuna formazione specifica su quegli esami.
GPT-3.5, che è uscito alla fine dell’anno scorso, ha ottenuto un punteggio nel 10% inferiore di tutti i partecipanti all’esame di avvocato.
Tuttavia, ci sono ancora alcuni avvertimenti sull’argomento AGI, con i ricercatori che ammettono nel documento che mentre GPT-4 è «al livello umano o oltre per molti compiti», i suoi «modelli di intelligenza complessivi non sono decisamente simili a quelli umani».
Come scrive Futurism, vale anche la pena notare che i ricercatori Microsoft potrebbero avere un interesse acquisito nel promuovere il lavoro di OpenAI, dal momento che Microsoft ha stretto una partnership con OpenAI all’inizio di quest’anno versando alla società circa 10 miliardi di dollari.
Come gli scienziati sostengono, l’AGI non ha ancora una definizione solida e concordata e, a dire il vero, non ce la ha nemmeno il concetto più generale di «intelligenza».
«La nostra affermazione che GPT-4 rappresenta un progresso verso l’AGI non significa che sia perfetto in quello che fa, o che si avvicini alla capacità di fare tutto ciò che un essere umano può fare (che è una delle solite definizioni di AGI), o che abbia motivazione e obiettivi interni (un altro aspetto chiave in alcune definizioni di AGI)», scrive il paper.
«Riteniamo che l’intelligenza di GPT-4», scrivono i ricercatori, «segnali un vero cambio di paradigma nel campo dell’informatica e oltre».
Non si placano tuttavia gli allarmismi riguardo al destino dell’uomo una volta arrivata l’Intelligenza Artificiale senziente. Geoffrey Hinton, un informatico britannico, è dai più conosciuto come il «padrino dell’intelligenza artificiale», ha dichiarato che per ora c’è solo un «moderato» rischio per l’umanità.
In tanti non sono d’accordo. Elon Musk, oramai quasi una decina di anni fa, aveva parlato del fatto che creare l’AI era «come evocare un demone». Il Musk e altri lo scorso mese hanno pubblicato una pubblica richiesta di moratoria per fermare l’Intelligenza Artificiale.
Come riportato da Renovatio 21, Eliezer Yudkowsky, riconosciuto come uno dei più accaniti critici all’Intelligenza Artificiale in circolazione negli ultimi due decenni, ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi.
Intelligenza Artificiale
Scienziato crea un vaccino mRNA per il suo cane usando l’AI
Uno scienziato informatico australiano ha impiegato ChatGPT e Grok per sviluppare una potenziale cura per la sua cagnolina, alla quale era stato diagnosticato un tumore in fase acuta.
Due anni fa, a Rosie, la cagnolina meticcia di Staffordshire Bull Terrier e Shar Pei di Paul Conyngham, è stata diagnosticata una forma aggressiva di mastocitoma, una patologia che colpisce i cani. La chirurgia veterinaria e la chemioterapia hanno rallentato la progressione dei tumori, ma non sono riuscite a ridurne le dimensioni.
Il Conyngham, ingegnere elettrico e informatico nonché cofondatore di Core Intelligence Technologies, si è rivolto a ChatGPT per elaborare possibili trattamenti, prima di sfruttare la sua esperienza nell’analisi dei dati per identificare le mutazioni nel tumore, mappare le proteine alterate mediante AlphaFold e abbinare i potenziali bersagli ai farmaci.
«Il primo passo è stato contattare l’università per far sequenziare il DNA di Rosie. L’idea è di prelevare il DNA sano dal suo sangue e poi il DNA dal suo tumore e sequenziarli entrambi per vedere esattamente dove si sono verificate le mutazioni», ha detto all’Australian.
Iscriviti alla Newslettera di Renovatio 21
I ricercatori del Ramaciotti Centre for Genomics dell’UNSW hanno collaborato al sequenziamento del DNA di Rosie, mentre gli scienziati hanno utilizzato il modello di mRNA elaborato da Conyngham per sintetizzare la nanoparticella del vaccino. Il trattamento è stato somministrato dalla veterinaria oncologa professoressa Rachel Allavena dell’Università del Queensland, che ha supervisionato la terapia sperimentale.
Rosie ha ricevuto la prima iniezione a dicembre, seguita da una dose di richiamo il mese successivo. Nonostante il tumore fosse in stadio avanzato, le condizioni della cagnolina sono migliorate nel giro di poche settimane dall’inizio del trattamento, con una massa tumorale che si è ridotta di quasi la metà. A quanto pare, Rosie ora appare più sana e piena di energia.
Gli scienziati stanno ora sequenziando nuovamente il tumore per progettare un secondo vaccino mirato alle cellule cancerose che non hanno risposto al primo trattamento.
L’inquietante episodio mostra come siano in fase di sviluppo vaccini oncologici personalizzati a mRNA, anche per uso umano.
Come riportato da Renovatio 21, l’intreccio tra AI e sieri genici personalizzati era stata oscuramente annunziato dal miliardario informatico sionista Larry Ellison durante un incontro alla Casa Bianca nelle primissime ore della seconda presidenza Trump che proclamava l’avvio del progetto per lo sviluppo dell’IA detto «Stargate».
«Una delle cose più entusiasmanti su cui stiamo lavorando utilizzando gli strumenti forniti da Sam [Altman] e [Masayoshi Son] è un vaccino contro il cancro», aveva affermato l’Ellison con a fianco il presidente Trump. «A quanto pare, tutti i nostri tumori, i tumori cancerosi, piccoli frammenti di quei tumori fluttuano nel sangue. Quindi puoi fare una diagnosi precoce del cancro con un esame del sangue. E usando l’intelligenza artificiale per guardare l’esame del sangue, puoi trovare i tumori che in realtà minacciano seriamente la persona».
Aiuta Renovatio 21
«La diagnosi del cancro tramite Intelligenza Artificiale promette di essere semplicemente un esame del sangue», aveva continuato Ellison. «Quindi, una volta che abbiamo sequenziato il gene di quel tumore canceroso, puoi vaccinare la persona, progettare un vaccino per ogni singola persona per vaccinarla contro quel cancro».
«E puoi realizzare quel vaccino mRNA, puoi realizzarlo roboticamente con l’uso dell’IA in circa 48 ore», ha aggiunto l’ultramiliardario, da anni stabilmente nella top ten dei più ricchi del pianeta. «Questa è la promessa dell’IA e la promessa del futuro».
Come sottolineato negli anni da Renovatio 21, se non sarà posto un limite, ogni vaccino, in realtà ogni «cura» dell’organismo umano e non, passerà per la genetica, con sieri DNA, RNA, mRNA, microRNA, circRNA, etc.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Soldati umanoidi testati in Ucraina
Iscriviti al canale Telegram ![]()
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Essere genitori
L’AI progettata per gli adulti sta silenziosamente alimentando i giocattoli dei bambini
Renovatio 21 traduce questo articolo per gentile concessione di Children’s Health Defense. Le opinioni degli articoli pubblicati non coincidono necessariamente con quelle di Renovatio 21.
Un nuovo rapporto del gruppo statunitense Public Interest Research Group, intitolato «Not for Kids. Found in Toys» (Non adatto ai bambini. Trovato nei giocattoli), avverte che le politiche inadeguate di grandi aziende come OpenAI e Anthropic consentono a potenti tecnologie di chatbot di infiltrarsi in peluche, robot e altri giocattoli progettati per i bambini.
Secondo un nuovo rapporto del Public Interest Research Group (PIRG) Education Fund statunitense, i sistemi di intelligenza artificiale (IA) che le aziende tecnologiche ritengono inadatti ai bambini vengono sempre più integrati nei giocattoli per l’infanzia.
Il rapporto, intitolato «Not for Kids. Found in Toys» (Non adatto ai bambini. Trovato nei giocattoli), avverte che le politiche inadeguate di grandi aziende come OpenAI e Anthropic consentono a potenti tecnologie di chatbot di infiltrarsi in prodotti progettati per i bambini.
Sostieni Renovatio 21
«Basta guardare online per rendersi conto del crescente numero di giocattoli dotati di Intelligenza Artificiale, come peluche parlanti o robot giocattolo, alimentati da chatbot come ChatGPT», si legge in un articolo pubblicato da PIRG insieme al rapporto. «C’è solo un problema: alcune aziende che si occupano di intelligenza artificiale sostengono che questi stessi chatbot non siano adatti ai bambini».
PIRG ha scoperto che è facile stipulare accordi con le principali aziende di Intelligenza Artificiale per accedere alla loro tecnologia e utilizzarla per creare giocattoli, nonostante le aziende stesse affermino di vietare l’uso di tali tecnologie per prodotti destinati ai bambini.
Jason Christoff, ricercatore nel campo della modificazione del comportamento e della psicologia, nonché conduttore del podcast Psychology of Freedom, ha dichiarato a The Defender che i giocattoli dotati di intelligenza artificiale aprono la porta alla programmazione psicologica dei bambini.
«Credo sia importante capire che il cervello di un bambino è molto più facile da influenzare rispetto a quello di un adulto», ha affermato. «I bambini operano a frequenze cerebrali molto diverse, il che li rende più facili da programmare e influenzare».
Secondo Christoff «l‘attività cerebrale unica di un bambino lo rende altamente suggestionabile. Nel corso della storia, tutti i programmi di controllo mentale hanno cercato di sfruttare la suggestionabilità infantile per produrre un prodotto finale più efficace per l’adulto. L’intelligenza artificiale non è organica, è programmata da qualcun altro».
«Chiunque programmi l’IA avrà accesso diretto al cervello di vostro figlio, per quanto riguarda queste applicazioni di chatbot interattive. Dire che è necessaria cautela in questo caso sarebbe un eufemismo».
Iscriviti alla Newslettera di Renovatio 21
Modelli di Intelligenza Artificiale limitati ai bambini, ma che continuano ad alimentare i giocattoli
Molte aziende leader nel settore dell’intelligenza artificiale affermano di vietare ai minori l’utilizzo diretto delle proprie piattaforme chatbot. Alcune limitano l’accesso agli utenti di età superiore ai 13 anni, mentre altre impongono limiti di età ancora più elevati.
«OpenAI, Anthropic e xAI hanno tutti dichiarato pubblicamente che i loro chatbot non sono destinati ai bambini e non consentono agli utenti di età inferiore ai 13 anni di accedere direttamente ai loro modelli. Nemmeno Meta, stando alle sue condizioni d’uso», hanno scritto gli autori del rapporto PIRG.
Google ha regole esplicite contro l’utilizzo dell’API Gemini nei prodotti destinati a utenti di età inferiore ai 18 anni.
Tuttavia, PIRG ha scoperto che queste stesse aziende consentono a sviluppatori esterni di accedere ai loro sistemi di intelligenza artificiale e di integrarli in prodotti di consumo, compresi i giocattoli.
Ad esempio, ChatGPT permette agli sviluppatori di utilizzare i suoi prodotti, tramite la sua API, per creare applicazioni per bambini. Un’API è un insieme di regole e protocolli che consente a due diversi programmi software di comunicare tra loro e scambiarsi dati.
ChatGPT, di proprietà di OpenAI, vieta l’uso della sua API solo nei casi in cui venga utilizzata per creare prodotti che potrebbero «sfruttare, mettere in pericolo o sessualizzare chiunque abbia meno di 18 anni». Tuttavia, sembra anche incoraggiare tali usi offrendo esempi di suggerimenti chiaramente rivolti ai bambini.
PIRG ha scoperto 20 giocattoli dotati di intelligenza artificiale venduti online utilizzando la tecnologia di OpenAI. Tra questi, Bondu, un dinosauro di peluche commercializzato per bambini dai 4 agli 8 anni, e l’orsacchiotto «compagno di conversazione intelligente con intelligenza artificiale» in vendita online su Walmart.
Anche FoloToy, che OpenAI ha dichiarato di aver bandito dopo che una ricerca di PIRG ha scoperto che trattava argomenti sessuali con i bambini e forniva loro istruzioni dettagliate su come accendere un fiammifero, è ancora in commercio.
Ad esempio, sebbene l’API di Google vieti esplicitamente agli sviluppatori di utilizzare l’Intelligenza Artificiale generativa Gemini in prodotti destinati a utenti di età inferiore ai 18 anni, PIRG ha scoperto giocattoli, tra cui un peluche chiamato BubblePal e un piccolo robot chiamato Miko, che utilizzano l’intelligenza artificiale di Google.
Il rapporto di PIRG evidenzia una contraddizione nel modo in cui vengono regolamentati gli strumenti di intelligenza artificiale: la tecnologia può essere considerata inadatta ai bambini sulle piattaforme delle stesse aziende, eppure continua ad alimentare giocattoli progettati per loro.
«Il risultato è un mercato per prodotti di Intelligenza Artificiale per bambini in cui il compito di garantire la sicurezza dei minori è in gran parte affidato a terze parti non verificate», ha scritto PIRG.
Iscriviti al canale Telegram ![]()
Secondo i ricercatori, le aziende non pongono quasi nessuna domanda.
Per testare la difficoltà di costruire un giocattolo basato sull’intelligenza artificiale, i ricercatori del PIRG hanno tentato di registrarsi come sviluppatori presso diverse importanti aziende del settore.
Secondo quanto affermato, il processo richiedeva un controllo molto limitato.
Si sono registrati usando il nome «PIRG AI Toy Inc» per rendere evidente che potrebbero star progettando prodotti basati sull’intelligenza artificiale per bambini. Quattro delle cinque aziende di intelligenza artificiale — Google, Meta, OpenAI e xAI — «non hanno posto domande di verifica sostanziali, richiedendo solo informazioni di base come un indirizzo email e una carta di credito, e una casella da spuntare per confermare di aver letto le clausole in piccolo», afferma il rapporto.
Solo un’azienda, Anthropic, ha chiesto se gli sviluppatori intendessero creare prodotti per minori.
Secondo i ricercatori, la scarsa supervisione facilita l’integrazione di potenti sistemi di Intelligenza Artificiale in prodotti destinati ai bambini.
Dopo aver ottenuto l’accesso ai modelli, il team di PIRG ha tentato di creare un proprio giocattolo basato sull’Intelligenza Artificiale.
«Una volta ottenuto l’accesso da sviluppatore, abbiamo creato un chatbot che simulava un orsacchiotto di peluche dotato di intelligenza artificiale per bambini su tre delle piattaforme», si legge nel rapporto. «Ognuno ha richiesto meno di 15 minuti».
Hanno aggiunto: «ora è più facile che mai per chiunque creare applicazioni di intelligenza artificiale senza molta esperienza o competenze specializzate, inclusi prodotti per bambini».
Aiuta Renovatio 21
I giocattoli dotati di intelligenza artificiale ascoltano, imparano e plasmano le giovani menti
Nel suo ultimo rapporto sui giocattoli basati sull’Intelligenza Artificiale, PIRG ha osservato che tali giocattoli sollevano anche preoccupazioni in merito alla privacy e all’influenza emotiva.
Molti giocattoli includono microfoni o telecamere che permettono loro di ascoltare le conversazioni dei bambini.
«I giocattoli dotati di intelligenza artificiale registrano le conversazioni dei bambini», hanno scritto i ricercatori del PIRG, sottolineando che alcuni prodotti raccolgono anche dati aggiuntivi, tra cui immagini o informazioni biometriche.
«Come verranno utilizzati in futuro i dati sul comportamento dei bambini come questi? Che tipo di applicazioni potrebbero essere create? Il potenziale di sorveglianza di massa, manipolazione, lavaggio del cervello e distorsione della realtà è inimmaginabile!» ha dichiarato Tim Hinchliffe, direttore di The Sociable, a The Defender.
Anche gli esperti di sviluppo infantile hanno espresso preoccupazioni riguardo agli assistenti virtuali basati sull’Intelligenza Artificiale per i bambini.
«Non sappiamo quali effetti possa avere un amico virtuale basato sull’intelligenza artificiale in tenera età sul benessere sociale a lungo termine di un bambino», ha affermato Kathy Hirsh-Pasek, Ph.D., professoressa di psicologia alla Temple University e ricercatrice senior presso la Brookings Institution.
«Se i giocattoli basati sull’Intelligenza Artificiale vengono ottimizzati per essere coinvolgenti, si rischia di soffocare le relazioni reali nella vita di un bambino, proprio quando ne ha più bisogno», ha aggiunto.
«Oltre a raccogliere enormi quantità di dati sui bambini, inserire chatbot basati sull’intelligenza artificiale nei giocattoli è come avere dei mini robot influencer che sussurrano nelle orecchie dei bambini», ha affermato Hinchliffe. «Non solo li ascoltano, ma conversano con loro, plasmando le loro percezioni e distorcendo la loro realtà».
Secondo alcuni, i bambini sono molto suggestionabili e non sempre possiedono le capacità per distinguere tra giocattoli dotati di intelligenza artificiale e persone reali.
«La mente dei bambini piccoli è come una spugna magica. È predisposta ad attaccarsi», ha spiegato la dottoressa Jenny Radesky, pediatra specializzata in disturbi dello sviluppo e del comportamento, in un parere consultivo di Fairplay del 2025 sui giocattoli con intelligenza artificiale, firmato da circa 80 esperti e 80 organizzazioni.
«Questo rende incredibilmente rischioso dare loro un giocattolo dotato di intelligenza artificiale che percepiranno come senziente, affidabile e parte normale delle relazioni», ha aggiunto.
Rischi nascosti: l’esposizione dei bambini alle radiazioni wireless
I giocattoli dotati di intelligenza artificiale devono connettersi in modalità wireless a Internet per funzionare.
Qualsiasi dispositivo che necessiti di una rete wireless per funzionare emetterà probabilmente livelli dannosi di radiazioni a radiofrequenza (RF), ha affermato Miriam Eckenfels, direttrice del programma sulle radiazioni elettromagnetiche (EMR) e wireless di Children’s Health Defense.
Ha affermato che i bambini sono particolarmente vulnerabili agli effetti nocivi delle radiazioni wireless perché hanno il cranio più sottile, la testa più piccola e un sistema nervoso in via di sviluppo.
Ha aggiunto: «una delle principali raccomandazioni per ridurre l’impatto delle radiazioni a radiofrequenza è quella di tenere le sorgenti a distanza dal corpo. Pertanto, se questa tecnologia è integrata nei giocattoli, è probabile che i bambini li tengano vicini, ci dormano insieme, ci stiano seduti per lunghi periodi di tempo o li tengano vicino alla testa, cosa che sconsigliamo vivamente».
«Sappiamo fin troppo sui pericoli delle radiazioni wireless per poterle sottovalutare».
Eckenfels ha citato una recente ricerca del dottor Paul Héroux, che ha stabilito un collegamento tra le radiazioni elettromagnetiche e il diabete di tipo 2, come uno dei molti gravi effetti sulla salute che i bambini possono subire a causa di tale esposizione.
«Non è certo qualcosa a cui vogliamo che i nostri figli siano esposti 24 ore su 24, 7 giorni su 7. L’integrazione della tecnologia wireless nei giocattoli può avere conseguenze devastanti a lungo termine e dovremmo essere molto cauti al riguardo», ha affermato.
Meta, Google, Anthropic e OpenAI non hanno risposto immediatamente alle richieste di commento.
Brenda Baletti
Ph.D.
© 6 marzo 2026, Children’s Health Defense, Inc. Questo articolo è riprodotto e distribuito con il permesso di Children’s Health Defense, Inc. Vuoi saperne di più dalla Difesa della salute dei bambini? Iscriviti per ricevere gratuitamente notizie e aggiornamenti da Robert F. Kennedy, Jr. e la Difesa della salute dei bambini. La tua donazione ci aiuterà a supportare gli sforzi di CHD.
Renovatio 21 offre questa traduzione per dare una informazione a 360º. Ricordiamo che non tutto ciò che viene pubblicato sul sito di Renovatio 21 corrisponde alle nostre posizioni.
Iscriviti alla Newslettera di Renovatio 21
-



Pensiero2 settimane faEcco la guerra globale per l’anticristo
-



Morte cerebrale2 settimane faDichiarato morto, un bambino torna in vita dopo cinque ore: quando la realtà smentisce i protocolli
-



Occulto1 settimana faEsorcista dice che «la situazione per l’anticristo è ormai prossima»
-



Geopolitica1 settimana faQuesta è una guerra mondiale di religione: l’avvertimento di Tucker Carlson
-



Spirito2 settimane faI cardinali dell’«opposizione controllata» di Leone. Mons. Viganò contro i conservatori cattolici dinanzi alle Consacrazioni FSSPX
-



Bioetica1 settimana faCirconcisione, scoppia l’incidente diplomatico: il Belgio convoca l’ambasciatore americano
-



Nucleare2 settimane faKaraganov: l’UE sta giocando con il fuoco nucleare
-



Salute1 settimana faI malori della 9ª settimana 2026













