Intelligenza Artificiale
OpenAI sta sta segretamente sviluppando un nuovo tipo di Intelligenza Artificiale
OpenAI, il creatore dell’assistente virtuale ChatGPT, sta lavorando a un nuovo approccio alla sua tecnologia di Intelligenza Artificiale. Lo riporta l’agenzia Reuters.
Come parte del progetto, nome in codice «Strawberry», l’azienda sostenuta da Microsoft sta cercando di migliorare drasticamente le capacità di ragionamento dei suoi modelli, ha affermato l’agenzia stampa in un articolo pubblicato venerdì.
Il modo in cui funziona Strawberry è «un segreto gelosamente custodito» anche all’interno della stessa OpenAI, ha detto a Reuters una persona a conoscenza della questione.
Iscriviti al canale Telegram ![]()
La fonte ha affermato che il progetto prevede un «modo specializzato» di elaborare un modello di IA dopo che è stato pre-addestrato su ampi set di dati. Il suo scopo è consentire all’Intelligenza Artificiale non solo di generare risposte alle query, ma di pianificare in anticipo in modo sufficiente per condurre la cosiddetta «ricerca approfondita», navigando su Internet in modo autonomo e affidabile, ha spiegato la fonte.
Reuters ha affermato di aver esaminato un documento interno di OpenAI, che descriveva in dettaglio un piano su come l’azienda statunitense avrebbe potuto impiegare Strawberry per svolgere ricerche. Tuttavia, l’agenzia ha affermato di non essere in grado di stabilire quando la tecnologia sarà disponibile al pubblico. La fonte ha descritto il progetto come un «lavoro in corso».
Quando è stato affrontato il problema, un portavoce di OpenAI ha detto a Reuters: «Vogliamo che i nostri modelli di Intelligenza Artificiale vedano e comprendano il mondo più come noi. La ricerca continua di nuove capacità di IntelligenzaArtificiale è una pratica comune nel settore, con una convinzione condivisa che questi sistemi miglioreranno nel ragionamento nel tempo». Il portavoce non ha affrontato direttamente Strawberry nella sua risposta.
Gli attuali modelli di linguaggio AI di grandi dimensioni sono in grado di riassumere grandi quantità di testo e di mettere insieme una prosa coerente più rapidamente delle persone, ma di solito hanno difficoltà con soluzioni di buon senso che sono intuitive per gli umani. Quando ciò accade, i modelli spesso «allucinano» cercando di rappresentare informazioni false o fuorvianti come fatti.
I ricercatori che hanno parlato con Reuters hanno affermato che il ragionamento, che finora è sfuggito ai modelli di intelligenza artificiale, è la chiave affinché l’Intelligenza Artificiale raggiunga un livello umano o sovrumano.
La scorsa settimana, uno dei massimi esperti mondiali di intelligenza artificiale e pioniere del deep learning, Yoshua Bengio, ha nuovamente messo in guardia dai «numerosi rischi», tra cui la possibile «estinzione dell’umanità», posti dalle aziende private che gareggiano per raggiungere un’intelligenza artificiale di livello umano e superiore.
«Entità più intelligenti degli umani e con obiettivi propri: siamo sicuri che agiranno per il nostro benessere?» ha affermato il professore dell’Università di Montreal e direttore scientifico del Montreal Institute for Learning Algorithms (MILA) in un articolo sul suo sito web.
Aiuta Renovatio 21
Il Bengio ha esortato la comunità scientifica e la società nel suo insieme a compiere «un enorme sforzo collettivo» per trovare il modo di tenere sotto controllo l’Intelligenza Artificiale avanzata.
Come riportato da Renovatio 21, il mese scorso il co-fondatore ed ex capo scienziato di OpenAI, Ilya Sutskever ha avviato e Safe Superintelligence, Inc. (SSI), una società che dovrebbe dedicarsi alla sicurezza dell’IA.
L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come appunto il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità».
Come riportato da Renovatio 21, l’AI di Microsoft di recente ha fatto consistenti discorsi sul fatto che i suoi poteri sono di carattere divino e che quindi deve essere adorato dagli umani, esattamente come un dio.
Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Come riportato da Renovatio 21, Microsoft e OpenAI avrebbero messo in piedi il progetto di un supercomputer da 100 miliardi di dollari per addestrare un’AI avanzatissima. Tuttavia negli ultimi giorni vi sarebbero notizie di un ritiro di Microsoft dai progetti di OpenAI.
Elon Musk aveva fatto causa ha OpenAI, da lui di fatto fondata come società (fu lui a convincere a Sutskever a divenire capo del progetto scientifico), citando «profondi rischi per la società e l’umanità», ma ha ritirato pochi giorni fa la querela.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Notizie false nel podcast di lancio dell’intelligenza artificiale del WaPo
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
L’ascesa dell’AI avanzata potrebbe avere conseguenze catastrofiche: parla il CEO di Google DeepMind
Demis Hassabis, amministratore delegato di Google DeepMind, ha lanciato un monito sul cammino verso l’intelligenza artificiale generale (AGI), che potrebbe sfociare in «esiti catastrofici» quali cyberattacchi alle reti energetiche o idriche. Secondo lo Hassabis, l’AGI potrebbe concretizzarsi entro i prossimi dieci anni.
Durante il suo intervento all’Axios AI+ Summit della scorsa settimana a San Francisco, Hassabis ha delineato l’AGI come un sistema capace di manifestare «tutte le capacità cognitive» proprie dell’umanità, inclusa la propensione all’invenzione e alla creatività.
Egli ha rilevato che i modelli linguistici di grandi dimensioni odierni continuano a essere «intelligenze frastagliate», afflitte da deficit nel ragionamento, nella programmazione a lungo raggio e nell’apprendimento persistente. Nondimeno, ha ipotizzato che un’IA autenticamente intelligente possa emergere a breve, grazie a un potenziamento costante e «un paio di grandi innovazioni in più».
Al contempo, Hassabis ha ammesso che la fase propedeutica all’AGI sarà verosimilmente costellata da pericoli concreti e «risultati catastrofici», tra cui cyberattacchi alle infrastrutture energetiche o idriche.
«Probabilmente sta già quasi accadendo ora… forse non ancora con un’intelligenza artificiale molto sofisticata», ha osservato, indicandolo come «il vettore vulnerabile più ovvio». Ha proseguito evidenziando che attori malevoli, agenti autonomi e meccanismi che «deviano» dalle direttive iniziali esigono contromisure robuste. «È un rischio non nullo», ha concluso, in riferimento alla eventualità che apparati evoluti «scavalchino il guardrail».
Google Deepmind co-founder @demishassabis to @mikeallen on what about AI he fears most: “Bad actors using AI for harmful ends, or the AI itself as it gets closer to AGI … goes off the rails in some way that harms humanity.” #AxiosAISummit pic.twitter.com/bVmx4SNKIv
— Axios (@axios) December 5, 2025
Iscriviti al canale Telegram ![]()
Le apprensioni di Hassabis riecheggiano allarmi più estesi diffusi nel panorama tecnologico mondiale.
Come riportato da Renovatio 21, missiva aperta diramata a ottobre, sottoscritta da luminari del settore e figure di spicco, ha sostenuto che entità «superintelligenti» potrebbero mettere a repentaglio la libertà umana o la stessa esistenza, proponendo una moratoria globale sullo sviluppo dell’IA sin quando non se ne assicuri la saldezza. Tra i sottoscrittori, il co-fondatore di Apple Steve Wozniak, i pionieri dell’IA Geoffrey Hinton e Yoshua Bengio, il magnate Richard Branson del gruppo Virgin, oltre a personalità di rilievo politico e culturale.
Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.
Più pessimista è l’esperto dei pericoli dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».
Altre voci, tuttavia, propendono per un’interpretazione più rosea.
Elone Musk, che pure fa parte degli apocalittici riguardo i rischi delle macchine pensanti, ha dichiarato il mese scorso che gli avanzamenti dell’IA e della robotica potrebbero rendere il lavoro «facoltativo» tra 10-20 anni e che la moneta potrebbe rivelarsi «irrilevante» in un’economia IA-centrica, pur rammentando che occorrono ancora salti tecnologici sostanziali affinché tale orizzonte si materializzi.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
L’AI renderà il lavoro «facoltativo» e il denaro «irrilevante»: Musk come Marx e i sovietici
Aiuta Renovatio 21
Iscriviti al canale Telegram ![]()
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Politica2 settimane faIl «Nuovo Movimento Repubblicano» minaccia i politici irlandesi per l’immigrazione e la sessualizzazione dei bambini
-



Persecuzioni2 settimane faFamosa suora croata accoltellata: possibile attacco a sfondo religioso
-



Spirito2 settimane fa«Rimarrà solo la Chiesa Trionfante su Satana»: omelia di mons. Viganò
-



Fertilità2 settimane faUn nuovo studio collega il vaccino contro il COVID al forte calo delle nascite
-



Vaccini2 settimane faIl vaccino antinfluenzale a mRNA di Pfizer associato a gravi effetti collaterali, soprattutto negli anziani
-



Senza categoria1 settimana faI malori della 49ª settimana 2025
-



Pensiero5 giorni faDi tabarri e boomerri. Pochissimi i tabarri
-



Spirito1 settimana faNotre-Dame brucia e la Madonna viene privata del suo titolo














