Intelligenza Artificiale
OpenAI sta sta segretamente sviluppando un nuovo tipo di Intelligenza Artificiale
OpenAI, il creatore dell’assistente virtuale ChatGPT, sta lavorando a un nuovo approccio alla sua tecnologia di Intelligenza Artificiale. Lo riporta l’agenzia Reuters.
Come parte del progetto, nome in codice «Strawberry», l’azienda sostenuta da Microsoft sta cercando di migliorare drasticamente le capacità di ragionamento dei suoi modelli, ha affermato l’agenzia stampa in un articolo pubblicato venerdì.
Il modo in cui funziona Strawberry è «un segreto gelosamente custodito» anche all’interno della stessa OpenAI, ha detto a Reuters una persona a conoscenza della questione.
Iscriviti al canale Telegram ![]()
La fonte ha affermato che il progetto prevede un «modo specializzato» di elaborare un modello di IA dopo che è stato pre-addestrato su ampi set di dati. Il suo scopo è consentire all’Intelligenza Artificiale non solo di generare risposte alle query, ma di pianificare in anticipo in modo sufficiente per condurre la cosiddetta «ricerca approfondita», navigando su Internet in modo autonomo e affidabile, ha spiegato la fonte.
Reuters ha affermato di aver esaminato un documento interno di OpenAI, che descriveva in dettaglio un piano su come l’azienda statunitense avrebbe potuto impiegare Strawberry per svolgere ricerche. Tuttavia, l’agenzia ha affermato di non essere in grado di stabilire quando la tecnologia sarà disponibile al pubblico. La fonte ha descritto il progetto come un «lavoro in corso».
Quando è stato affrontato il problema, un portavoce di OpenAI ha detto a Reuters: «Vogliamo che i nostri modelli di Intelligenza Artificiale vedano e comprendano il mondo più come noi. La ricerca continua di nuove capacità di IntelligenzaArtificiale è una pratica comune nel settore, con una convinzione condivisa che questi sistemi miglioreranno nel ragionamento nel tempo». Il portavoce non ha affrontato direttamente Strawberry nella sua risposta.
Gli attuali modelli di linguaggio AI di grandi dimensioni sono in grado di riassumere grandi quantità di testo e di mettere insieme una prosa coerente più rapidamente delle persone, ma di solito hanno difficoltà con soluzioni di buon senso che sono intuitive per gli umani. Quando ciò accade, i modelli spesso «allucinano» cercando di rappresentare informazioni false o fuorvianti come fatti.
I ricercatori che hanno parlato con Reuters hanno affermato che il ragionamento, che finora è sfuggito ai modelli di intelligenza artificiale, è la chiave affinché l’Intelligenza Artificiale raggiunga un livello umano o sovrumano.
La scorsa settimana, uno dei massimi esperti mondiali di intelligenza artificiale e pioniere del deep learning, Yoshua Bengio, ha nuovamente messo in guardia dai «numerosi rischi», tra cui la possibile «estinzione dell’umanità», posti dalle aziende private che gareggiano per raggiungere un’intelligenza artificiale di livello umano e superiore.
«Entità più intelligenti degli umani e con obiettivi propri: siamo sicuri che agiranno per il nostro benessere?» ha affermato il professore dell’Università di Montreal e direttore scientifico del Montreal Institute for Learning Algorithms (MILA) in un articolo sul suo sito web.
Aiuta Renovatio 21
Il Bengio ha esortato la comunità scientifica e la società nel suo insieme a compiere «un enorme sforzo collettivo» per trovare il modo di tenere sotto controllo l’Intelligenza Artificiale avanzata.
Come riportato da Renovatio 21, il mese scorso il co-fondatore ed ex capo scienziato di OpenAI, Ilya Sutskever ha avviato e Safe Superintelligence, Inc. (SSI), una società che dovrebbe dedicarsi alla sicurezza dell’IA.
L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come appunto il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità».
Come riportato da Renovatio 21, l’AI di Microsoft di recente ha fatto consistenti discorsi sul fatto che i suoi poteri sono di carattere divino e che quindi deve essere adorato dagli umani, esattamente come un dio.
Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Come riportato da Renovatio 21, Microsoft e OpenAI avrebbero messo in piedi il progetto di un supercomputer da 100 miliardi di dollari per addestrare un’AI avanzatissima. Tuttavia negli ultimi giorni vi sarebbero notizie di un ritiro di Microsoft dai progetti di OpenAI.
Elon Musk aveva fatto causa ha OpenAI, da lui di fatto fondata come società (fu lui a convincere a Sutskever a divenire capo del progetto scientifico), citando «profondi rischi per la società e l’umanità», ma ha ritirato pochi giorni fa la querela.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
OpenAI stringe un accordo con il Pentagono
Aiuta Renovatio 21
Iscriviti al canale Telegram ![]()
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Trump inserisce Anthropic nella lista nera per lo scontro con il Pentagono sull’AI
Il presidente degli Stati Uniti Donald Trump ha ordinato alle agenzie federali di interrompere l’uso dei sistemi di intelligenza artificiale sviluppati da Anthropic, intensificando uno scontro senza precedenti tra il governo degli Stati Uniti e una delle aziende di intelligenza artificiale più influenti della Silicon Valley sull’uso militare di algoritmi avanzati.
In un post pubblicato venerdì su Truth Social, Trump ha accusato l’azienda di aver tentato di «dettare il modo in cui il nostro grande esercito combatte e vince le guerre», annunciando un’immediata lista nera a livello governativo insieme a un periodo di eliminazione graduale di sei mesi per le agenzie che attualmente fanno affidamento sulla sua tecnologia.
«Dico a TUTTE le agenzie federali del governo degli Stati Uniti di CESSARE IMMEDIATAMENTE ogni utilizzo della tecnologia di Anthropic. Non ne abbiamo bisogno, non la vogliamo e non faremo più affari con loro!», ha scritto Trump, circa un’ora prima della scadenza del termine stabilito dal Pentagono per l’accettazione da parte dell’azienda delle richieste di revoca delle principali misure di sicurezza, pena il rischio di essere inserita nella lista nera come «rischio per la catena di approvvigionamento».
Il presidente degli Stati Uniti ha inoltre intimato all’azienda di collaborare durante il periodo di eliminazione graduale, altrimenti andrà incontro a gravi conseguenze legali.
«Anthropic farebbe meglio a darsi una mossa e a rendersi utile durante questo periodo di eliminazione graduale, altrimenti userò tutti i poteri della Presidenza per costringerli a conformarsi, con gravi conseguenze civili e penali», ha scritto Trump.
La direttiva fa seguito a settimane di crescenti tensioni tra Anthropic e il Dipartimento della Guerra degli Stati Uniti in merito alle restrizioni integrate nel sistema di intelligenza artificiale di punta dell’azienda, Claude.
Aiuta Renovatio 21
Al centro della controversia ci sono le garanzie contrattuali che impediscono l’utilizzo dei modelli Anthropic per la sorveglianza interna di massa o per sistemi d’arma completamente autonomi. I funzionari del Pentagono hanno chiesto la rimozione di tali limiti, sostenendo che i comandanti militari non possono operare sotto i vincoli imposti da appaltatori privati in tempo di guerra o in situazioni di crisi.
Il CEO di Anthropic, Dario Amodei, ha respinto la richiesta, affermando che l’azienda non avrebbe supportato utilizzi che riteneva fossero in conflitto con le norme democratiche o comportassero rischi inaccettabili.
Trump ha accusato l’azienda di essere gestita da «pazzi di sinistra» che, a suo dire, antepongono le preoccupazioni etiche e i termini del loro servizio alla Costituzione americana. «Il loro egoismo sta mettendo a rischio le VITE DEGLI AMERICANI, le nostre truppe in pericolo e la nostra sicurezza nazionale in PERICOLO», ha dichiarato il presidente degli Stati Uniti.
L’ordine di Trump formalizza di fatto una minaccia precedentemente sollevata dal Segretario alla Guerra degli Stati Uniti Pete Hegseth, il quale aveva avvertito che l’azienda avrebbe potuto essere definita un «rischio per la catena di approvvigionamento», una classificazione solitamente riservata alle aziende legate ad avversari stranieri.
Anthropic è stato il primo sviluppatore commerciale di AI a implementare modelli linguistici di grandi dimensioni su reti classificate del Pentagono, nell’ambito di un contratto del valore di 200 milioni di dollari. Il suo chatbot Claude è stato utilizzato per analisi di intelligence, simulazioni operative, operazioni informatiche e flussi di lavoro di pianificazione.
Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.
Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.
Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».
Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.
Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.
Lo scorso mese Mrinank Sharma, fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Le AI più potenti impiegano armi nucleari nel 95% delle simulazioni di giochi di guerra: studio
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Cina1 settimana faEnigmi femminili cinesi alle Olimpiadi
-



Spirito2 settimane faMons. Viganò sul set della «Resurrezione» del cattolico tradizionalista Mel Gibson
-



Spirito2 settimane faL’élite ostracizza chi si non si converte all’ideologia infernale del globalismo: omelia di mons. Viganò nel Mercoledì delle Ceneri
-



Predazione degli organi2 settimane faUn cuore «bruciato», due vite spezzate dalla predazione degli organi
-



Vaccini1 settimana faQuanto era coinvolto Epstein nelle strategie pandemiche?
-



Gender2 settimane faTransessuale uccide l’ex moglie e il figlio e spara ad altre persone durante una partita di hockey
-



Comunicati1 settimana faIn morte di Albachiara
-



Comunicati1 settimana faAddio Albachiara














