Senza categoria

La superintelligenza artificiale potrebbe arrivare entro il 2027

Pubblicato

il

Nel suo discorso di chiusura al Beneficial AGI Summit di quest’anno a Panama, l’informatico Ben Goertzel ha affermato che, sebbene molto probabilmente le persone non costruiranno un’intelligenza artificiale di livello umano o sovrumano prima del 2029 o del 2030, però vi potrebbe essere una possibilità che ciò accada già nel 2027.

 

Dopodiché, ha affermato il fondatore di SingularityNET, l’Intelligenza Artificiale Generale (AGI) potrebbe evolversi rapidamente in una superintelligenza artificiale (ASI), che lui definisce come un’IA dotata di tutta la conoscenza combinata della civiltà umana.

 

«Nessuno ha ancora creato un’Intelligenza Artificiale generale di livello umano; nessuno ha una conoscenza concreta di quando ci arriveremo», ha detto il Goertzel al pubblico della conferenza. «Voglio dire, ci sono incognite note e probabilmente incognite sconosciute» ha aggiunto, «d’altro canto, mi sembra abbastanza plausibile che potremmo arrivare a un’intelligenza artificiale di livello umano entro, diciamo, i prossimi tre-otto anni».

Iscriviti al canale Telegram

Il Goertzel non è l’unico a tentare questo tipo di previsione.

 

Lo scorso autunno, il co-fondatore di Google DeepMind, Shane Legg, ha ribadito la sua previsione, vecchia di oltre un decennio, secondo cui c’è una probabilità del 50% che gli umani inventino l’AGI entro il 2028. In un tweet del maggio dell’anno scorso, il «padrino dell’IA» ed ex-Googler Geoffrey Hinton aveva affermato di prevedere, «senza troppa sicurezza», che l’AGI sarà lontana dai cinque ai vent’anni.

 

Conosciuto anche per essere il creatore del robot umanoide Sophia, il Goertzel teorizza da tempo sulla data della cosiddetta «singolarità», ovvero il punto in cui l’Intelligenza Artificiale raggiunge il livello umano e successivamente la supera.

 

Fino a qualche anno fa, l’AGI, come la descrivono Goertzel e i suoi collaboratori, sembrava un sogno irrealizzabile, ma con i progressi nei modelli di grandi dimensioni (LLM) compiuti da OpenAI da quando ha lanciato ChatGPT nel mondo alla fine del 2022, questa possibilità sembra sempre più vicina, anche se lo scienziato è pronto a sottolineare che gli LLM da soli non sono ciò che porterà all’AGI, scrive Futurism.

 

«Il mio punto di vista è che una volta che si arriva a un’AGI di livello umano, nel giro di qualche anno si potrebbe ottenere un’AGI radicalmente sovrumana, a meno che l’AGI non minacci di soffocare il proprio sviluppo a causa del proprio conservatorismo», ha dichiarato il pioniere dell’IA. «Penso che una volta che un’AGI riesce a introspettare la propria mente, allora può fare ingegneria e scienza a livello umano o sovrumano».

 

«Dovrebbe essere in grado di creare un’AGI più intelligente, poi un’AGI ancora più intelligente, quindi un’esplosione di intelligenza», ha sottolineato il ricercatore.

 

È tuttavia automatico soffermarsi sui rischi che si possono correre sviluppando oltremodo l’AI. Alcuni esperti di Intelligenza Artificiale hanno introdotto nel loro gergo un nuovo termine, «p(doom)», che sta a significare la probabilità che l’IA distruggerà l’umanità. I timori sulla tecnologia, più o meno apocalittici, sono esplosi con l’ascesa dell’Intelligenza Artificiale generativa e di grandi modelli linguistici come ChatGPT di OpenAI.

 

Vi sono molti dubbi su ciò che Goertzel va predicando, non ultima delle quali è che, secondo gli standard umani, persino un’IA sovrumana non avrebbe una «mente» come la nostra. Poi c’è l’ipotesi che l’evoluzione della tecnologia continuerebbe lungo un percorso lineare lontano dal resto della società umana.

 

La corsa verso uno sviluppo di questa nuova frontiera della tecnologia non si arresta, anzi sta prosperando su più fronti.

Aiuta Renovatio 21

Come riportato da Renovatio21, OpenAI, il creatore di ChatGPT, sta lavorando a un nuovo approccio alla sua tecnologia di Intelligenza Artificiale. Come parte del progetto, nome in codice «Strawberry», l’azienda sostenuta da Microsoft sta cercando di migliorare drasticamente le capacità di ragionamento dei suoi modelli.

 

Come riportato da Renovatio 21Microsoft e OpenAI avrebbero messo in piedi il progetto di un supercomputer da 100 miliardi di dollari per addestrare un’AI avanzatissima. Tuttavia negli ultimi giorni vi sarebbero notizie di un ritiro di Microsoft dai progetti di OpenAI.

 

Come riportato da Renovatio 21, il mese scorso il co-fondatore ed ex capo scienziato di OpenAI, Ilya Sutskever ha avviato e Safe Superintelligence, Inc. (SSI), una società che dovrebbe dedicarsi alla sicurezza dell’IA.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Più popolari

Exit mobile version