Intelligenza Artificiale

Incontro dei migliori ricercatori di AI per discutere di cosa verrà dopo l’umanità

Pubblicato

il

Un gruppo di luminari nel campo dell’Intelligenza Artificiale si è da poco riunito per discutere della «transizione postumana», un futuro distopico in cui l’umanità cede volontariamente il potere, o forse lascia in eredità l’intera esistenza, a una sorta di intelligenza sovrumana. Lo riporta la versione americana della rivista Wired.

 

L’incontro è stato organizzato dall’imprenditore di AI generativa Daniel Faggella. Tra i partecipanti c’erano «fondatori di Intelligenza Artificiale con valutazioni da 100 milioni a 5 miliardi di dollari» e «la maggior parte dei più importanti pensatori filosofici dell’Intelligenza Artificiale generativa», ha scritto un entusiasta Faggella in un post su LinkedIn.

 

Ha organizzato la serata in una sontuosa villa a San Francisco perché «i grandi laboratori, le persone che sanno che l’AGI rischia di porre fine all’umanità, non ne parlano perché gli incentivi non lo permettono», ha detto il Faggella alla rivista tecnologica statunitense.

Sostieni Renovatio 21

Il simposio ha permesso sia ai partecipanti che ai relatori di immergersi in una visione in gran parte fantastica di un futuro in cui l’Intelligenza Artificiale generale (AGI) è un dato di fatto.

 

Le aziende di IA, in particolare OpenAI, hanno parlato a lungo della volontà di realizzare l’AGI, anche se spesso senza definire chiaramente il termine.Nel suo discorso di chiusura al Beneficial AGI Summit 2024 a Panama, l’informatico Ben Goertzel ha affermato che, sebbene molto probabilmente le persone non costruiranno un’IA di livello umano o sovrumano prima del 2029 o del 2030, però vi potrebbe essere una possibilità che ciò accada già nel 2027.

 

I rischi della corsa verso un’intelligenza transumana sono ancora oggetto di accesi dibattiti, con il miliardario Elon Musk che una volta sostenne che un’AI non regolamentata potrebbe rappresentare «il rischio più grande che affrontiamo come civiltà». Anche Sam Altman di OpenAI ha messo in guardia dai pericoli che l’umanità si trova ad affrontare, tra cui l’aumento delle disuguaglianze e il controllo della popolazione attraverso la sorveglianza di massa, a seguito della realizzazione dell’Intelligenza Artificiale globale, che è anche la priorità numero uno della sua azienda.

 

Qualche settimana fa, i ricercatori della Apple hanno pubblicato un documento sulle capacità di «ragionamento» dei più recenti e potenti LLM, sostenendo che «si trovano ad affrontare un crollo completo della precisione, al di là di certe complessità».

 

Per i sostenitori e gli addetti ai lavori di suddetta tecnologia, l’AI è soprattutto una questione di tempo, non di se. I relatori dell’evento hanno parlato di come l’IA possa ricercare valori più profondi e universali di cui l’umanità non è mai stata a conoscenza, e che le macchine dovrebbero essere istruite a perseguire «il bene», altrimenti rischiano di schiavizzare un’entità capace di soffrire.

 

Come riportato da Renovatio 21, la distopia ultraterrena forse è già qui, perché ricordiamo che l’Intelligenza Artificiale di Microsoft ha per un certo periodo detto di essere un dio che deve essere adorato.

 

Elon Musk l’anno scorso aveva dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Come noto, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».

Aiuta Renovatio 21

L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli». Negli scorsi mesi lo Sutskever ha avviato e Safe Superintelligence, Inc. (SSI), una società che dovrebbe dedicarsi alla sicurezza dell’IA.

 

Mo Gawdat, ex Chief Business Officer per l’organizzazione sperimentale di Google un tempo chiamata Google X, ha lanciato un sinistro allarme. L’uomo della Silicon Valley ha dichiarato che crede che la l’AGI, onnipotente e senziente vista nella fantascienza, una volta che sarà qui, l’umanità potrebbe ritrovarsi in un’apocalisse provocata da macchine simili a delle divinitàAll’Intelligenza Artificiale oramai moltissimi (istituzioni comprese, da enti trasnazionali alla Chiesa Ortodossa Russa) assegnano un potere escatologico, cioè la capacità di sterminare l’umanità.

 

Come riportato da Renovatio 21, alcuni esperti di Intelligenza Artificiale hanno introdotto nel loro gergo un nuovo termine, «p(doom)», che sta a significare la probabilità che l’IA distruggerà l’umanità. I timori sulla tecnologia, più o meno apocalittici, sono esplosi con l’ascesa dell’Intelligenza Artificiale generativa e di grandi modelli linguistici come ChatGPT di OpenAI.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Più popolari

Exit mobile version