Intelligenza Artificiale

La prospettiva di estinzione causata dall’IA dovrebbe avere la stessa priorità della guerra nucleare: parlano gli esperti

Pubblicato

il

Impedire che l’intelligenza artificiale fuori controllo causi l’estinzione dell’umanità dovrebbe essere una priorità globale di massimo livello, ha affermato a inizio settimana un’organizzazione senza scopo di lucro chiamata Center for AI Safety in una dichiarazione firmata da 350 persone di spicco nell’IA e nei campi correlati.

 

«Mitigare il rischio di estinzione dell’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare», si legge nella dichiarazione.

 

I firmatari includevano il CEO di Google DeepMind Demis Hassabis, il CEO di Anthropic Dario Amodei e – sorpresa – il CEO di OpenAI Sam Altman, che ha recentemente dichiarato al Congresso USA di essere preoccupato che la tecnologia potesse andare «abbastanza male» e li ha esortati a imporre regolamenti al settore.

 

I tre leader del settore hanno incontrato il presidente degli Stati Uniti Joe Biden e il vicepresidente Kamala Harris all’inizio di questo mese per discutere di potenziali normative. Numerosi dirigenti di grandi aziende hanno anche aggiunto i loro nomi alla dichiarazione di martedì.

 

Geoffrey Hinton e Yoshua Bengio, considerati i «padrini dell’IA» per il loro lavoro sulle reti neurali, sono stati elencati per primi nel documento, anche se Yann LeCun, che ha svolto la ricerca con loro e ora gestisce la ricerca sull’IA per Meta, invece non ha firmato. Hinton ha lasciato il suo lavoro in Google all’inizio di questo mese per lanciare l’allarme sui rischi dell’IA e ha dichiarata che a volte si rammarica del lavoro della sua vita. Pochi mesi fa un ingegnere di Google, Blake Lemoine, ha dichiarato pubblicamente che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.

 

La lettera rappresenta un ulteriore «coming out» per i leader del settore che in precedenza tenevano nascoste le loro preoccupazioni sul futuro dell’IA, ha dichiarato martedì al New York Times il direttore esecutivo del Center for AI Safety Dan Hendrycks.

 

«C’è un malinteso molto comune, anche nella comunità dell’AI, secondo cui ci sono solo una manciata di apocalittici», ha spiegato, chiarendo che «molte persone in privato esprimerebbero preoccupazioni su queste cose».

 

Il messaggio fa eco a un’altra lettera aperta pubblicata a marzo dal Future of Life Institute, sostenendo una moratoria di sei mesi sugli sviluppi dell’IA su larga scala al fine di evitare «una corsa fuori controllo per sviluppare e distribuire menti digitali sempre più potenti».

 

Il messaggio che richiedeva una moratoria per mettere in pausa le ricerche sull’AI è stato firmato da più di 1.000 figure influenti della tecnologia, tra cui il miliardario Elon Musk, che è particolarmente apocalittico da sempre sul tema, ed ha appena ricevuto l’approvazione del governo degli Stati Uniti per procedere con i test umani sulla sua interfaccia cervello-computer Neuralink, che ha lo scopo di dare alle persone un vantaggio competitivo contro l’Intelligenza Artificiale – una sorta di «transumanismo difensivo».

 

Tuttavia, non tutti gli esperti di Intelligenza Artificiale sono timidi.

 

Jensen Huang, il CEO di Nvidia (società di microprocessori che ha pena raggiunto il trilione di dollari di capitalizzazione), ha recentemente dichiarato a un pubblico della National Taiwan University che coloro che non sono saltati sul colosso dell’IA vedranno il loro lavoro rubato, le loro aziende morte  e loro stessi divorati.

 

Ricordiamo anche la posizione del co-fondatore di Microsoft Bill Gates, un grande investitore di intelligenza artificiale (ha elargito 10 miliardi a OpenAI per usare ChatGPT sul suo motore di ricerca Microsoft Bing), insiste sul fatto che la tecnologia porterà solo «enormi vantaggi».

 

Come riportato da Renovatio 21, a chiedere di fermare l’Intelligenza Artificiale è stato anche un gruppo di medici che hanno firmato un appello sulla prestigiosa rivista scientifica BMJ Global Health.

 

Un recente rapporto della banca d’affari Goldman Sachs calcola che l’IA potrebbe portare a breve a 300 milioni di disoccupati nel mondo.

 

Il Musk aveva dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Quando Musk ha ribattuto ad un entusiasta fondatore di Google Larry Page specificando i rischi dell’AI, il Page gli ha dato dello «specista», termine del gergo animalista che indica una persona che mette la specie umana sopra le altre.

 

L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers  se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».

 

Eliezer Yudkowsky, specialista nel tema dei pericoli delle IA, ha dichiarato che l’unica possibilità è una moratoria che preveda il bombardamento delle server farm dei Paesi che stanno sviluppando l’AGI, poiché se non si fermano le macchine «tutti sulla terra moriranno».

 

 

 

Più popolari

Exit mobile version