Intelligenza Artificiale

L’Intelligenza Artificiale potrebbe minacciare l’umanità entro 2 anni: avvertimento della task force britannica

Pubblicato

il

L’Intelligenza Artificiale potrebbe minacciare l’umanità entro 2 anni, avverte il consigliere della task force britannica sull’IA.

 

Il consigliere della task force sull’intelligenza artificiale (AI) del primo ministro del Regno Unito ha affermato che gli esseri umani hanno circa due anni per controllare e regolamentare l’IA prima che diventi troppo potente.

 

In un’intervista con un media locale del Regno Unito, Matt Clifford, che è anche presidente dell’Agenzia governativa per la ricerca avanzata e le invenzioni (ARIA), ha sottolineato che i sistemi attuali stanno diventando «sempre più capaci a un ritmo sempre crescente».

 

Il Clifford ha continuato dicendo che se i funzionari non prendono in considerazione la sicurezza e le normative ora, i sistemi diventeranno «molto potenti» tra due anni.

 

«Abbiamo due anni per mettere in atto un quadro che renda il controllo e la regolamentazione di questi modelli molto grandi molto più possibile di quanto non sia oggi».

 

Clifford ha avvertito che ci sono «molti diversi tipi di rischi» quando si tratta di IA, sia a breve che a lungo termine, che ha definito «piuttosto spaventoso».

 

L’intervista è arrivata a seguito di una recente lettera aperta pubblicata dal Center for AI Safety, firmata da 350 esperti di IA, tra cui il CEO di OpenAI Sam Altman, secondo cui l’IA dovrebbe essere trattata come una minaccia esistenziale simile a quella rappresentata dalle armi nucleari e dalle pandemie.

 

«Stanno parlando di ciò che accade quando creiamo effettivamente una nuova specie, una specie di intelligenza più grande degli umani».

 

Il consigliere della task force AI ha affermato che queste minacce poste dall’IA potrebbero essere «molto pericolose» e potrebbero «uccidere molti umani, non tutti gli umani, semplicemente da dove ci aspetteremmo che i modelli si trovino tra due anni».

 

Secondo Clifford, l’obiettivo principale delle autorità di regolamentazione e degli sviluppatori dovrebbe essere capire come controllare i modelli e quindi implementare le normative su scala globale.

 

Per ora, ha affermato che la sua più grande paura è la mancanza di comprensione delle motivazioni dietro alle parole e ai comportamenti dei modelli di Intelligenza Artificiale. «Le persone che stanno costruendo i sistemi più capaci ammettono liberamente di non capire esattamente come spiegare i loro comportamenti».

 

Clifford ha sottolineato che molti dei leader delle organizzazioni che costruiscono l’IA concordano anche sul fatto che potenti modelli di Intelligenza Artificiale devono essere sottoposti a una sorta di processo di audit e valutazione prima della distribuzione.

 

Attualmente, le autorità di regolamentazione di tutto il mondo si stanno dando da fare per comprendere la tecnologia e le sue ramificazioni, mentre cercano di creare regolamenti che proteggano gli utenti e consentano comunque l’innovazione.

 

Il 5 giugno, i funzionari dell’Unione Europea sono arrivati ​​​​al punto di suggerire di imporre che tutti i contenuti generati dall’Intelligenza Artificiale dovrebbero essere etichettati come tali per prevenire la disinformazione.

 

In Gran Bretagna, un membro in prima linea del partito laburista all’opposizione ha fatto eco ai sentimenti menzionati nella lettera del Center for AI Safety, affermando che la tecnologia dovrebbe essere regolamentata come la medicina e l’energia nucleare.

 

Un recente rapporto della banca d’affari Goldman Sachs calcola che l’IA potrebbe portare a breve a 300 milioni di disoccupati nel mondo.

 

Elon Musk, che aveva chiesto una moratoria sulla AI con una lettera firmata da tantissimi (tranne, ovviamente, Bill Gates), ha dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Quando Musk ha ribattuto ad un entusiasta fondatore di Google Larry Page specificando i rischi dell’AI, il Page gli ha dato dello «specista», termine del gergo animalista che indica una persona che mette la specie umana sopra le altre.

 

L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers  se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». L’anno scorso, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».

 

Come riportato da Renovatio 21, a chiedere di fermare l’Intelligenza Artificiale è stato anche un gruppo di medici che hanno firmato un appello sulla prestigiosa rivista scientifica BMJ Global Health.

 

Eliezer Yudkowsky, specialista nel tema dei pericoli delle IA, ha dichiarato che l’unica possibilità è una moratoria che preveda il bombardamento delle server farm dei Paesi che stanno sviluppando l’AGI, poiché se non si fermano le macchine «tutti sulla terra moriranno».

 

Un recente esperimento dell’aviazione americana potrebbe dare ragione alle visioni apocalittiche: l’AI, durante una simulazione, ha ucciso il suo operatore umano. Quando è stata riprogrammata per non ucciderlo, ha semplicemente distrutto l’antenna tramite cui gli esseri umani gli davano ordini.

 

 

Più popolari

Exit mobile version