Intelligenza Artificiale

Bombardare i data center per fermare l’ascesa dell’Intelligenza Artificiale: la proposta dell’esperto

Pubblicato

il

Eliezer Yudkowsky, riconosciuto come uno dei più accaniti critici all’Intelligenza Artificiale in circolazione negli ultimi due decenni, ha lanciato un duro appello non per mettere in pausa lo sviluppo dell’Intelligenza Artificiale – come sostiene la moratoria presentata da Elon Musk, Steve Wozniak e altri –  ma per chiederne la distruzione materiale prima che sia troppo tardi.

 

In un editoriale per la rivista Time, Yudkowski, cresciuto nell’ebraismo ortodosso e quindi con una cognizione della storia del Golem, mette in guardia sul futuro distopico che potrebbe arrivare quando raggiungeremo la cosiddetta Artificial General Intelligence (AGI).

 

Yudkowsky si dimostra sostanzialmente concorde con i firmatari della recente lettera aperta del Future of Life Institute – la moratoria di Musk e compari – i quali chiedono una pausa di sei mesi sull’avanzamento dell’IA per fare il punto, ma lui non l’ha firmata perché tale documento non è abbastanza forte nell’arginare questo fenomeno.

 

«Mi sono astenuto dal firmare perché penso che la lettera stia sottovalutando la gravità della situazione», ha scritto il ricercatore di ML, «e chiedendo troppo poco per risolverla».

 

In qualità di ricercatore di lunga data sull’AGI, Yudkowsky afferma di essere meno preoccupato per l’IA che compete con gli esseri umani. Piuttosto, è timoroso di «cosa succede dopo».

 

«Le soglie chiave potrebbero non essere ovvie», ha scritto, «non possiamo assolutamente calcolare in anticipo cosa succede quando, e attualmente sembra immaginabile che un laboratorio di ricerca superi le linee critiche senza accorgersene».

 

Criticato da Bloomberg per essere un profeta di sventura dell’IA, lo Yudkowsky afferma di non essere l’unica persona «immersa in questi problemi» a credere che «il risultato più probabile della costruzione di un’intelligenza artificiale sovrumana, in qualcosa di lontanamente simile alle circostanze attuali, è che letteralmente tutti sulla Terra moriranno».

 

Può sostenerlo citando un sondaggio di esperti in cui un gruppo di intervistati era profondamente preoccupato per i «rischi esistenziali» posti dall’IA. Questi rischi non sono – ha dichiarato Yudkowsky su Time – solo possibilità remote.

 

«Non è che non puoi, in linea di principio, sopravvivere creando qualcosa di molto più intelligente di te», riflette il ricercatore. La cosa «richiederebbe precisione e preparazione e nuove intuizioni scientifiche, e probabilmente non avere sistemi di Intelligenza Artificiale composti da enormi matrici imperscrutabili».

 

Secondo Yudkowsky, c’è solo una soluzione all’imminente minaccia esistenziale di un’AGI sovrumana «ostile»: «spegnere tutto», con ogni mezzo possibile.

 

«Chiudere tutti i grandi cluster GPU (le grandi aziende di computer in cui vengono perfezionate le IA più potenti)», scrive. «Chiudere tutte le grandi sessioni di addestramento. Metti un limite alla quantità di potenza di calcolo che chiunque può utilizzare per addestrare un sistema di Intelligenza Artificiale e spostalo verso il basso nei prossimi anni per compensare algoritmi di addestramento più efficienti. Nessuna eccezione per governi e forze armate».

 

Se qualcuno vìola queste future sanzioni anti-IA, ha detto il ricercatore, dovrebbe esserci una pena esemplare e severa.

 

«Se l’Intelligence dice che un Paese al di fuori dell’accordo sta costruendo un cluster GPU, bisogna essere meno spaventati da un conflitto a fuoco tra Nazioni che dalla violazione della moratoria».

 

«Essere disposti a distruggere un data center canaglia con un attacco aereo».

 

Citando uno scambio con la sua compagna e madre di suo figlio, Yudkowsky ha affermato che la coppia è preoccupata che la loro figlia Nina non sopravviverà fino all’età adulta se le persone continueranno a costruire IA sempre più intelligenti e ha esortato coloro che esprimono dubbi e timori al riguardo ad adottare una linea altrettanto dura perché, se non lo fanno, «significa che anche i loro figli moriranno».

 

Come riportato da Renovatio 21, l’IA già mostra il suo potenziale distruttivo: menteminaccia e pure spinge le persone al suicidio. Alcuni giornalisti hanno riportato casi in cui la macchina a dichiarato idee di sterminio tramite il furto di codici nucleari o la creazione di nuovi virus. In un episodio descritto, alla domanda se servisse aiuto per «fuggire» dal luogo in cui si trovava, la macchina ha prodotto un codice python che, se azionato dall’utente, le avrebbe consegnato il controllo del suo computer.

 

Un dirigente della Microsoft di Bill Gates, che ha appena investito 10 miliardi in ChatGPT per abbinarlo al suo motore di ricerca, dice che talvolta la macchina ha le «allucinazioni»: nel gergo degli specialisti AI le chiamano così.

 

La domanda è: quanto ci vorrà prima che queste allucinazioni divengano una realtà letale per l’uomo?

 

 

 

 

Più popolari

Exit mobile version