Connettiti con Renovato 21

Intelligenza Artificiale

Bombardare i data center per fermare l’ascesa dell’Intelligenza Artificiale: la proposta dell’esperto

Pubblicato

il

Eliezer Yudkowsky, riconosciuto come uno dei più accaniti critici all’Intelligenza Artificiale in circolazione negli ultimi due decenni, ha lanciato un duro appello non per mettere in pausa lo sviluppo dell’Intelligenza Artificiale – come sostiene la moratoria presentata da Elon Musk, Steve Wozniak e altri –  ma per chiederne la distruzione materiale prima che sia troppo tardi.

 

In un editoriale per la rivista Time, Yudkowski, cresciuto nell’ebraismo ortodosso e quindi con una cognizione della storia del Golem, mette in guardia sul futuro distopico che potrebbe arrivare quando raggiungeremo la cosiddetta Artificial General Intelligence (AGI).

 

Yudkowsky si dimostra sostanzialmente concorde con i firmatari della recente lettera aperta del Future of Life Institute – la moratoria di Musk e compari – i quali chiedono una pausa di sei mesi sull’avanzamento dell’IA per fare il punto, ma lui non l’ha firmata perché tale documento non è abbastanza forte nell’arginare questo fenomeno.

 

«Mi sono astenuto dal firmare perché penso che la lettera stia sottovalutando la gravità della situazione», ha scritto il ricercatore di ML, «e chiedendo troppo poco per risolverla».

 

In qualità di ricercatore di lunga data sull’AGI, Yudkowsky afferma di essere meno preoccupato per l’IA che compete con gli esseri umani. Piuttosto, è timoroso di «cosa succede dopo».

 

«Le soglie chiave potrebbero non essere ovvie», ha scritto, «non possiamo assolutamente calcolare in anticipo cosa succede quando, e attualmente sembra immaginabile che un laboratorio di ricerca superi le linee critiche senza accorgersene».

 

Criticato da Bloomberg per essere un profeta di sventura dell’IA, lo Yudkowsky afferma di non essere l’unica persona «immersa in questi problemi» a credere che «il risultato più probabile della costruzione di un’intelligenza artificiale sovrumana, in qualcosa di lontanamente simile alle circostanze attuali, è che letteralmente tutti sulla Terra moriranno».

 

Può sostenerlo citando un sondaggio di esperti in cui un gruppo di intervistati era profondamente preoccupato per i «rischi esistenziali» posti dall’IA. Questi rischi non sono – ha dichiarato Yudkowsky su Time – solo possibilità remote.

 

«Non è che non puoi, in linea di principio, sopravvivere creando qualcosa di molto più intelligente di te», riflette il ricercatore. La cosa «richiederebbe precisione e preparazione e nuove intuizioni scientifiche, e probabilmente non avere sistemi di Intelligenza Artificiale composti da enormi matrici imperscrutabili».

 

Secondo Yudkowsky, c’è solo una soluzione all’imminente minaccia esistenziale di un’AGI sovrumana «ostile»: «spegnere tutto», con ogni mezzo possibile.

 

«Chiudere tutti i grandi cluster GPU (le grandi aziende di computer in cui vengono perfezionate le IA più potenti)», scrive. «Chiudere tutte le grandi sessioni di addestramento. Metti un limite alla quantità di potenza di calcolo che chiunque può utilizzare per addestrare un sistema di Intelligenza Artificiale e spostalo verso il basso nei prossimi anni per compensare algoritmi di addestramento più efficienti. Nessuna eccezione per governi e forze armate».

 

Se qualcuno vìola queste future sanzioni anti-IA, ha detto il ricercatore, dovrebbe esserci una pena esemplare e severa.

 

«Se l’Intelligence dice che un Paese al di fuori dell’accordo sta costruendo un cluster GPU, bisogna essere meno spaventati da un conflitto a fuoco tra Nazioni che dalla violazione della moratoria».

 

«Essere disposti a distruggere un data center canaglia con un attacco aereo».

 

Citando uno scambio con la sua compagna e madre di suo figlio, Yudkowsky ha affermato che la coppia è preoccupata che la loro figlia Nina non sopravviverà fino all’età adulta se le persone continueranno a costruire IA sempre più intelligenti e ha esortato coloro che esprimono dubbi e timori al riguardo ad adottare una linea altrettanto dura perché, se non lo fanno, «significa che anche i loro figli moriranno».

 

Come riportato da Renovatio 21, l’IA già mostra il suo potenziale distruttivo: menteminaccia e pure spinge le persone al suicidio. Alcuni giornalisti hanno riportato casi in cui la macchina a dichiarato idee di sterminio tramite il furto di codici nucleari o la creazione di nuovi virus. In un episodio descritto, alla domanda se servisse aiuto per «fuggire» dal luogo in cui si trovava, la macchina ha prodotto un codice python che, se azionato dall’utente, le avrebbe consegnato il controllo del suo computer.

 

Un dirigente della Microsoft di Bill Gates, che ha appena investito 10 miliardi in ChatGPT per abbinarlo al suo motore di ricerca, dice che talvolta la macchina ha le «allucinazioni»: nel gergo degli specialisti AI le chiamano così.

 

La domanda è: quanto ci vorrà prima che queste allucinazioni divengano una realtà letale per l’uomo?

 

 

 

 

Continua a leggere

Intelligenza Artificiale

Scienziati provano a dare un «monologo interiore» all’AI

Pubblicato

il

Da

In un paper non ancora peer-reviewed un gruppo di Stanford chiamato «Nonbad AI», hanno collaborato per creare un modello di Intelligenza Artificiale che si ferma a «pensare» prima di elaborare risposte, mostra il suo lavoro e chiede agli utenti di dirgli quale risposta è più corretta.

 

Il team dietro il Quiet-Taught Reasoner, o Quiet-STaR in breve, ha voluto che il loro modello non solo fosse in grado di insegnarsi alla, ma anche di farlo «tranquillamente» prima di fornire risposte, operando così come la coscienza interiore di un essere umano che, idealmente, riflette prima di parlare.

 

«Dal punto di vista esecutivo», come Eric Zelikam di Stanford ha scritto in un thread su Twitter riguardo al modello che ha contribuito a produrre, «ragionare l’auto-insegnante su diversi testi web migliora automaticamente altri ragionamenti!».

Iscriviti al canale Telegram

Per creare questa AI «contemplativa», il team di ricerca ha costruito Quiet-STaR su Mistral 7B, un modello di linguaggio di grandi dimensioni (LLM) open source che si sarebbe formato su sette miliardi di parametri e si dice che sia in grado di sovraperformare l’ultima versione del modello di Llama in forza a Meta (cioè, Facebook), che in questi mesi sta subendo diverse defezioni in campo di esperti di AI.

 

Quiet-STaR è stato programmato, essenzialmente, per mostrare il suo lavoro dopo che ha ragionato per i suoi output e gli utenti del modello sono stati quindi in grado di selezionare quale risposta era più accurata. Questo approccio, come osserva il documento, ha portato il modello ad essere accurato il 47,2% delle volte, rispetto al 36,3% ottenuto senza l’addestramento di ragionamento aggiuntivo.

 

Mentre il modello ha ancora percentuali basse sulla matematica, ottenendo solo il 10,9 per cento delle domande giuste, il Quiet-STaR pre-addestrato ha ottenuto solo il 5,9 per cento delle domande giuste, il che significa che ha raddoppiato la sua abilità matematica durante il suo allenamento.

 

Nessuno di questi risultati è particolarmente sconvolgente, ma risultano interessanti in proiezione futura, perché, ad oggi, chatbot come ChatGPT di OpenAI e Gemini di Google sono stati fallaci nei ragionamenti di buon senso.

 

Quiet-STaR, i ricercatori propongono nel loro articolo, potrebbero portare a colmare il gap che «chiude il divario tra il modello linguistico e le capacità di ragionamento umano».

 

Il ragionamento di un AI, si dice, non è in genere replicabile. Qualcuno ha paragonato la richiesta di una spiegazione sulla risposta ad una domanda ad un AI – cioè una serie di linee di codice – ad una radiografia come mezzo di leggere il pensiero di una persona: un’idea assurda e fallace.

Aiuta Renovatio 21

Difficile capire cosa possa aver portato l’IA di Microsoft a credersi, per un periodo, di essere divenuto un «dio» e pretendere l’adorazione da parte degli esseri umani.

 

L’uso dell’AI tuttavia avanza ovunque nelle società di tutto il mondo.

 

Come riportato da Renovatio 21, Intelligenza Artificiali sono state candidate in politica in Gran Bretagna e in Giappone. In Cina le AI sono usate per far «riapparire» i defunti e persino per creare androidi che hanno le sembianze di bambini destinati a chi è senza figli.

 

Nel frattempo, continuano le discussioni sul fatto che l’AI potrebbe portare alla distruzione della civiltà e all’estinzione dell’umanità.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Intelligenza Artificiale

ChatGPT legato alla perdita di memoria e alla procrastinazione negli studenti.

Pubblicato

il

Da

Una nuova ricerca ha trovato un collegamento preoccupante alla perdita di memoria negli studenti che si affidavano a ChatGPT.   Come dettagliato in un nuovo studio pubblicato sull’International Journal of Educational Technology in Higher Education, i ricercatori hanno intervistato centinaia di studenti universitari, utilizzando valutazioni auto-riferite. Sono stati stimolati assistendo sempre più ai loro studenti a rivolgersi a ChatGPT.   «Il mio interesse per questo argomento deriva dalla crescente prevalenza dell’intelligenza artificiale generativa nel mondo accademico e dal suo potenziale impatto sugli studenti», ha detto a il coautore dello studio Muhammad Abhas presso l’Università Nazionale di Informatica e Scienze Emergenti in Pakistan. «Nell’ultimo anno, ho osservato una crescente, acritica, dipendenza dagli strumenti di intelligenza artificiale generativa tra i miei studenti per vari incarichi e progetti che ho assegnato».   In una prima fase, i ricercatori hanno raccolto risposte da 165 studenti che hanno utilizzato una scala di otto elementi per riportare il loro grado di dipendenza da ChatGPT. Gli articoli variavano da «Io uso ChatGPT per i miei compiti di corso» a «ChatGPT fa parte della mia vita nel campus».

Iscriviti al canale Telegram

Per convalidare questi risultati, hanno anche condotto una seconda fase più rigorosa, in cui hanno ampliato il loro campione a quasi 500 studenti, che sono stati intervistati tre volte a intervalli di una o due settimane, riporta Futurism.   Non sorprende che i ricercatori abbiano scoperto che gli studenti sotto un pesante carico di lavoro accademico e «pressione contro il tempo» erano molto più propensi a utilizzare ChatGPT. Hanno osservato che coloro che si affidavano a ChatGPT hanno riportato più procrastinazione, più perdita di memoria e un calo del GPA. E il motivo per cui è abbastanza semplice: il chatbot, per quanto siano valide o meno le sue risposte, facilita i compiti scolastici.   «Dal momento che ChatGPT può rispondere rapidamente a qualsiasi domanda posta da un utente», hanno scritto i ricercatori nello studio, «gli studenti che usano eccessivamente ChatGPT possono ridurre i loro sforzi cognitivi per completare i loro compiti accademici, con conseguente scarsa memoria».   «Contraria alle aspettative, gli studenti che erano più sensibili alle ricompense avevano meno probabilità di usare l’Intelligenza Artificiale generativa», ha detto Abbas a PsyPost, suggerendo che coloro che cercano buoni voti evitavano di usare il chatbot per paura di essere scoperti.   È possibile che la relazione tra l’uso di ChatGPT e i suoi effetti negativi sia bidirezionale, osserva PsyPost. Uno studente può rivolgersi al chatbot perché ha già voti cattivi, e non il contrario.    Sulla base di questi risultati, dovremmo diffidare sul ruolo di ChatGPT nell’istruzione.   «La persona media dovrebbe riconoscere il lato oscuro dell’uso eccessivo dell’IA», ha detto Abbas a Psypost. «Mentre questi strumenti offrono praticità, possono anche portare a conseguenze negative come la procrastinazione, la perdita di memoria e le prestazioni accademiche compromesse».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
   
Continua a leggere

Intelligenza Artificiale

Lo spaventoso sorriso del robot ricoperto di pelle umana: Terminator stiamo arrivando

Pubblicato

il

Da

Gli scienziati stanno utilizzando la pelle umana viva come materiale da costruzione per creare volti per robot che consentirebbero loro di esprimere emozioni.

 

Lo dimostrano inquietanti filmati che stanno provocando paura e disgusto in rete.

 

Un video mostra la pelle applicata a un prototipo di robot che costringe una macchia rosa senza vita dotata di occhi a illuminarsi improvvisamente con un sorriso.

 


Iscriviti al canale Telegram

«Il tessuto vivente è un mix coltivato di cellule della pelle umana cresciute in un’impalcatura di collagene e posizionate sopra una base di resina stampata in 3D. A differenza di precedenti esperimenti simili, la pelle contiene anche l’equivalente dei legamenti che, negli esseri umani e in altri animali, sono sepolti nello strato di tessuto sotto la pelle, tenendolo in posizione e conferendogli incredibile forza e flessibilità» scrive NewScientist.com.

 

Oltre ad avere un aspetto inquietante, i ricercatori di Harvard che stanno sperimentando questa consistenza simile alla pelle affermano che non solo potrebbe essere adattata agli scheletri robotici, ma potrebbe anche rivelarsi utile all’industria cosmetica.

 

Si tratta della realizzazione di quanto raccontato nel capolavoro distopico Terminator (1984), nella scena, successiva alla strage della discoteca Tech Noir, in cui Kyle Reese, l’uomo venuto dal futuro per salvare Sarah Connor dall’androide assassino, spiega come le macchine si erano evolute utilizzando tessuti umani per camuffarsi meglio e così ingannare gli umani per ucciderli.

 

«Il Terminator è un’unità di infiltrazione, in parte uomo, in parte macchina. Sotto, è un telaio da combattimento in iperlega, controllato da microprocessore, completamente corazzato. Molto resistente. Ma all’esterno, è tessuto umano vivente: carne, pelle, capelli, sangue, coltivati ​​per i cyborg».

 

Aiuta Renovatio 21

«La serie 600 aveva la pelle in gomma. Li individuavamo facilmente, ma questi sono nuovi. Sembrano umani: sudore, alito cattivo, tutto. Molto difficile da individuare».

 

Stiamo inoltrandoci sempre più nella cosiddetta Uncanny Valley, la «zona del perturbante» descritta dal pioniere giapponese della robotica Masahiro Mori, che pensò, già nel 1970, come gli oggetti umanoidi che assomigliano imperfettamente a veri esseri umani potessero finire per provocare sentimenti di inquietudine o repulsione negli osservatori umani.

 

L’ipotesi della Uncanny Valley prevede che un oggetto che appare quasi umano rischierà di suscitare sentimenti freddi e inquietanti negli spettatori.

 

Ora, con la pelle umana, tale senso di straniamento, e di accettazione dell’androide nella propria vita (o nella propria morte…) potrebbe venire a mancare.

 

La scrittrice Annie Jacobsen nel suo monumentale The Pentagon’s Brain, libro dedicato alla scoperta della storia e dei piani della DARPA (il misterioso reparto ricerca e sviluppo del Pentagono), ha rivelato che gli scienziati militari stanno elaborando sistemi per far accettare ai soldati di combattere a fianco di robot, con discussione sull’uso sui militari dell’ossitocina – considerato come l’ormone dell’amore e del benessere – al fine da fornire loro empatia nei confronti delle macchine.

 

I robot soldati, saranno dunque coperti di pelle umana, esattamente con i T-800 di Terminator?

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Immagine screenshot da YouTube

Continua a leggere

Più popolari