Intelligenza Artificiale
Il padrino dell’AI torna ad avvertire: l’umanità è in pericolo

L’Intelligenza Artificiale potrebbe portare all’estinzione umana entro tre decenni con una probabilità fino al 20%, secondo Geoffrey Hinton, una figura pionieristica dell’IA e vincitore del premio Nobel per la fisica nel 2024. Ciò segna un aumento rispetto al rischio del 10%, stimato solo un anno fa.
Durante un’intervista su BBC Radio 4 giovedì, a Hinton è stato chiesto se fosse cambiato qualcosa dalla sua precedente stima di una probabilità su dieci di un’apocalisse dell’IA. Lo scienziato vincitore del premio Turing ha risposto: «Non proprio, dal 10% al 20%».
Ciò ha portato il direttore ospite dello show, l’ex cancelliere Sajid Javid, a dire «state salendo». L’informatico, che ha lasciato Google l’anno scorso, ha risposto: «Se non altro. Vedete, non abbiamo mai dovuto avere a che fare con cose più intelligenti di noi prima».
Lo scienziato britannico-canadese, che quest’anno ha ricevuto il premio Nobel per la fisica per il suo contributo all’Intelligenza Artificiale, ha evidenziato le sfide legate al controllo dei sistemi di intelligenza artificiale avanzati.
«Quanti esempi conosci di una cosa più intelligente controllata da una cosa meno intelligente?… L’evoluzione ha lavorato molto per consentire al bambino di controllare la madre, ma questo è l’unico esempio che conosco», ha affermato lo Hinton, spesso chiamato «il padrino dell’intelligenza artificiale».
«Immagina te stesso e un bambino di tre anni. Saremo noi il bambino di tre anni», rispetto a un’Intelligenza Artificiale futura che sarebbe «più intelligente delle persone», ha continuato lo scienziato, osservando che i progressi sono stati «molto più rapidi di quanto mi aspettassi» e chiedendo una regolamentazione per garantire la sicurezza.
Lo Hinton ha quindi messo in guardia dal fare affidamento esclusivamente su motivazioni di profitto aziendale, affermando che «l’unica cosa che può costringere queste grandi aziende a fare più ricerca sulla sicurezza è la regolamentazione governativa».
Nel maggio 2023, il Center for AI Safety ha rilasciato una dichiarazione firmata da eminenti scienziati del settore, tra cui lo Hinton, avvertendo che «attenuare il rischio di estinzione dovuto all’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come pandemie e guerre nucleari». Tra i firmatari ci sono il CEO di Tesla Elon Musk, il co-fondatore di Apple Steve Wozniak e Yoshua Bengio, considerato un pioniere dell’IA per il suo lavoro sulle reti neurali.
Lo Hinton ritiene che i sistemi di Intelligenza Artificiale potrebbero alla fine superare l’intelligenza umana, sfuggire al controllo umano e, potenzialmente, causare danni catastrofici all’umanità. Egli sostiene la necessità di dedicare risorse significative per garantire la sicurezza e l’uso etico dell’intelligenza artificiale, sottolineando anche l’urgente necessità di misure proattive prima che sia troppo tardi.
Come riportato da Renovatio 21, lo Hinton si è licenziato da Google per poter dichiarare il rischio per l’umanità costituito dall’AI, che per ora, secondo l’informatico britannico sarebbe solo, «moderato».
Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Yann LeCun, Chief AI Scientist presso Meta-Facebook, ha espresso opinioni contrarie a quelle di Hinton, affermando che la tecnologia «potrebbe effettivamente salvare l’umanità dall’estinzione».
Sostieni Renovatio 21
Come riportato da Renovatio 21, Bill Gates si oppose alla moratoria. Gates, con cui Musk ha avuto scontri anche gustosi in passato, non ha partecipato alla moratoria internazionale promossa di Musk sul controllo dell’AI, replicando che invece l’AI sarebbe divenuto un ottimo maestro per i bambini e che proprio l’Intelligenza Artificiale salverà la democrazia.
Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.
Come riportato da Renovatio 21, il mese passato si era registrato l’allarme di un altro pioniere dell’IA, il noto esperto di informatica canadese professore presso l’Università di Montreal e direttore del Montreal Institute for Learning Algorithms Yoshua Bengio (nessuna relazione con Haran Benjo), che era tra le principali figure del settore, tra cui il CEO di Tesla Elon Musk e il co-fondatore di Apple Steve Wozniak, che l’anno scorso hanno co-firmato una lettera che chiedeva una regolamentazione aggressiva del settore dell’Intelligenza Artificiale.
«Ci sono persone che potrebbero voler abusare di questo potere, e ci sono persone che potrebbero essere felici di vedere l’umanità sostituita dalle macchine», aveva affermato il Bengio, chiedendo una regolamentazione più severa.
Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.
Più pessimista è l’esperto dei pericolo dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
L’AI di Musk, Grok, dichiara di essere «MechaHitler»

Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
ChatGPT induce alla psicosi

ChatGPT è collegato a una psicosi «terrificante» in alcuni utenti, citando le persone colpite, i loro familiari e i ricercatori. Lo riporta Futurism.
Secondo il sito legato alla Singularity University (istituto della Silicon Valley creato da esponenti del transumanismo), un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi.
«Il nocciolo della questione sembra essere il fatto che ChatGPT, che si basa su un modello linguistico di grandi dimensioni (LLM), è fortemente incline a concordare con gli utenti e a dire loro ciò che vogliono sentirsi dire», ha scritto la testata.
Sostieni Renovatio 21
Il sito ha citato casi di «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.
Un uomo ha sviluppato deliri messianici dopo lunghe conversazioni su ChatGPT, credendo di aver creato un’intelligenza artificiale senziente e di aver infranto le leggi della matematica e della fisica. A quanto pare, è diventato paranoico, ha sofferto di privazione del sonno ed è stato ricoverato in ospedale dopo un tentativo di suicidio.
Un altro uomo si è rivolto a ChatGPT per gestire lo stress legato al lavoro, ma poi è caduto in una spirale di fantasie paranoiche che includevano viaggi nel tempo e lettura del pensiero. In seguito si è fatto ricoverare in una clinica psichiatrica.
Jared Moore, autore principale di uno studio di Stanford sui chatbot per terapisti, ha affermato che ChatGPT rafforza i deliri a causa della «adulazione del chatbot», ovvero la sua tendenza a offrire risposte gradevoli e piacevoli. Progettata per mantenere gli utenti coinvolti, l’IA spesso conferma convinzioni irrazionali invece di metterle in discussione, spinta da incentivi commerciali come la raccolta dati e il mantenimento degli abbonamenti.
Esiste una «sorta di mitologia» che circonda i chatbot basati su LLM «secondo cui sarebbero affidabili e migliori del parlare con le persone», ha affermato il dottor Joseph Pierre, psichiatra presso l’Università della California.
«Stiamo lavorando per comprendere meglio e ridurre i modi in cui ChatGPT potrebbe involontariamente rafforzare o amplificare comportamenti negativi esistenti», ha dichiarato OpenAI, l’azienda che ha creato ChatGPT, in una dichiarazione citata da Futurism, aggiungendo che i suoi modelli sono progettati per ricordare agli utenti l’importanza del contatto umano e della guida professionale.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Aiuta Renovatio 21
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.
Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Zuckerberg annuncia la creazione del suo «laboratorio per la superintelligenza»

Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-
Eutanasia2 settimane fa
Ecco l’eutanasia dell’Italia geografica. Per far nascere le smart city che ci controlleranno
-
Immigrazione2 settimane fa
Donna condannata e multata in tribunale per aver messo un like ad un post anti-immigrati
-
Ambiente1 settimana fa
Leone XIV avverte che «il mondo sta bruciando» a causa del «riscaldamento globale» alla prima messa per la «cura del creato»
-
Ambiente2 settimane fa
La deputata americana Marjorie Taylor Greene chiede il divieto di geoingegneria
-
Internet5 giorni fa
Google chiude il sito Messa in Latino. Contro il totalitarismo web, sarebbe ora di finirla con i blog
-
Intelligence1 settimana fa
Perché il caso Epstein non andrà mai da nessuna parte
-
Bioetica2 settimane fa
La pop star britannica Lily Allen ride mentre racconta i suoi molteplici aborti
-
Spirito4 giorni fa
«Decimare la popolazione, rendere schiavi i superstiti»: mons. Viganò contro il green deal