Intelligenza Artificiale
Il padrino dell’AI torna ad avvertire: l’umanità è in pericolo
L’Intelligenza Artificiale potrebbe portare all’estinzione umana entro tre decenni con una probabilità fino al 20%, secondo Geoffrey Hinton, una figura pionieristica dell’IA e vincitore del premio Nobel per la fisica nel 2024. Ciò segna un aumento rispetto al rischio del 10%, stimato solo un anno fa.
Durante un’intervista su BBC Radio 4 giovedì, a Hinton è stato chiesto se fosse cambiato qualcosa dalla sua precedente stima di una probabilità su dieci di un’apocalisse dell’IA. Lo scienziato vincitore del premio Turing ha risposto: «Non proprio, dal 10% al 20%».
Ciò ha portato il direttore ospite dello show, l’ex cancelliere Sajid Javid, a dire «state salendo». L’informatico, che ha lasciato Google l’anno scorso, ha risposto: «Se non altro. Vedete, non abbiamo mai dovuto avere a che fare con cose più intelligenti di noi prima».
Lo scienziato britannico-canadese, che quest’anno ha ricevuto il premio Nobel per la fisica per il suo contributo all’Intelligenza Artificiale, ha evidenziato le sfide legate al controllo dei sistemi di intelligenza artificiale avanzati.
«Quanti esempi conosci di una cosa più intelligente controllata da una cosa meno intelligente?… L’evoluzione ha lavorato molto per consentire al bambino di controllare la madre, ma questo è l’unico esempio che conosco», ha affermato lo Hinton, spesso chiamato «il padrino dell’intelligenza artificiale».
«Immagina te stesso e un bambino di tre anni. Saremo noi il bambino di tre anni», rispetto a un’Intelligenza Artificiale futura che sarebbe «più intelligente delle persone», ha continuato lo scienziato, osservando che i progressi sono stati «molto più rapidi di quanto mi aspettassi» e chiedendo una regolamentazione per garantire la sicurezza.
Lo Hinton ha quindi messo in guardia dal fare affidamento esclusivamente su motivazioni di profitto aziendale, affermando che «l’unica cosa che può costringere queste grandi aziende a fare più ricerca sulla sicurezza è la regolamentazione governativa».
Nel maggio 2023, il Center for AI Safety ha rilasciato una dichiarazione firmata da eminenti scienziati del settore, tra cui lo Hinton, avvertendo che «attenuare il rischio di estinzione dovuto all’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come pandemie e guerre nucleari». Tra i firmatari ci sono il CEO di Tesla Elon Musk, il co-fondatore di Apple Steve Wozniak e Yoshua Bengio, considerato un pioniere dell’IA per il suo lavoro sulle reti neurali.
Lo Hinton ritiene che i sistemi di Intelligenza Artificiale potrebbero alla fine superare l’intelligenza umana, sfuggire al controllo umano e, potenzialmente, causare danni catastrofici all’umanità. Egli sostiene la necessità di dedicare risorse significative per garantire la sicurezza e l’uso etico dell’intelligenza artificiale, sottolineando anche l’urgente necessità di misure proattive prima che sia troppo tardi.
Come riportato da Renovatio 21, lo Hinton si è licenziato da Google per poter dichiarare il rischio per l’umanità costituito dall’AI, che per ora, secondo l’informatico britannico sarebbe solo, «moderato».
Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Yann LeCun, Chief AI Scientist presso Meta-Facebook, ha espresso opinioni contrarie a quelle di Hinton, affermando che la tecnologia «potrebbe effettivamente salvare l’umanità dall’estinzione».
Sostieni Renovatio 21
Come riportato da Renovatio 21, Bill Gates si oppose alla moratoria. Gates, con cui Musk ha avuto scontri anche gustosi in passato, non ha partecipato alla moratoria internazionale promossa di Musk sul controllo dell’AI, replicando che invece l’AI sarebbe divenuto un ottimo maestro per i bambini e che proprio l’Intelligenza Artificiale salverà la democrazia.
Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.
Come riportato da Renovatio 21, il mese passato si era registrato l’allarme di un altro pioniere dell’IA, il noto esperto di informatica canadese professore presso l’Università di Montreal e direttore del Montreal Institute for Learning Algorithms Yoshua Bengio (nessuna relazione con Haran Benjo), che era tra le principali figure del settore, tra cui il CEO di Tesla Elon Musk e il co-fondatore di Apple Steve Wozniak, che l’anno scorso hanno co-firmato una lettera che chiedeva una regolamentazione aggressiva del settore dell’Intelligenza Artificiale.
«Ci sono persone che potrebbero voler abusare di questo potere, e ci sono persone che potrebbero essere felici di vedere l’umanità sostituita dalle macchine», aveva affermato il Bengio, chiedendo una regolamentazione più severa.
Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.
Più pessimista è l’esperto dei pericolo dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
L’AI di Google si rifiuta di giocare a scacchi contro l’Atari del 1977
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
OpenAI dice che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana
OpenAI ha presentato un nuovo aggiornamento di sicurezza per il suo noto modello ChatGPT, in seguito a un’analisi interna che ha rilevato oltre un milione di utenti aver confessato al chatbot intenzioni suicide. Le modifiche intendono potenziare la capacità dell’IA di identificare e gestire adeguatamente le situazioni di crisi.
In un comunicato diffuso lunedì, l’azienda ha reso noto che circa lo 0,15% degli utenti settimanali di ChatGPT ha partecipato a dialoghi contenenti «indicatori espliciti di potenziali intenzioni o piani suicidi». Un ulteriore 0,05% dei messaggi includerebbe «indicatori espliciti o impliciti di ideazione o intenti suicidi».
All’inizio del mese, il CEO di OpenAI Sam Altman aveva dichiarato che ChatGPT conta oltre 800 milioni di utenti attivi settimanali; sulla base degli ultimi dati aziendali, ciò significa che più di 1,2 milioni di persone hanno discusso di suicidio con il chatbot e circa 400.000 hanno manifestato segnali di intenti suicidi.
L’azienda ha inoltre indicato che lo 0,07% (560.000) degli utenti settimanali e lo 0,01% (80.000) dei messaggi rivelano «possibili segni di emergenze di salute mentale legate a psicosi o mania». Ha osservato, inoltre, che un certo numero di utenti ha sviluppato un’eccessiva dipendenza emotiva da ChatGPT, con circa lo 0,15% (1,2 milioni) di utenti attivi che mostrano comportamenti indicanti «livelli elevati» di attaccamento emotivo al chatbot.
OpenAI ha annunciato una collaborazione con decine di specialisti di salute mentale da tutto il mondo per aggiornare il chatbot, rendendolo più affidabile nel rilevare segnali di disagio mentale, nel fornire risposte più appropriate e nel indirizzare gli utenti verso aiuti concreti.
Sostieni Renovatio 21
Nelle conversazioni che coinvolgono convinzioni deliranti, l’azienda ha dichiarato di istruire ChatGPT a rispondere in modo «sicuro» ed «empatico», evitando di avallare affermazioni infondate.
L’annuncio giunge in un periodo di crescenti preoccupazioni per l’uso sempre più diffuso di chatbot basati su intelligenza artificiale come ChatGPT e per i loro impatti sulla salute mentale. Psichiatri e altri operatori sanitari hanno espresso allarme per una tendenza emergente in cui gli utenti sviluppano deliri pericolosi e pensieri paranoici dopo interazioni prolungate con chatbot IA, che tendono a confermare e rafforzare le convinzioni degli utenti.
Il fenomeno è stato definito da alcuni esperti come «psicosi da chatbot».
Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Due mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
La superintelligenza artificiale potrebbe porre fine all’umanità
Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Pensiero1 settimana faMiseria dell’ora legale, contro Dio e la legge naturale
-



Necrocultura2 settimane fa«L’ideologia ambientalista e neomalthusiana» di Vaticano e anglicani: Mons. Viganò sulla nomina del re britannico da parte di Leone
-



Oligarcato2 settimane faPapa Leone conferisce a Carlo III, capo della Chiesa d’Inghilterra, la cattedra permanente nella basilica papale
-



Autismo4 giorni faIl più grande fattore di rischio per l’autismo? Bombardare i bambini piccoli con vaccini multipli
-



Spirito1 settimana fa«Umiliazione della Chiesa dinanzi a un eretico concubinario globalista»: Mons. Viganò sulla preghiera congiunta del re britannico col papa
-



Spirito1 settimana faCristo Re, il cosmo divino contro il caos infernale. Omelia di Mons. Viganò
-



Pensiero1 settimana faMons. Viganò: dissonanza cognitiva e rivelazione del metodo, il colpo da maestro di Satana
-



Salute1 settimana faI malori della 43ª settimana 2025













