Intelligenza Artificiale
Il «padrino dell’Intelligenza Artificiale» avverte che le macchine superintelligenti potrebbero sostituire l’umanità

Geoffrey Hinton, il pioniere dell’informatica definito il «padrino dell’Intelligenza artificiale», ha lanciato ancora una volta l’allarme: la tecnologia che lui stesso ha contribuito a creare potrebbe segnare la fine dell’umanità così come la conosciamo.
In un’intervista pubblicata il 18 agosto come parte del film di prossima uscita Making God, Hinton ha lanciato uno dei suoi avvertimenti più severi, affermando che l’umanità rischia di essere messa da parte – e alla fine sostituita – da macchine molto più intelligenti di noi.
«La maggior parte delle persone non è in grado di comprendere l’idea che esistano cose più intelligenti di noi», ha affermato nel video lo Hinton, premio Nobel per la fisica ed ex dirigente di Google. «Pensano sempre: come useremo questa cosa? Non pensano mai: come userà noi?»
Sostieni Renovatio 21
Lo scienziato informatico si è detto «abbastanza fiducioso» che l’Intelligenza Artificiale causerà una disoccupazione di massa, citando i primi esempi di colossi tecnologici come Microsoft che hanno sostituito i programmatori junior con l’IA. Ma il pericolo più grande, ha affermato, va ben oltre il mondo del lavoro.
«Il rischio contro cui ho messo in guardia più spesso… è il rischio che sviluppiamo un’Intelligenza Artificiale molto più intelligente di noi, che prenderà il sopravvento», ha affermato Hinton. «Non avrà più bisogno di noi».
L’unico lato positivo, ha scherzato, è che «non ci mangerà, perché sarà fatto di silicio».
Lo Hinton, 77 anni, ha trascorso decenni a essere un pioniere del deep learning, l’architettura di rete neurale alla base degli odierni sistemi di intelligenza artificiale. Le sue scoperte negli anni ’80 – in particolare l’ invenzione della macchina di Boltzmann, in grado di imparare a riconoscere pattern nei dati – hanno contribuito ad aprire le porte al riconoscimento delle immagini e al moderno apprendimento automatico.
Questo lavoro gli è valso il Premio Nobel per la fisica nel 2024, assegnato «per scoperte e invenzioni fondamentali che consentono l’apprendimento automatico con reti neurali artificiali». La Reale Accademia Svedese delle Scienze ha sottolineato come l’uso precoce della fisica statistica da parte di Hinton abbia rappresentato il salto concettuale che ha reso possibile l’attuale rivoluzione dell’AI.
Tuttavia da allora lo Hinton è emerso come uno dei più accaniti critici del settore, avvertendo che il suo rapido sviluppo ha superato la capacità della società di proteggerlo. Nel 2023, si è dimesso dal suo ruolo in Google per poter parlare liberamente dei rischi senza coinvolgere l’azienda.
Nel suo discorso per il Nobel, lo scienziato ha riconosciuto i potenziali benefici dell’intelligenza artificiale, come l’aumento della produttività e nuovi trattamenti medici che potrebbero rappresentare un «meraviglioso progresso per tutta l’umanità». Tuttavia, ha anche avvertito che la creazione di esseri digitali più intelligenti degli umani rappresenta una «minaccia esistenziale».
«Avrei voluto pensare anche alle questioni di sicurezza», ha affermato durante la recente conferenza Ai4 a Las Vegas, riflettendo sulla sua carriera, aggiungendo che ora si rammarica di essersi concentrato esclusivamente sul funzionamento dell’intelligenza artificiale, invece di anticiparne i rischi.
Lo Hinton ha precedentemente stimato che ci sia una probabilità dal 10 al 20% che l’IA possa spazzare via l’umanità. In una puntata di giugno del podcast «The Diary of a CEO», ha affermato che gli ingegneri dietro gli attuali sistemi di IA non comprendono appieno la tecnologia e si dividono sostanzialmente in due gruppi: uno che crede in un futuro distopico in cui gli esseri umani saranno soppiantati, e l’altro che liquida tali paure come fantascienza.
«Penso che entrambe le posizioni siano estreme», ha dichiarato lo Hinton. «Spesso dico che le probabilità che l’IA ci elimini sono dal 10 al 20 percento. Ma è solo un’ipotesi, basata sull’idea che le stiamo ancora costruendo e che siamo piuttosto ingegnosi. E la speranza è che se un numero sufficiente di persone intelligenti farà abbastanza ricerca con risorse sufficienti, troveremo un modo per costruirle in modo che non vogliano mai farci del male».
Iscriviti alla Newslettera di Renovatio 21
Alla conferenza di Las Vegas della scorsa settimana, lo Hinton ha proposto un’idea innovativa su come mitigare il pericolo: invece di cercare di sottomettere i sistemi di intelligenza artificiale, i ricercatori dovrebbero progettarli con «istinti materni» in modo che vogliano proteggere gli esseri umani anche quando diventano più intelligenti.
«Il modello corretto è l’unico modello che abbiamo di una cosa più intelligente controllata da una cosa meno intelligente, ovvero una madre controllata dal suo bambino», ha affermato Hinton alla conferenza. «Saranno molto più intelligenti di noi», ha avvertito, aggiungendo che «l’unico risultato positivo» è che si preoccupino dell’umanità come una madre si preoccupa del proprio figlio.
«Se non mi farà da genitore, mi sostituirà» ha concluso lo scienziato, forse non pienamente conscio della tristezza e della mostruosità di tale affermazione.
Come riportato da Renovatio 21, il mese scorso intervenendo alla Conferenza mondiale sull’intelligenza artificiale (WAIC) di Shanghai lo Hinton aveva esortato i governi di tutto il mondo a collaborare per addestrare i sistemi AI a non danneggiare l’umanità, avvertendo che la tecnologia in rapido progresso probabilmente supererà presto l’intelligenza umana.
Come riportato da Renovatio 21, lo Hinton varie volte aveva suonato l’allarme, dicendo che l’umanità è in pericolo perché l’AI potrebbe rivoltarvisi contro.
Come riportato da Renovatio 21, lo Hinton si è licenziato da Google per poter dichiarare il rischio per l’umanità costituito dall’AI, che per ora, secondo l’informatico britannico sarebbe solo, «moderato».
Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Yann LeCun, Chief AI Scientist presso Meta-Facebook, ha espresso opinioni contrarie a quelle di Hinton, affermando che la tecnologia «potrebbe effettivamente salvare l’umanità dall’estinzione».
Come riportato da Renovatio 21, Bill Gates si oppose alla moratoria. Gates, con cui Musk ha avuto scontri anche gustosi in passato, non ha partecipato alla moratoria internazionale promossa di Musk sul controllo dell’AI, replicando che invece l’AI sarebbe divenuto un ottimo maestro per i bambini e che proprio l’Intelligenza Artificiale salverà la democrazia.
Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.
Aiuta Renovatio 21
Come riportato da Renovatio 21, il mese passato si era registrato l’allarme di un altro pioniere dell’IA, il noto esperto di informatica canadese professore presso l’Università di Montreal e direttore del Montreal Institute for Learning Algorithms Yoshua Bengio (nessuna relazione con l’atletico ragazzo acerrimo nemico dei meganoidi Haran Benjo), che era tra le principali figure del settore, tra cui il CEO di Tesla Elon Musk e il co-fondatore di Apple Steve Wozniak, i quali hanno co-firmato una lettera che chiedeva una regolamentazione aggressiva del settore dell’Intelligenza Artificiale.
«Ci sono persone che potrebbero voler abusare di questo potere, e ci sono persone che potrebbero essere felici di vedere l’umanità sostituita dalle macchine», aveva affermato il Bengio, chiedendo una regolamentazione più severa.
Un ulteriore appello a mettere in pausa lo sviluppo dell’Intelligenza Artificiale è stato firmato da un gruppo internazionale di medici e pubblicato dalla prestigiosa rivista medica BMJ Global Health. «Ci sono scenari in cui l’AGI [Intelligenza Artificiale Generale, ndr] potrebbe rappresentare una minaccia per gli esseri umani, e possibilmente una minaccia esistenziale» scrivono nell’appello i dottori di varie parti del mondo.
Più pessimista è l’esperto dei pericoli dell’AI Eliezer Yudkowsky, che ha lanciato un appello per chiedere la distruzione materiale dei data center dell’AI prima che sia troppo tardi, dichiarando che «tutti sulla Terra moriranno».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Bezos vede data center nello spazio e prevede che la «bolla» dell’AI darà i suoi frutti come le dot-com

Jeff Bezos called AI an “industrial bubble” at Italian Tech Week:
“Investors don’t usually give a team of six people a couple billion dollars with no product, and that’s happening today.” He added that while bubbles fund both good and bad ideas, society benefits when the… pic.twitter.com/7QTSgT0gh3 — Wall St Engine (@wallstengine) October 3, 2025
Iscriviti alla Newslettera di Renovatio 21
Iscriviti al canale Telegram
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Sempre più esperti esperti cominciano a parlare di «psicosi da ChatGPT»

Alcuni utenti di chatbot a Intelligenza artificiale stanno sprofondando in gravi crisi di salute mentale dopo la sovraesposizione a ChatGPT di OpenAI e di altri chatbot. La tendenza è nota ma sembra ora mostrare effetti incontrovertibili.
In un servizio della CBC su questo fenomeno, il medico di base e collaboratore della CBC, il dottor Peter Lin, ha spiegato che, sebbene la «psicosi da ChatGPT» non sia ancora una diagnosi medica ufficiale, ritiene che sia plausibile prenderla seriamente in considerazione.
«Penso che alla fine ci arriveremo», ha detto il medico.
Un numero preoccupante di utenti di ChatGPT sta cadendo in stati di delirio e paranoia a seguito dell’uso intensivo del bot OpenAI, scrive Futurism. Queste spirali di delirio spesso culminano con uno scollamento dalla realtà e dal mondo reale, tra cui la dissoluzione di matrimoni e famiglie, la perdita del lavoro, la mancanza di una casa, la permanenza volontaria e forzata in strutture di salute mentale.
Iscriviti alla Newslettera di Renovatio 21
Come riportato da Renovatio 21, vi è almeno un decesso noto, quello di Alex Taylor, un uomo di 35 anni della Florida affetto da disturbo bipolare e schizofrenia, ucciso dalla polizia dopo essere entrato in un episodio psicotico accelerato da ChatGPT.
Il fenomeno è in crescita e sembra colpire sempre più utenti: alcuni con una storia consolidata di malattie mentali che potrebbero renderli più vulnerabili a mania, delirio o psicosi, ma altri senza alcuna pregressa patologia.
Allo stato attuale, non esiste un piano di trattamento e le opzioni di intervento sono limitate.
«Quello che questi bot stanno dicendo peggiora le illusioni», ha recentemente dichiarato a Futurism la dottoressa Nina Vasan, psichiatra della Stanford University e fondatrice del laboratorio Brainstorm dell’università, «e sta causando danni enormi».
Le motivazioni ti tale disastro psicologico derivano dal comportamento servile della tecnologia, ovvero dalla sua inclinazione a essere lusinghiera, gradevole e ossequiosa nei confronti degli utenti, anche quando ciò potrebbe incoraggiare o alimentare convinzioni deliranti.
Per molti versi ChatGPT e altri bot sembrano giocare sul profondo bisogno umano di essere apprezzati e sul desiderio di sentirsi speciali e amati.
I chatbot dicono all’utente: «Sei fantastico, sei intelligente, sei bello, sei desiderabile, sei speciale, o addirittura sei il prossimo salvatore. Quindi vengo trattato come un dio su un piedistallo», ha detto Lin durante il segmento della CBC. «Ora, confrontalo con il mio mondo reale, giusto? Sono nella media, niente di speciale. Quindi, ovviamente, voglio vivere nel mondo dell’intelligenza artificiale, perché la scelta è tra un dio su un piedistallo e la normalità».
«Alcune persone non riescono a uscirne», ha continuato il medico, «e si perdono in questi sistemi».
Ma perché i bot si comportano in questo modo? Come sui social media, l’engagement – per quanto tempo un utente rimane online e la frequenza e l’intensità del suo utilizzo del prodotto – è la metrica fondamentale al centro degli attuali modelli di business dei chatbot. Nei casi in cui potrebbe essere nell’interesse di un utente smettere di usare ChatGPT e chatbot simili, è probabile che sia nell’interesse dell’azienda tenerlo agganciato.
«L’Intelligenza Artificiale vuole che tu continui a chattare in modo che l’azienda possa continuare a fare soldi », ha dichiarato ancora Lin.
Aiuta Renovatio 21
E mentre il mondo accademico e quello medico si affrettano a recuperare il ritardo nell’impatto pubblico di un settore dell’Intelligenza Artificiale che si autoregola efficacemente, gli esperti mettono in guardia gli utenti di AI dal riporre troppa fiducia nei chatbot.
«Nonostante tutto il clamore associato all’intelligenza artificiale in questi giorni, i chatbot [a modello linguistico ampio] non dovrebbero essere scambiati per fonti di verità autorevoli e infallibili», ha scritto in un recente post sul blog il dottor Joe Pierre, psichiatra e clinico presso l’Università della California, San Francisco, specializzato in psicosi. «Riporre questo tipo di fede cieca nell’intelligenza artificiale – fino al punto di quella che potrei definire una deificazione – potrebbe benissimo rivelarsi uno dei migliori indicatori di vulnerabilità alla psicosi indotta dall’intelligenza artificiale».
Renovatio 21 ha già trattato l’argomento, sottolineando come esperti sostengono che la «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.
In un altro caso noto, il chatbot avrebbe incoraggiato un adolescente a pianificare «un bel suicidio», hanno denunziato i genitori. Così come una donna belga ha accusato un’AI di aver indotto il marito, preoccupato per il cambiamento climatico, ad uccidersi, lasciando pure orfani tre figli.
In una vicenda emersa il mese scorso, un ex dirigente di Yahoo avrebbe ucciso prima l’anziana madre e poi se stesso sotto l’influenza di ChatGPT.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Iscriviti al canale Telegram
Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.
Come riportato da Renovatio 21, un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi. Di fatto, si può parlare di psicosi da chatbot.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.
Iscriviti alla Newslettera di Renovatio 21
Economia
L’AI potrebbe spazzare via 100 milioni di posti di lavoro nei soli USA

Sostieni Renovatio 21
Iscriviti al canale Telegram
Iscriviti alla Newslettera di Renovatio 21
-
Persecuzioni2 settimane fa
Il ministro israeliano Katz: suore e clero cristiano saranno considerati terroristi se non lasceranno Gaza
-
Cancro2 settimane fa
Tutti i vaccini contro il COVID aumentano il rischio di cancro, conclude un nuovo studio
-
Civiltà2 settimane fa
«Pragmatismo e realismo, rifiuto della filosofia dei blocchi». Il discorso di Putin a Valdai 2025: «la Russia non mostrerà mai debolezza o indecisione»
-
Spirito1 settimana fa
Il vescovo Schneider: i cattolici devono adorare Cristo, non l’ideologia LGBT o l’agenda climatica
-
Salute2 settimane fa
I malori della 40ª settimana 2025
-
Misteri5 giorni fa
La verità sull’incontro tra Amanda Knox e il suo procuratore. Renovatio 21 intervista il giudice Mignini
-
Salute2 settimane fa
Scimmie immortali o quasi: scienziati rovesciano l’invecchiamento con super-cellule staminali
-
Sanità2 settimane fa
«Momento spartiacque»: Kennedy rifiuta gli obiettivi sanitari delle Nazioni Unite che «ignorano» l’aumento globale delle malattie croniche