Intelligenza Artificiale
«p(doom)»: ecco il calcolo della possibilità che l’Intelligenza Artificiale distrugga l’umanità
Gli esperti di Intelligenza Artificiale hanno introdotto nel loro gergo un nuovo termine, «p(doom)», che sta a significare la probabilità che l’IA distruggerà l’umanità. Lo riporta il New York Times.
Qualcuno con un «p(doom)» del 50% potrebbe essere etichettato come un «doomer», cioè un apocalittico, come il CEO ad interim di OpenAI, Emmet Shear, mentre un altro con il 5% potrebbe essere il tipico ottimista.
«Emerge in quasi ogni conversazione a cena», ha detto al NYT Aaron Levie, CEO della piattaforma Cloud Box.
Sostieni Renovatio 21
Non dovrebbe sorprendere che esista un gergo come questo sopracitato. I timori sulla tecnologia, sia apocalittici che banali, sono esplosi con l’ascesa dell’Intelligenza Artificiale generativa e di grandi modelli linguistici come ChatGPT di OpenAI. In molti casi, i leader della tecnologia, come il CEO di OpenAI Sam Altman, sono stati più che disposti a sfruttare queste paure.
Il quotidiano neoeboraceno ipotizza che l’origine del termine p(doom) sia da ricercarsi nel forum filosofico LessWrong più di dieci anni fa, utilizzato per la prima volta da un programmatore di nome Tim Tyler come un modo per «fare riferimento alla probabilità di sventura senza essere troppo specifici sulla scala temporale o sulla definizione di “sventura”».
Il fondatore del forum, Eliezer Yudkowsky, è lui stesso un profeta di sventura dell’Intelligenza Artificiale – noto ai nostri lettori. Come riportato da Renovatio 21, lo Yudkowsky ha chiesto il bombardamento dei data center per evitare l’apocalisse. La sua «p(doom)» è semplicemente «sì», ha dichiarato al New York Times, trascendendo le semplici stime numeriche.
Lo psicologo ed informatico britannico Geoffrey Hinton, considerato uno dei padri dell’Intelligenza Artificiale, ha lasciato Google l’anno scorso, dichiarando di pentirsi del lavoro della sua vita e mettendo seriamente in guardia dal rischio dell’Intelligenza Artificiale di eliminare l’umanità.
Naturalmente, alcuni nel settore rimangono ottimisti sfacciati. Levie, ad esempio, ha detto al NYT che il suo «p(doom)» è «il più basso possibile» e ciò che teme non è un’apocalisse dell’Intelligenza artificiale, ma che una regolamentazione prematura possa soffocare la tecnologia.
La proliferazione dei «p(doomer)» indica che c’è almeno una corrente di autocoscienza esistenziale tra coloro che sviluppano la tecnologia.
Tuttavia, come sappiamo, la sventura delle macchine intelligenti si è già manifestata in modo patente in episodi talvolta raccapriccianti.
Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina mente, minaccia e può spingere le persone all’anoressia e perfino al suicidio. Una giovane vedova belga sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale, che, in sole sei settimane, avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
In un caso scioccante pare che un AI abbia «incoraggiato» un uomo che pianificava di uccidere la regina d’Inghilterra.
Il giornalista del New York Times Kevin Roose, dopo un’esperienza con ChatGPT che lo ha turbato così profondamente da «aver problemi a dormire dopo», in un suo articolo sconvolto aveva centrato la questione: «temo che la tecnologia imparerà a influenzare gli utenti umani, a volte convincendoli ad agire in modo distruttivo e dannoso, e forse alla fine diventerà capace di compiere le proprie azioni pericolose».
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Aiuta Renovatio 21
Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.
L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Elon Musk l’anno scorso aveva dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale.
Ma non si tratta di un dio, è decisamente altro. Come noto, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Ci siamo.
Intelligenza Artificiale
Robocani pattugliano le strade della città e parlano con accento da call center indiano
Atlanta residents react to the new robot dogs patrolling their apartment parking lot
They speak to the dog and there seems to be a live operator talking back The person speaking very clearly is likely in India based on the accent There are plenty of videos of these dogs… pic.twitter.com/01h9kxwyNj — Wall Street Apes (@WallStreetApes) April 12, 2026
Meme of the day! Robots on American streets are being controlled by operators from India
In Atlanta, police officers encountered one of these machines in the evening: the robot dog spoke to them in English with an Indian accent and explained that it was “at work” and monitoring… pic.twitter.com/l98N6hglwk — NEXTA (@nexta_tv) December 29, 2025
Atlanta just hired a robot guard dog for night duty.
No sleep. No breaks. 24/7 patrol. Welcome to the future of security. (Source: @BrianRoemmele ) pic.twitter.com/9SaDlOrzoy — Learn AI Faster (@learnaifaster) November 22, 2025
Robot “dog” patrolling Atlanta, Georgiapic.twitter.com/r5UcFB1MaS
— Massimo (@Rainmaker1973) April 2, 2026
Sostieni Renovatio 21
The new robot security dogs in Atlanta are now giving commands to Americans
Even when this woman peacefully immediately complies with the robot security dog, even being very friendly to the robot. It still calls the police on her What could possibly go wrong here….. pic.twitter.com/DvReKpsq70 — Wall Street Apes (@WallStreetApes) April 1, 2026
Iscriviti al canale Telegram ![]()
Intelligenza Artificiale
La casa del CEO di OpenAI colpita da una molotov
Venerdì, l’abitazione del CEO di OpenAI, Sam Altman, è stata colpita da una molotov, secondo quanto dichiarato dalla polizia di San Francisco in un comunicato poi confermato dallo stesso Altman. L’individuo responsabile è stato successivamente arrestato dopo essersi presentato presso la sede centrale dell’azienda e aver presumibilmente minacciato di incendiarla.
Gli eventi si sono susseguiti nell’arco di circa un’ora. Secondo la polizia, un giovane di circa 20 anni si è avvicinato all’abitazione di Altman e ha lanciato un «ordigno incendiario», appiccando il fuoco a un cancello esterno, prima di fuggire a piedi.
Circa un’ora dopo, gli agenti sono intervenuti in seguito alla segnalazione di una persona corrispondente alla descrizione del sospettato che minacciava di appiccare un incendio in un altro edificio, successivamente identificato come la sede centrale di OpenAI a San Francisco. Il sospettato è stato arrestato e le accuse sono in fase di definizione. La polizia non ha rilasciato immediatamente commenti su un possibile movente.
OpenAI ha confermato entrambi gli episodi e un portavoce ha dichiarato che nessuno è rimasto ferito. Altman ha affrontato la situazione in un post sul suo blog, condividendo una foto della sua famiglia ed esprimendo la speranza che «le immagini abbiano potere» e possano contribuire a scoraggiare attacchi simili. Ha aggiunto di aver «sottovalutato il potere delle parole e delle narrazioni», sottolineando che l’incidente è avvenuto pochi giorni dopo «un articolo incendiario» su di lui e la sua azienda, probabilmente riferendosi a un’inchiesta del New Yorker che descriveva dettagliatamente accuse di inganno e falle nella sicurezza presso OpenAI, nonché alle critiche sul recente accordo da 50 miliardi di dollari con il Pentagono.
Iscriviti alla Newslettera di Renovatio 21
Altman ha affermato di aver inizialmente ignorato le preoccupazioni, ma l’attacco lo ha spinto a riconsiderare le sue posizioni. Ha delineato riflessioni più ampie sull’IA e sulla regolamentazione, auspicando una riduzione della «retorica e delle tattiche». Ha definito «giustificate» le paure relative all’IA e ha sottolineato la necessità di «garantire la sicurezza in modo adeguato», sostenendo al contempo che essa debba essere «democratizzata».
L’incidente si verifica in un momento difficile sia per Altman che per OpenAI. L’azienda ha dovuto affrontare numerose critiche per l’accordo con il Pentagono che consente l’utilizzo della sua tecnologia in operazioni militari classificate. I critici avvertono che questi strumenti potrebbero permettere la sorveglianza senza mandato, e utenti e sviluppatori accusano l’azienda di dare priorità ai contratti governativi rispetto alla fiducia del pubblico.
In una causa che dovrebbe andare a processo alla fine di questo mese, il fondatore di Tesla e SpaceX, Elon Musk, ha citato in giudizio OpenAI e Altman, sostenendo che l’amministratore delegato lo avrebbe «manipolato» inducendolo a donare 38 milioni di dollari con la promessa che l’azienda sarebbe rimasta un’organizzazione senza scopo di lucro. Musk, cofondatore che ha lasciato l’azienda nel 2018, chiede la rimozione di Altman.
La sede centrale di OpenAI è già stata presa di mira in passato da manifestanti. Il mese scorso, attivisti contrari all’accordo con il Pentagono hanno scritto messaggi con il gesso all’esterno dell’edificio, tra cui: «Tecnologia al servizio dell’umanità, non della guerra», «No allo Stato di sorveglianza basato sull’IA» e «È ora di smettere?».
Lo scorso febbraio, la polizia ha arrestato cinque manifestanti che bloccavano l’ingresso nell’ambito di una protesta del gruppo Stop AI.
Come riportato da Renovatio 21, l’anno passato ChatGPT con una «relazione» con un ragazzo sotto psicofarmaci e gli avrebbe fatto giurare di uccidere il CEO di OpenAI Sam Altman.
Un anno fa vi fu il caso dell’informatico di OpenAI Suchir Balaji, trovato morto in circostanze misteriose in casa. Il Balaji aveva cominciato ad agire come «gola profonda» dell’organizzazione. Il caso fu archiviato come suicidio, ma la madre sostiene che sia stato ucciso e ha dichiarato che suo figlio era in possesso di documenti che avrebbero potuto danneggiare l’azienda. «Aveva i documenti contro OpenAI»
Iscriviti alla Newslettera di Renovatio 21
Immagine di TechCrunch via Wikimedia pubblicata su licenza Creative Commons Attribution 2.0 Generic
Intelligenza Artificiale
Indagine su OpenAI e il suo capo
Sostieni Renovatio 21
(🧵1/11) For the past year and a half, I’ve been investigating OpenAI and Sam Altman for @NewYorker. With my coauthor @andrewmarantz, I reviewed never-before-disclosed internal memos, obtained 200+ pages of documents related to a close colleague, including extensive private… pic.twitter.com/XdYhNIhoQ4
— Ronan Farrow (@RonanFarrow) April 6, 2026
Iscriviti al canale Telegram ![]()
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Psicofarmaci2 settimane fa«Nessuno me l’aveva detto»: un’ex paziente psichiatrica denuncia i pericolosi effetti collaterali degli psicofarmaci
-



Arte2 settimane faDalla Passione di Gibson alla conversione a Cristo. Renovatio 21 intervista Luca Lionello
-



Occulto5 giorni faGli USA sono sotto il controllo di cinque demoni-generali: parla l’esorcista
-



Pensiero4 giorni faPerché Trump attacca il papa?
-



Misteri2 settimane faIl vicepresidente Vance: gli alieni sono in realtà demoni
-



Salute2 settimane faI malori della 14ª settimana 2026
-



Pensiero5 giorni faPresidenti USA ricattati da Israele: Tucker Carlson risponde a Trump
-



Storia1 settimana faVaccini, la storia del movimento anti-obbligo dell’epoca vittoriana














