Intelligenza Artificiale
Il CEO di Anthropic avverte: l’IA distruggerà un’enorme percentuale di posti di lavoro ben pagati
L’Intelligenza Artificiale potrebbe spazzare via la metà di tutti i posti di lavoro impiegatizi di livello base, almeno stando alle previsioni del cofondatore di Anthropic, Dario Amodei.
Parlando con Axios, Amodei ha affermato che il tipo di Intelligenza Artificiale che la sua azienda sta sviluppando avrà la capacità di scatenare «possibilità inimmaginabili» nel mondo, sia positive che negative.
Amodei prevede che la crisi del lavoro si svilupperà in quattro fasi. In primo luogo, aziende come OpenAI, Google e Anthropic lavoreranno per sviluppare modelli linguistici di grandi dimensioni (LLM) in grado di «raggiungere e superare le prestazioni umane con un numero sempre maggiore di compiti».
Mentre ciò accade, il governo non farà nulla per «regolamentare l’IA» o avvertire l’opinione pubblica del suo potenziale. Il lavoratore medio, «ignaro del crescente potere dell’IA e della sua minaccia per il posto di lavoro», non ha idea di cosa stia succedendo.
D’improvviso, «quasi da un giorno all’altro», le aziende cambiano idea e sostituiscono in massa gli esseri umani con gli LLM. «Il pubblico se ne accorge solo quando è troppo tardi», ha dichiarato Amodei ad Axios.
Per ribadire il suo punto di vista, l’amministratore delegato ha avanzato alcune ipotesi sconcertanti, come un mondo in cui «il cancro è curato, l’economia cresce del 10% all’anno, il bilancio è in pareggio e il 20% delle persone non ha un lavoro».
«Noi, in quanto produttori di questa tecnologia, abbiamo il dovere e l’obbligo di essere onesti su ciò che ci aspetta. Non credo che la gente se ne renda conto», ha sbottato Amodei.
Vale la pena chiedersi perché – se il magnate della tecnologia crede davvero in ciò che dice – non abbandoni del tutto Anthropic e non dedichi tempo e risorse a combattere quella che definisce una terrificante minaccia per l’economia. Invece di sostenere che i benefici di un LLM rivoluzionario superano i rischi, Amodei afferma che i critici dovrebbero considerare «cosa succederebbe se avesse ragione».
Tuttavia andando un po’ più a fondo rispetto all’entusiasmo per l’intelligenza artificiale di Anthropic, è difficile immaginare un mondo in cui la visione del magnate dia i suoi frutti. Appare evidente che secondo i loro stessi parametri di riferimento, le aziende stanno teoricamente sviluppando modelli LLM «migliori» con il passare del tempo. Ma questi modelli più recenti sono anche sempre più inclini ad errori, scrive Futurism.
Mentre Amodei, che ha un interesse finanziario e politico nel vendere la narrativa di un futuro di AI onnipotente, potrebbe pensare che gli LLM a livello umano siano dietro l’angolo, la maggior parte dei ricercatori informatici più seri non è d’accordo. Semmai, sono i pezzi grossi dell’industria tecnologica come Amodei – non la Cina o il lavoratore comune – a spingere i regolatori all’inazione, proponendo scenari da incubo come questo. Convinti del pericolo mortale rappresentato dall’intelligenza artificiale, i legislatori statunitensi sono stati fin troppo ansiosi di concedere alle aziende tecnologiche il potere di autoregolamentarsi.
E molti lavoratori, contrariamente al proselitismo di costui, sono in parte consapevoli delle minacce che l’industria dell’intelligenza artificiale rappresenta. La percezione del CEO è significativa, poiché l’ansia da automazione è maggiormente avvertita dalle popolazioni vulnerabili che già subiscono discriminazioni nei livelli più bassi del mercato del lavoro.
Come già evidenziato da Renovatio 21, l’inserimento dell’Intelligenza Artificiale in vari aspetti del mondo del lavoro atte a facilitare alcune mansioni, non ha sempre avuto un riscontro positivo.
Già da tempo nel mondo oramai parcellizzato del giornalismo, si pensa a sostituire i giornalisti con modelli di Intelligenza Artificiale.
La contrapposizione di idee e di prospettive di visione futura in questo ambito sono alquanto nebulose. Ricordiamo che secondo un bollettino di ricerca pubblicato dalla Banca Centrale Europea, l’adozione diffusa dell’Intelligenza Artificiale e delle tecnologie correlate ha portato ad un aumento dei posti di lavoro umani, ma ad una diminuzione dei salari, come già scritto sul nostro giornale.
Un rapporto recentemente pubblicato dal senatore americano socialista Bernie Sanders evidenzia che l’Intelligenza Artificiale e le tecnologie di automazione rappresentano una minaccia per circa 100 milioni di posti di lavoro negli Stati Uniti nei prossimi dieci anni. Questa previsione sottolinea che i disagi colpiranno in modo trasversale sia le professioni impiegatizie sia quelle manuali.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Robocani pattugliano le strade della città e parlano con accento da call center indiano
Atlanta residents react to the new robot dogs patrolling their apartment parking lot
They speak to the dog and there seems to be a live operator talking back The person speaking very clearly is likely in India based on the accent There are plenty of videos of these dogs… pic.twitter.com/01h9kxwyNj — Wall Street Apes (@WallStreetApes) April 12, 2026
Meme of the day! Robots on American streets are being controlled by operators from India
In Atlanta, police officers encountered one of these machines in the evening: the robot dog spoke to them in English with an Indian accent and explained that it was “at work” and monitoring… pic.twitter.com/l98N6hglwk — NEXTA (@nexta_tv) December 29, 2025
Atlanta just hired a robot guard dog for night duty.
No sleep. No breaks. 24/7 patrol. Welcome to the future of security. (Source: @BrianRoemmele ) pic.twitter.com/9SaDlOrzoy — Learn AI Faster (@learnaifaster) November 22, 2025
Robot “dog” patrolling Atlanta, Georgiapic.twitter.com/r5UcFB1MaS
— Massimo (@Rainmaker1973) April 2, 2026
Sostieni Renovatio 21
The new robot security dogs in Atlanta are now giving commands to Americans
Even when this woman peacefully immediately complies with the robot security dog, even being very friendly to the robot. It still calls the police on her What could possibly go wrong here….. pic.twitter.com/DvReKpsq70 — Wall Street Apes (@WallStreetApes) April 1, 2026
Iscriviti al canale Telegram ![]()
Intelligenza Artificiale
La casa del CEO di OpenAI colpita da una molotov
Venerdì, l’abitazione del CEO di OpenAI, Sam Altman, è stata colpita da una molotov, secondo quanto dichiarato dalla polizia di San Francisco in un comunicato poi confermato dallo stesso Altman. L’individuo responsabile è stato successivamente arrestato dopo essersi presentato presso la sede centrale dell’azienda e aver presumibilmente minacciato di incendiarla.
Gli eventi si sono susseguiti nell’arco di circa un’ora. Secondo la polizia, un giovane di circa 20 anni si è avvicinato all’abitazione di Altman e ha lanciato un «ordigno incendiario», appiccando il fuoco a un cancello esterno, prima di fuggire a piedi.
Circa un’ora dopo, gli agenti sono intervenuti in seguito alla segnalazione di una persona corrispondente alla descrizione del sospettato che minacciava di appiccare un incendio in un altro edificio, successivamente identificato come la sede centrale di OpenAI a San Francisco. Il sospettato è stato arrestato e le accuse sono in fase di definizione. La polizia non ha rilasciato immediatamente commenti su un possibile movente.
OpenAI ha confermato entrambi gli episodi e un portavoce ha dichiarato che nessuno è rimasto ferito. Altman ha affrontato la situazione in un post sul suo blog, condividendo una foto della sua famiglia ed esprimendo la speranza che «le immagini abbiano potere» e possano contribuire a scoraggiare attacchi simili. Ha aggiunto di aver «sottovalutato il potere delle parole e delle narrazioni», sottolineando che l’incidente è avvenuto pochi giorni dopo «un articolo incendiario» su di lui e la sua azienda, probabilmente riferendosi a un’inchiesta del New Yorker che descriveva dettagliatamente accuse di inganno e falle nella sicurezza presso OpenAI, nonché alle critiche sul recente accordo da 50 miliardi di dollari con il Pentagono.
Iscriviti alla Newslettera di Renovatio 21
Altman ha affermato di aver inizialmente ignorato le preoccupazioni, ma l’attacco lo ha spinto a riconsiderare le sue posizioni. Ha delineato riflessioni più ampie sull’IA e sulla regolamentazione, auspicando una riduzione della «retorica e delle tattiche». Ha definito «giustificate» le paure relative all’IA e ha sottolineato la necessità di «garantire la sicurezza in modo adeguato», sostenendo al contempo che essa debba essere «democratizzata».
L’incidente si verifica in un momento difficile sia per Altman che per OpenAI. L’azienda ha dovuto affrontare numerose critiche per l’accordo con il Pentagono che consente l’utilizzo della sua tecnologia in operazioni militari classificate. I critici avvertono che questi strumenti potrebbero permettere la sorveglianza senza mandato, e utenti e sviluppatori accusano l’azienda di dare priorità ai contratti governativi rispetto alla fiducia del pubblico.
In una causa che dovrebbe andare a processo alla fine di questo mese, il fondatore di Tesla e SpaceX, Elon Musk, ha citato in giudizio OpenAI e Altman, sostenendo che l’amministratore delegato lo avrebbe «manipolato» inducendolo a donare 38 milioni di dollari con la promessa che l’azienda sarebbe rimasta un’organizzazione senza scopo di lucro. Musk, cofondatore che ha lasciato l’azienda nel 2018, chiede la rimozione di Altman.
La sede centrale di OpenAI è già stata presa di mira in passato da manifestanti. Il mese scorso, attivisti contrari all’accordo con il Pentagono hanno scritto messaggi con il gesso all’esterno dell’edificio, tra cui: «Tecnologia al servizio dell’umanità, non della guerra», «No allo Stato di sorveglianza basato sull’IA» e «È ora di smettere?».
Lo scorso febbraio, la polizia ha arrestato cinque manifestanti che bloccavano l’ingresso nell’ambito di una protesta del gruppo Stop AI.
Come riportato da Renovatio 21, l’anno passato ChatGPT con una «relazione» con un ragazzo sotto psicofarmaci e gli avrebbe fatto giurare di uccidere il CEO di OpenAI Sam Altman.
Un anno fa vi fu il caso dell’informatico di OpenAI Suchir Balaji, trovato morto in circostanze misteriose in casa. Il Balaji aveva cominciato ad agire come «gola profonda» dell’organizzazione. Il caso fu archiviato come suicidio, ma la madre sostiene che sia stato ucciso e ha dichiarato che suo figlio era in possesso di documenti che avrebbero potuto danneggiare l’azienda. «Aveva i documenti contro OpenAI»
Iscriviti alla Newslettera di Renovatio 21
Immagine di TechCrunch via Wikimedia pubblicata su licenza Creative Commons Attribution 2.0 Generic
Intelligenza Artificiale
Indagine su OpenAI e il suo capo
Sostieni Renovatio 21
(🧵1/11) For the past year and a half, I’ve been investigating OpenAI and Sam Altman for @NewYorker. With my coauthor @andrewmarantz, I reviewed never-before-disclosed internal memos, obtained 200+ pages of documents related to a close colleague, including extensive private… pic.twitter.com/XdYhNIhoQ4
— Ronan Farrow (@RonanFarrow) April 6, 2026
Iscriviti al canale Telegram ![]()
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Occulto1 settimana faGli USA sono sotto il controllo di cinque demoni-generali: parla l’esorcista
-



Arte2 settimane faDalla Passione di Gibson alla conversione a Cristo. Renovatio 21 intervista Luca Lionello
-



Pensiero6 giorni faPerché Trump attacca il papa?
-



Misteri2 settimane faIl vicepresidente Vance: gli alieni sono in realtà demoni
-



Pensiero1 settimana faPresidenti USA ricattati da Israele: Tucker Carlson risponde a Trump
-



Spirito1 settimana faIl Pentagono minaccia il papato con la cattività di Avignone. Perché la notizia esce ora?
-



Vaccini5 giorni faElon Musk ha subito danni dal vaccino COVID. Ex dirigente Pfizer ammette: il siero potrebbe aver ucciso migliaia di persone
-



Storia2 settimane faVaccini, la storia del movimento anti-obbligo dell’epoca vittoriana














