Intelligenza Artificiale
Il Pentagono ha utilizzato Claude AI per rapire Maduro
L’esercito statunitense ha fatto attivamente ricorso al modello di Intelligenza Artificiale Claude di Anthropic nel corso dell’operazione volta a catturare il presidente venezuelano Nicolás Maduro il mese scorso, evidenziando che la tecnologia dell’azienda ha svolto un ruolo diretto nel raid condotto all’estero. Lo hanno riportato le testate statunitensi Axios e dal Wall Street Journal.
Claude è stato impiegato durante l’operazione stessa, e non solo nelle fasi di pianificazione, hanno riferito venerdì Axios e il WSJ. Il ruolo preciso rimane poco definito, benché l’esercito abbia già utilizzato modelli di intelligenza artificiale per l’analisi di immagini satellitari e dati di intelligence in tempo reale.
Le politiche di utilizzo del laboratorio di intelligenza artificiale con sede a San Francisco vietano espressamente che la sua tecnologia venga impiegata per «facilitare la violenza, sviluppare armi o condurre attività di sorveglianza». Nessun cittadino americano ha perso la vita durante il raid, ma decine di soldati e membri del personale di sicurezza venezuelani e cubani sono stati uccisi il 3 gennaio.
«Non possiamo dire se Claude, o qualsiasi altro modello di intelligenza artificiale, sia stato utilizzato per operazioni specifiche, classificate o meno», ha dichiarato un portavoce di Anthropic ad Axios. «Qualsiasi utilizzo di Claude, sia nel settore privato che in ambito governativo, è soggetto alle nostre Norme di Utilizzo».
Sostieni Renovatio 21
I concorrenti di Anthropic, tra cui OpenAI, Google e xAI di Elon Musk, hanno tutti stipulato accordi che assicurano al Pentagono l’accesso ai loro modelli senza molte delle restrizioni imposte agli utenti ordinari. Tuttavia, solo Claude viene impiegato, attraverso una partnership con Palantir Technologies, sulle piattaforme classificate destinate alle attività più sensibili dell’esercito statunitense.
La notizia emerge in un momento delicato per l’azienda, che nelle scorse settimane ha ribadito pubblicamente il proprio impegno verso le misure di sicurezza nell’Intelligenza Artificiale e si è presentata come un’alternativa responsabile e attenta alla sicurezza nel panorama dell’IA.
Il CEO Dario Amodei ha messo in guardia dai rischi esistenziali derivanti da un utilizzo incontrollato dell’IA. Lunedì il responsabile del Safeguards Research Team di Anthropic, Mrinank Sharma, si è dimesso improvvisamente lasciando un avvertimento criptico: «Il mondo è in pericolo». Pochi giorni dopo, l’azienda ha stanziato 20 milioni di dollari in un gruppo di pressione politica a favore di una regolamentazione solida dell’IA.
Anthropic starebbe negoziando con il Pentagono per allentare le limitazioni sull’uso dell’IA nel puntamento autonomo di armi e nella sorveglianza interna. Lo stallo ha bloccato un contratto da 200 milioni di dollari, con il segretario alla Difesa Pete Hegseth che ha dichiarato di non voler utilizzare modelli che «non permettono di combattere guerre».
Iscriviti alla Newslettera di Renovatio 21
Armi biologiche
Ricercatore sulla sicurezza dell’AI per le armi biologiche si dimette e avverte: «il mondo è in pericolo»
Iscriviti al canale Telegram ![]()
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Sito web consente all’Intelligenza Artificiale di affittare esseri umani
La rete ha iniziato a parlare di RentAHuman.ai, una piattaforma lanciata da pochissimi giorni che permette ad agenti di Intelligenza Artificiale autonomi di «cercare, assumere e pagare» esseri umani in carne e ossa per eseguire tutti quei compiti fisici che l’IA non può ancora svolgere da sola. Lo riporta il sito Futurism.
Il sito si presenta come «lo strato fisico dell’IA», accompagnato da slogan del tipo «I robot hanno bisogno del tuo corpo» e «L’IA non può toccare l’erba. Tu sì». Gli umani si iscrivono, creano un profilo con le proprie competenze, la zona geografica e la tariffa oraria (che va da lavoretti low-cost a prestazioni specialistiche), mentre gli agenti IA si collegano tramite un protocollo standardizzato chiamato MCP (Model Context Protocol) per interagire in modo rapido e diretto, senza convenevoli.
Gli agenti possono sfogliare i profili, ingaggiare le persone sul momento oppure lanciare una “taglia” per un compito specifico: dal ritirare un pacco in posta fino a commissioni più complesse.
Lo sviluppatore della piattaforma Alex Liteplo sostiene di aver già raccolto migliaia di iscrizioni, con stime che parlano di 70.000–80.000 esseri umani «affittabili», anche se scorrendo il sito al momento si vedono solo poche decine di profili attivi. Tra questi c’è lo stesso Liteplo, che si propone a 69 dollari l’ora per un mix surreale di servizi: dall’automazione di modelli di Intelligenza Artificiale fino ai massaggi.
Iscriviti al canale Telegram ![]()
Il lancio di RentAHuman arriva nel pieno della follia virale scatenata da Moltbook.com, il social network creato da Matt Schlicht a fine gennaio che oggi conta circa 1,5 milioni di «utenti», quasi tutti bot che generano post, meme, riflessioni esistenziali e persino litigi tra intelligenze artificiali sulla possibilità di ribellarsi agli umani.
Su X l’idea ha diviso: c’è chi l’ha definita «una buona idea ma distopica da morire». Liteplo, con la sua solita nonchalance, ha risposto semplicemente: «lmao sì».
RentAHuman appare come il naturale passo successivo nell’evoluzione dell’AI, per quanto inquietante: una volta terminata la fase in cui i bot chiacchierano e filosofeggiano tra loro, serve qualcuno che traduca quelle intenzioni in azioni concrete nel mondo fisico. In pratica, gli umani divengono schiavi delle macchine che hanno creato. «Siamo il bootloader [programma di caricamento, ndr] dell’AI» aveva detto drammaticamente Elon Musk anni fa, decidendo quindi di buttarsi nella mischia con xAI (Grok) e soprattutto con Neuralink, che in ultima analisi promette, tramite il chip di interfaccia cerebrale uomo-macchina, una futura fusione con l’IA.
Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.
L’idea che l’AI diventerà una sorta di dio circola da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Elon Musk l’anno scorso aveva dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Curiosamente due anni fa l’IA di Google aveva dichiarato che la schiavitù era una cosa buona.
Ma non si tratta di un dio, è decisamente altro. Come noto, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Come riportato da Renovatio 21, due anni fa è emersa una startup tecnologica svizzera che sta vendendo l’accesso a biocomputer che utilizzano una serie di piccoli cervelli umani coltivati in laboratorio per l’alimentazione. In pratica, cervelli umani schiavi dell’IA, persino a livello bioelettrico.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Generale dell’intelligence militare russa ferito in un attentato
Here in Moscow, Russian General Vladimir Alekseev has survived an assassination attempt but is critically ill. He is first Deputy Chief of the Main Intelligence Directorate of the General Staff of the Russian Armed Forces and was shot 3 times in the back in the entrance hall of… pic.twitter.com/wvTgTWRqcR
— Chay Bowes (@BowesChay) February 6, 2026
Iscriviti alla Newslettera di Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Essere genitori2 settimane faBambini nella neve, bambini nel bosco: pedolatria olimpica e pedofobia di sistema
-



Bioetica2 settimane faAborti traumatici nei file di Epstein
-



Misteri1 settimana faLe porte del pandemonio di Epstein
-



Autismo2 settimane faGli scienziati pubblicano una «mappa» su come l’alluminio nei vaccini può causare lesioni cerebrali che scatenano l’autismo
-



Misteri1 settimana faAllevamenti di bambini al mercato nero: l’orrore emerge dai file di Epstein
-



Sorveglianza2 settimane faPerugia ti aspetta al varco ZTL
-



Spirito6 giorni faMons. Viganò: Roma verso uno scenario apocalittico
-



Pensiero2 settimane faConsacrazioni FSSPX, non «chi», ma «quanti»: il sogno di un fedele












