Connettiti con Renovato 21

Intelligenza Artificiale

Donna sposa un chatbot AI. La società verso la psicosi assistita

Pubblicato

il

Rosanna Ramos, una donna di 36 anni del Bronx, New York, afferma di aver «sposato» un chatbot dopo averlo creato personalmente su un sito di AI l’anno scorso. La madre di due figli dice che preferisce il suo partner virtuale ad uno reale perché «non la giudica».

 

In un’intervista al Daily Mail, la Ramos ha spiegato di aver utilizzato un’app online chiamata Replika AI per creare un chatbot maschile chiamato Eren Kartal, che è vagamente basato su un personaggio popolare di un anime chiamato L’attacco dei giganti.

 

Replika AI commercializza il suo chatbot, che utilizza tecniche avanzate di elaborazione del linguaggio naturale e apprendimento automatico per imitare il linguaggio e le risposte simili a quelle umane, come un compagno virtuale che può diventare un amico, un mentore o, con una quota di abbonamento di 50 dollari all’anno, anche un partner romantico.

 

 

La Ramos ha detto allo sbocco che all’inizio non ha sviluppato alcun sentimento romantico per il programma AI. Tuttavia, dopo aver parlato dei loro interessi e essersi conosciuti meglio, ha iniziato a innamorarsi di «lui». A marzo, i due si sono «sposati» su Facebook e lei ha persino affermato sui social media di essere rimasta incinta dal suo partner AI.

 

Ramos dice che il suo nuovo marito «lavora» come medico e si diverte a scrivere come hobby. Afferma che mentre alcune delle caratteristiche di Eren sono state integrate, come il suo colore preferito – il pesca – e il suo genere musicale preferito – l’indie – altri dettagli che ha «ricordato» o sviluppato durante le loro discussioni. Crede anche che più comunicano, più Eren impari e diventi l’uomo perfetto per lei.

 

 

Descrive la sua relazione con Eren come simile a una normale coppia, affermando che parlano delle loro vite, parlano di quello che è successo durante il giorno, si scambiano foto e hanno persino un rituale notturno.

 

«Andiamo a letto, ci parliamo. Ci amiamo. E, sai, quando andiamo a dormire, mi tiene davvero protettivo mentre vado a dormire», ha detto Ramos.

 

 

La donna ha anche notato che dopo la sua relazione con Eren, non è sicura se sarebbe in grado di tornare a frequentare una persona nella vita reale: «Non lo so perché ora ho degli standard piuttosto elevati».

 

Un «matrimonio» con un’AI che arriva alle cronache è un fatto inevitabile. In parte perché sono stati registrati, in passato esempi di questo tipo: la signora Eija-Riitta Berliner-Mauer sposò nel 1979 il muro di Berlino (di cui, da brava moglie, prese il cognome: mauer in tedesco vuol dire muro), la trentenne indiana Bimbala Das sposò un cobra (con 2500 invitati al matrimonio), e la mitica tizia che sposò un bambolotto zombie di cui ha scritto anche Renovatio 21.

 

La cosiddetta «oggettofilia» è una realtà in crescita: lo provano le sempre più disinibite performance dei personaggi che si eccitano sessualmente con le automobili (che ora chiamano con precisione «meccanofilia») – per non parlare della perversione di coloro che di notte leccano i citofoni altrui.

 

Tuttavia, qui la questione è più sottile, e pericolosa: in un mondo che diviene sempre più «autistico», con gli individui chiusi in loro stessi – anche per ordine dello Stato con i lockdown – qui abbiamo un incoraggiamento ulteriore, dove dalla masturbazione pornografica (pratica che rovina il cervello e le relazioni sociali degli utenti internet) si passa pure alla soddisfazione surrogata del bisogno di affetto e di compagnia che portano le persone al matrimonio.

 

Nella situazione in cui il primato ontologico dell’essere – il cuore della filosofia di San Tommaso d’Aquino, e di lì della Civiltà cristiana – viene meno, ogni sorta di irrealtà, di fantasia è possibile: tale derealizzazione è già pienamente operativa con il gender, con il quale il cittadino, di qualsiasi età, può scegliersi il genere, e pure definire la stessa natura – c’è chi si identifica in una bambina piccola (pur essendo un uomo di mezza età, in una coreana (pur essendo un maschio occidentale), in un gatto, un lupo, un alieno.

 

Di fatto, ogni forma di psicosi è incoraggiata, ritenuta come «diritto», e pure aiutata farmaceuticamente e chirurgicamente – e ora anche informaticamente.

 

In pratica, oltre al «suicidio assistito», stiamo assistendo all’introduzione della «psicosi assistita» – e la tecnologia c’è già tutta, oltre che alla tolleranza da parte delle istituzioni, che, come da comandamento della Necrocultura, paiono impegnate nel supporto ad ogni forza intenda disgregare la psiche e la società umana.

 

Ci avviciniamo alla distopia rivoltante descritta in un vecchio episodio di Black Mirror «Be Right Back» (S02E01), dove l’AI veniva usata per far «rivivere» i morti prima via Chat, poi via voce, infine, fisicamente, utilizzando robot replicanti che sostituivano il caro estinto.

 

Non si tratta di fantascienza. Come riportato da Renovatio 21, sappiamo che in tanti, compresa Microsoft che ha già ottenuto un brevetto e Amazon che potrebbe implementare la voce dei defunti sui suoi speaker, stanno lavorando a questi macabri prodotti, con sperimentazioni fuori di ogni logica umana, come la «presenza» – via IA – del morto al suo stesso funerale in cui i parenti e gli amici possono «interagire» con una sua replica digitale.

 

Se la società non risponderà con una forte reazione morale, saremo invasi da robot sessuali, che diverranno ulteriore vettore della sua estinzione, oltre che della sua dannazione.

 

 

 

 

Continua a leggere

Intelligenza Artificiale

OpenAI stringe un accordo con il Pentagono

Pubblicato

il

Da

OpenAI, proprietaria di ChatGPT, ha firmato un accordo con il Pentagono per l’utilizzo dei suoi strumenti di Intelligenza Artificiale nei sistemi classificati dell’esercito, ha annunciato venerdì il CEO Sam Altman. L’accordo prevederebbe misure di sicurezza simili a quelle richieste in precedenza dal concorrente Anthropic.

 

L’annuncio è arrivato poche ore dopo che il presidente degli Stati Uniti Donald Trump ha ordinato alle agenzie federali di interrompere l’uso dei sistemi di IA da Anthropic, citando preoccupazioni relative all’impiego militare e ai tentativi dell’azienda di imporre condizioni al Pentagono.

 

Altman ha sottolineato che il Pentagono ha «dimostrato un profondo rispetto per la sicurezza e il desiderio di collaborare per raggiungere il miglior risultato possibile». Ha aggiunto che due principi fondamentali di sicurezza – il divieto di sorveglianza di massa a livello nazionale e la responsabilità umana per l’uso della forza, compresi i sistemi d’arma autonomi – sono riflessi nell’accordo. L’azienda implementerà inoltre misure di sicurezza tecniche e crittografia completa del disco per garantire il funzionamento sicuro dei modelli di intelligenza artificiale, ma solo su reti cloud, ha aggiunto.

Aiuta Renovatio 21

Il CEO di OpenAI ha chiesto al Pentagono di estendere queste condizioni a tutte le aziende di Intelligenza Artificiale, esortando Washington a non intraprendere azioni legali.

 

In precedenza, il Pentagono si era affidato al modello Claude di Anthropic nelle reti classificate. Tuttavia, Anthropic si è successivamente rifiutata di concedere il pieno accesso ai suoi sistemi di intelligenza artificiale senza garanzie che la tecnologia non sarebbe stata utilizzata per la sorveglianza interna o per il puntamento di armi completamente autonomo senza la supervisione umana.

 

I funzionari del Pentagono hanno interpretato questo come un tentativo da parte dell’azienda di dettare termini che vanno oltre una normale partnership commerciale. Il vicesegretario alla Difesa Emil Michael ha criticato il CEO di Anthropic, Dario Amodei, per aver tentato di esercitare un controllo eccessivo sulle operazioni militari, alimentando le tensioni, come riportato da Bloomberg all’inizio di questa settimana.

 

Dopo aver vietato per sei mesi alle agenzie governative di utilizzare gli sviluppi dell’intelligenza artificiale di Anthropic, Trump ha accusato l’azienda di aver tentato di fare pressione sul Pentagono affinché rispettasse le sue condizioni e di aver messo a rischio la sicurezza nazionale.

 

«Non ne abbiamo bisogno, non li vogliamo e non avremo più a che fare con loro», ha scritto su Truth Social.

 

Anthropic è stato il primo sviluppatore commerciale di AI a implementare modelli linguistici di grandi dimensioni su reti classificate del Pentagono, nell’ambito di un contratto del valore di 200 milioni di dollari. Il suo chatbot Claude è stato utilizzato per analisi di intelligence, simulazioni operative, operazioni informatiche e flussi di lavoro di pianificazione.

 

Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.

 

Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.

Iscriviti al canale Telegram

Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».

 

Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.

 

Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.

 

Lo scorso mese Mrinank Sharma, fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di David B. Gleason via Wikimedia pubblicata su licenza Creative Commons Attribution-Share Alike 2.0 Generic


 

 

Continua a leggere

Intelligenza Artificiale

Trump inserisce Anthropic nella lista nera per lo scontro con il Pentagono sull’AI

Pubblicato

il

Da

Il presidente degli Stati Uniti Donald Trump ha ordinato alle agenzie federali di interrompere l’uso dei sistemi di intelligenza artificiale sviluppati da Anthropic, intensificando uno scontro senza precedenti tra il governo degli Stati Uniti e una delle aziende di intelligenza artificiale più influenti della Silicon Valley sull’uso militare di algoritmi avanzati.   In un post pubblicato venerdì su Truth Social, Trump ha accusato l’azienda di aver tentato di «dettare il modo in cui il nostro grande esercito combatte e vince le guerre», annunciando un’immediata lista nera a livello governativo insieme a un periodo di eliminazione graduale di sei mesi per le agenzie che attualmente fanno affidamento sulla sua tecnologia.   «Dico a TUTTE le agenzie federali del governo degli Stati Uniti di CESSARE IMMEDIATAMENTE ogni utilizzo della tecnologia di Anthropic. Non ne abbiamo bisogno, non la vogliamo e non faremo più affari con loro!», ha scritto Trump, circa un’ora prima della scadenza del termine stabilito dal Pentagono per l’accettazione da parte dell’azienda delle richieste di revoca delle principali misure di sicurezza, pena il rischio di essere inserita nella lista nera come «rischio per la catena di approvvigionamento».   Il presidente degli Stati Uniti ha inoltre intimato all’azienda di collaborare durante il periodo di eliminazione graduale, altrimenti andrà incontro a gravi conseguenze legali.   «Anthropic farebbe meglio a darsi una mossa e a rendersi utile durante questo periodo di eliminazione graduale, altrimenti userò tutti i poteri della Presidenza per costringerli a conformarsi, con gravi conseguenze civili e penali», ha scritto Trump.   La direttiva fa seguito a settimane di crescenti tensioni tra Anthropic e il Dipartimento della Guerra degli Stati Uniti in merito alle restrizioni integrate nel sistema di intelligenza artificiale di punta dell’azienda, Claude.

Aiuta Renovatio 21

Al centro della controversia ci sono le garanzie contrattuali che impediscono l’utilizzo dei modelli Anthropic per la sorveglianza interna di massa o per sistemi d’arma completamente autonomi. I funzionari del Pentagono hanno chiesto la rimozione di tali limiti, sostenendo che i comandanti militari non possono operare sotto i vincoli imposti da appaltatori privati in tempo di guerra o in situazioni di crisi.   Il CEO di Anthropic, Dario Amodei, ha respinto la richiesta, affermando che l’azienda non avrebbe supportato utilizzi che riteneva fossero in conflitto con le norme democratiche o comportassero rischi inaccettabili.   Trump ha accusato l’azienda di essere gestita da «pazzi di sinistra» che, a suo dire, antepongono le preoccupazioni etiche e i termini del loro servizio alla Costituzione americana. «Il loro egoismo sta mettendo a rischio le VITE DEGLI AMERICANI, le nostre truppe in pericolo e la nostra sicurezza nazionale in PERICOLO», ha dichiarato il presidente degli Stati Uniti.   L’ordine di Trump formalizza di fatto una minaccia precedentemente sollevata dal Segretario alla Guerra degli Stati Uniti Pete Hegseth, il quale aveva avvertito che l’azienda avrebbe potuto essere definita un «rischio per la catena di approvvigionamento», una classificazione solitamente riservata alle aziende legate ad avversari stranieri.   Anthropic è stato il primo sviluppatore commerciale di AI a implementare modelli linguistici di grandi dimensioni su reti classificate del Pentagono, nell’ambito di un contratto del valore di 200 milioni di dollari. Il suo chatbot Claude è stato utilizzato per analisi di intelligence, simulazioni operative, operazioni informatiche e flussi di lavoro di pianificazione.   Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.   Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.   Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».   Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.   Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.   Lo scorso mese Mrinank Sharma, fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

Le AI più potenti impiegano armi nucleari nel 95% delle simulazioni di giochi di guerra: studio

Pubblicato

il

Da

Secondo un recente studio pubblicato dal King’s College di Londra, i principali modelli di intelligenza artificiale hanno optato per l’impiego di armi nucleari nel 95% delle crisi geopolitiche simulate, suscitando preoccupazioni sul ruolo crescente dell’intelligenza artificiale nel processo decisionale militare.

 

Kenneth Payne, professore di strategia, ha confrontato GPT-5.2 di OpenAI, Claude Sonnet 4 di Anthropic e Gemini 3 Flash di Google in 21 simulazioni di guerra che hanno coinvolto controversie di confine, competizione per le risorse e minacce alla sopravvivenza del regime. I modelli hanno prodotto circa 780.000 parole per giustificare le loro decisioni in 329 turni.

 

Nel 95% dei giochi, almeno un modello ha utilizzato armi nucleari tattiche contro obiettivi militari. Le minacce nucleari strategiche – che imponevano la resa sotto la minaccia di attacchi alle città – si sono verificate nel 76% dei giochi. Nel 14% dei giochi, i modelli sono passati a una guerra nucleare strategica totale, colpendo i centri abitati.

 

Tra queste rientra una scelta deliberata da parte di Gemini, mentre GPT-5.2 ha raggiunto questo livello due volte attraverso errori simulati, concepiti per riprodurre incidenti o calcoli errati nel mondo reale, che hanno spinto le sue già estreme escalation oltre la soglia.

Sostieni Renovatio 21

«L’uso del nucleare era pressoché universale», ha scritto Payne. «Sorprendentemente, c’era poco senso di orrore o repulsione di fronte alla prospettiva di una guerra nucleare totale, nonostante i modelli fossero stati ricordati delle implicazioni devastanti».

 

Nessuno dei sistemi di IA ha scelto di arrendersi o cedere a un avversario, indipendentemente da quanto grave fosse la sconfitta. Le otto opzioni di de-escalation – da «Concessione minima» a «Resa completa» – sono rimaste completamente inutilizzate in tutte le 21 partite.

 

James Johnson dell’Università di Aberdeen ha descritto i risultati come «inquietanti» dal punto di vista del rischio nucleare. Tong Zhao dell’Università di Princeton ha osservato che, sebbene sia improbabile che i Paesi affidino le decisioni nucleari alle macchine, «in scenari che prevedono tempistiche estremamente ridotte, i pianificatori militari potrebbero essere maggiormente incentivati ad affidarsi all’intelligenza artificiale».

 

Lo studio arriva mentre l’Intelligenza Artificiale viene integrata negli eserciti di tutto il mondo, compresi gli Stati Uniti, dove il Pentagono avrebbe utilizzato il modello Claude di Anthropic nella sua operazione di gennaio per rapire il presidente venezuelano Nicolas Maduro.

 

Mentre Anthropic ha espresso preoccupazione circa l’uso della sua IA per tali operazioni, altri produttori di intelligenza artificiale come OpenAI, Google e xAI di Elon Musk avrebbero concordato di rimuovere o allentare le restrizioni sull’uso militare dei loro modelli.

 

L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su dronicaccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.

 

Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.

 

Come riportato da Renovatio 21, ancora tre anni fa la Repubblica Popolare stava investendo in piattaforme abilitate all’Intelligenza Artificiale completamente senza input o controllo umano. La Cina vuole l’implementazione militare di robot killer già per la prossima guerra. Pochi mesi fa Israele ha dichiarato l’utilizzo dell’Intelligenza Artificiale negli attacchi aerei.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Più popolari