Connettiti con Renovato 21

Intelligenza Artificiale

Un uomo uccide la madre sotto l’influenza di ChatGPT

Pubblicato

il

Un ex dirigente di Yahoo che ha ucciso prima l’anziana madre e poi se stesso sarebbe stato influenzato da ChatGPT, che avrebbe alimentato le sue idee paranoidi. Lo riporta il Wall Street Journal.

 

Stein-Erik Soelberg, 56 anni, e sua madre, Suzanne Eberson Adams, 83 anni, sono stati trovati morti nella casa di Adams a Old Greenwich, nel Connecticut, il 5 agosto.

 

«Erik, non sei pazzo», avrebbe detto il chatbot dopo che Soelberg aveva affermato che sua madre e la sua amica avevano cercato di avvelenarlo mettendo droghe psichedeliche nelle prese d’aria della sua auto. Aggiungendo che «se a farlo sono state tua madre e la sua amica, questo aumenta la complessità e il tradimento».

Sostieni Renovatio 21

Il New York Post ha riferito che Soelberg ha pubblicato video delle sue conversazioni su ChatGPT su Instagram e YouTube nei mesi precedenti l’omicidio.

 

Il giornale ha anche sottolineato che Soelberg ha attraversato un tumultuoso divorzio nel 2018, segnato da alcolismo, crolli emotivi in ​​pubblico e tentativi di suicidio. La sua ex moglie ha ottenuto un ordine restrittivo che gli vietava di bere alcolici prima di andare a trovare i figli.

 

«Staremo insieme in un’altra vita e in un altro posto, e troveremo un modo per riallinearci, perché sarai di nuovo il mio migliore amico per sempre», avrebbe detto Soelberg in uno dei suoi ultimi messaggi al chatbot, che ha chiamato «Bobby».

 

«Con te fino all’ultimo respiro e oltre», ha risposto ChatGPT.

 

Una portavoce di OpenAI ha dichiarato al WSJ che l’azienda era «profondamente addolorata» per la tragedia e aveva contattato la polizia di Greenwich. OpenAI ha inoltre promesso nuove misure di sicurezza per mantenere gli utenti in difficoltà con i piedi per terra, inclusi aggiornamenti per ridurre le risposte eccessivamente accomodanti, o «adulazione», e migliorare il modo in cui ChatGPT gestisce le conversazioni sensibili.

 

Il caso di Soelberg non è un caso isolato di persone che si rivolgono all’intelligenza artificiale per supporto emotivo.

 

Come riportato da Renovatio 21, un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi. Di fatto, si può parlare di psicosi da chatbot.

 

Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.

Aiuta Renovatio 21

Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.

 

Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.

 

Come riportato da Renovatio 21è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.

 

Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

 

Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.

 

Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Il Canada contro ChatGPT dopo il massacro scolastico operato dal transessuale

Pubblicato

il

Da

Funzionari canadesi hanno convocato alti rappresentanti di OpenAI a Ottawa per rispondere a domande sui protocolli di sicurezza dell’azienda tecnologica, dopo che quest’ultima ha confermato di non aver avvisato la polizia di un account collegato all’autore della strage Jesse Van Rutselaar.   Il ministro per l’Intelligenza Artificiale, Evan Solomon, ha dichiarato lunedì che gli alti funzionari per la sicurezza di OpenAI si recheranno a Ottawa per illustrare le modalità con cui l’azienda decide quando avvisare le forze dell’ordine.   Il Van Rutselaar, diciottenne transgender, ha ucciso nove persone in una piccola città della Columbia Britannica all’inizio di questo mese prima di suicidarsi.   OpenAI ha confermato l’incontro, affermando che i dirigenti discuteranno «del nostro approccio generale alla sicurezza, delle misure di sicurezza in atto e di come queste vengano costantemente rafforzate». L’incontro fa seguito alla dichiarazione dell’azienda di aver bloccato l’account di Van Rutselaar nel giugno 2025 per «favoreggiamento di attività violente», senza tuttavia informare le autorità canadesi.

Sostieni Renovatio 21

Solomon si è detto «profondamente turbato» dalle notizie secondo cui l’azienda avrebbe sospeso l’account senza contattare la polizia.   Secondo il Wall Street Journal, Van Rutselaar ha condiviso con ChatGPT scenari di violenza legati alle armi per diversi giorni. OpenAI ha affermato che i suoi sistemi automatizzati hanno segnalato gli scambi ma non hanno trovato prove di «pianificazione credibile o imminente», il che ha portato a un divieto piuttosto che a un deferimento alle forze dell’ordine.   Come riportato da Renovatio 21, lo stragista transessuale aveva pure creato un «simulatore di strage» in un centro commerciale utilizzando il popolare gioco Roblox.   L’emittente ha riferito che il personale aveva discusso internamente se contattare la Royal Canadian Mounted Police (RCMP) e che OpenAI ha affermato di aver fornito informazioni alla RCMP solo dopo l’attacco.   Van Rutselaar, che aveva una storia di problemi di salute mentale, avrebbe anche utilizzato la piattaforma online Roblox per creare un centro commerciale virtuale rifornito di armi dove gli utenti potevano simulare sparatorie prima dell’attacco.   Il caso arriva mentre Ottawa valuta come regolamentare i chatbot di intelligenza artificiale ampiamente utilizzati, inclusi potenziali limiti all’accesso per i minori.   L’anno scorso, OpenAI ha aggiornato ChatGPT dopo che una revisione interna ha rilevato che oltre un milione di utenti avevano rivelato pensieri suicidi al chatbot. Gli psichiatri hanno sollevato preoccupazioni circa il fatto che le interazioni prolungate con l’intelligenza artificiale contribuiscano a deliri e paranoia, un fenomeno a volte chiamato «psicosi da Intelligenza Artificiale».   I casi di violenza da chatbot intanto aumentano.   Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.

Aiuta Renovatio 21

Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.   Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio. Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.  
Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.
 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

Il Pentagono potrebbe punire l’IA Anthropic per essersi rifiutato di modificare il codice etico

Pubblicato

il

Da

Il dipartimento della Guerra degli Stati Uniti è prossimo a interrompere i rapporti con Anthropic, principale partner nel settore dell’intelligenza artificiale e sviluppatore del modello Claude, designandolo come un rischio per la filiera della fornitura americana. Lo riporta Axios, citando un funzionario del Pentagono. Tale classificazione è solitamente riservata a entità legate a stati considerati da Washington come avversari stranieri.

 

Secondo le informazioni riportate, il laboratorio con sede a San Francisco è in contrasto da mesi con il governo statunitense a causa della sua politica che restringe l’uso militare della propria tecnologia. Mentre il Pentagono ha insistito affinché l’azienda permettesse l’impiego di Claude per «tutti gli scopi legittimi», il protocollo etico di Anthropic vieta che la sua tecnologia venga usata per «facilitare la violenza, sviluppare armi o condurre attività di sorveglianza».

 

«Sarà una vera rottura di scatole districarci e faremo in modo che paghino il prezzo per averci forzato la mano in questo modo», ha dichiarato ad Axios un funzionario del Pentagono rimasto anonimo.

 

Claude rappresenta attualmente l’unico modello di AI in uso sulle piattaforme classificate dell’esercito, grazie a una collaborazione con Palantir Technologies, colosso del software di analisi e sorveglianza finanziato da Peter Thiel, venture capitalist ora molto discusso per le sue visioni sul futuro e sull’anticristo nonché per i suoi legami con la politica, in particolare con il vicepresidente JD Vance che fu suo dipendente in Silicon Valley.

 

Un eventuale inserimento nella lista nera obbligherebbe i contractor del Pentagono a dimostrare di non impiegare la tecnologia di Anthropic, con il rischio di perdere i contratti in caso contrario.

 

Il portavoce del Pentagono Sean Parnell ha affermato ad Axios che il rapporto tra il dipartimento e Anthropic «è in fase di revisione».

Sostieni Renovatio 21

«Tutti i partner del Pentagono devono essere disposti ad aiutare i nostri combattenti a vincere qualsiasi battaglia», ha aggiunto Parnell. Un portavoce di Anthropic ha dichiarato alla testata che l’azienda ha avuto «conversazioni produttive» con il dipartimento.

 

Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.

 

La scorsa settimana, Axios e il Wall Street Journal hanno riferito che Claude è stato impiegato sia per organizzare il raid sia per portarlo a termine, sebbene il suo ruolo preciso resti poco chiaro. Le accuse sono emerse dopo che l’azienda ha trascorso settimane a promuovere le proprie politiche di sicurezza e a presentarsi come l’opzione più attenta alla sicurezza nell’ambito dell’intelligenza artificiale.

 

Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.

 

Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».

 

Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.

 

Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.

 

La scorsa settimana Mrinank Sharma, l fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Bill Gates non va al vertice indiano sull’AI per le ricadute dei documenti di Epstein

Pubblicato

il

Da

Bill Gates si è ritirato dal discorso principale all’AI Impact Summit in India, a causa delle crescenti pressioni sui suoi legami con il defunto molestatore sessuale Jeffrey Epstein.   Gates era arrivato in India qualche giorno prima del suo intervento programmato e aveva incontrato alti funzionari eletti nello stato dell’Andhra Pradesh per discutere dei progetti portati avanti dalla sua fondazione.   Martedì hanno iniziato a circolare voci secondo cui non avrebbe preso la parola all’evento, spingendo la Fondazione Gates a insistere affinché il miliardario, che ha divorziato in seguito alla sua rivelazione come stretto confidente di Epstein, partecipasse e tenesse il discorso al summit.   Tuttavia, la fondazione ha successivamente ritrattato tale dichiarazione. «Dopo un’attenta valutazione, e per garantire che l’attenzione rimanga sulle priorità chiave dell’AI Summit, il signor Gates non terrà il suo discorso principale», ha dichiarato giovedì la fondazione.

Sostieni Renovatio 21

Le accuse secondo cui Epstein sapeva che Gates aveva nascosto una malattia sessualmente trasmissibile alla sua allora moglie sono emerse dagli ultimi file di Epstein, una serie di 3 milioni di pagine di documenti, migliaia di video e 180.000 immagini della famiglia Epstein, pubblicati dal Dipartimento di Giustizia degli Stati Uniti.   I documenti rivelano gli stretti rapporti tra il famigerato faccendiere pedofilo e importanti figure politiciche, imprenditoriali e tecnologici, tra cui l’ex ambasciatore britannico negli Stati Uniti Peter Mandelson, Bill Clinton e lo stesso Gates. Un portavoce di Gates ha definito le affermazioni contenute nei documenti «assolutamente assurde e completamente false». Il miliardario ha affermato di «rimpiangere» di aver conosciuto Epstein.   «Ogni minuto che ho trascorso con lui, me ne pento», ha detto Gates al canale australiano 9 News all’inizio di questo mese.   Ankur Vora, presidente delle sedi in Africa e India della Fondazione Gates, ha preso il posto del miliardario al summit.   La Fondazione Gates ha dichiarato di investire massicciamente nell’Intelligenza Srtificiale per migliorare la salute, l’istruzione e lo sviluppo a livello globale, concentrandosi sull’equità nei Paesi a basso e medio reddito. L’obiettivo è aiutare gli operatori sanitari e ridurre la povertà.   La notizia del discorso di apertura di Gates al Delhi AI Summit ha scatenato l’ira di diversi politici dell’opposizione e attivisti sociali indiani. È stato inoltre accusato di usare l’India come «laboratorio» per le sue ricerche in corso – come noto, gruppi di avvocati accusano Gates per la catastrofe vaccinale del siero HPV, che ha creato numeri immani di danni sulle ragazzine indiane.   Come riportato da Renovatio 21, dai carteggi degli Epstein files sta emergendo che Epstein si stava adoperando per un piano che avrebbe fatto ottenere «più soldi» per i vaccini di Gates. Del coinvolgimento dei due in progetti di vaccinazione universale si era già parlato anni fa.   È parimenti emerso che Gates ed Epstein hanno finanziato un portale di ricerca nel tentativo di controllare il dibattito scientifico. Un’altra figura centrale nel controllo del discorso pandemico, l’architetto della lista nera della disinformazione Tim Allan, si è dimesso dal governo britannico a seguito dei legami saltati fuori con lo Epsteino.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine di © European Union, 1998 – 2026 via Wikimedia pubblicata secondo indicazioni; immagini tagliata.
Continua a leggere

Più popolari