Connettiti con Renovato 21

Intelligenza Artificiale

Apple Siri accusata di intercettare gli utenti: indagine penale in Francia

Pubblicato

il

La procura francese ha avviato un’indagine penale contro Apple per le accuse secondo cui il suo assistente vocale Siri avrebbe raccolto e analizzato registrazioni degli utenti senza il loro consenso. L’inchiesta è stata assegnata all’agenzia francese per la criminalità informatica, come comunicato dalla procura di Parigi e riportato dal sito Politico e dall’agenzia Reuters.

 

L’indagine è scaturita da una denuncia presentata a febbraio da un’ONG francese, basata sulla testimonianza della «gola profonda» Thomas Le Bonniec, ex dipendente di un subappaltatore di Apple, che ha dichiarato di aver ascoltato migliaia di registrazioni di Siri nel 2019 durante un’attività di controllo qualità.

 

Le Bonniec avrebbe lavorato per Globe Technical Services in Irlanda, dove revisionava e annotava clip audio per migliorare l’accuratezza di Siri. Ha riferito a Politico che il materiale rivelava a volte «momenti intimi e informazioni riservate», che potevano consentire l’identificazione degli utenti.

 

L’informatore ha accolto con favore l’indagine, affermando che dovrebbe permettere di «rispondere a domande urgenti», come il numero di registrazioni effettuate dal lancio di Siri e il luogo in cui i dati sono archiviati.

 

Un portavoce di Apple in Francia ha dichiarato a Politico che l’azienda «non ha mai utilizzato i dati di Siri per creare profili di marketing, non li ha mai resi disponibili per scopi pubblicitari e non li ha mai venduti a nessuno per nessun motivo».

 

Apple ha inoltre comunicato a Reuters di aver rafforzato le misure sulla privacy di Siri dal 2019, con ulteriori miglioramenti effettuati quest’anno. L’azienda ha precisato che le conversazioni con Siri «non sono mai state condivise con i marketer né vendute agli inserzionisti».

 

A gennaio, Apple ha anche sottolineato che non avrebbe conservato «registrazioni audio delle interazioni con Siri, a meno che l’utente non acconsenta esplicitamente».

 

Come riportato da Renovatio 21, negli Stati Uniti, Apple ha affrontato una class action simile, in cui Siri è stato accusato di aver registrato involontariamente conversazioni private, poi esaminate da appaltatori terzi per il controllo qualità.

 

All’inizio di quest’anno, l’azienda ha raggiunto un accordo da 95 milioni di dollari, approvato da un giudice federale il mese scorso. L’accordo prevede risarcimenti fino a 20 dollari per dispositivo con Siri abilitato per gli utenti che hanno posseduto prodotti Apple tra il 2014 e il 2024. Inoltre, Apple è stata obbligata a eliminare le vecchie registrazioni di Siri entro sei mesi.

 

Come riportato da Renovatio 21, ad inizio anno era emerso che il governo britannico aveva una technical capability notice («avviso di capacità tecnica») ad Apple, costringendo l’azienda a creare una backdoor per il suo servizio iCloud criptato. Tale manovra consentirebbe alle forze dell’ordine e alle agenzie di sicurezza britanniche di accedere ai dati criptati archiviati dagli utenti Apple in tutto il mondo, secondo il giornale.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di Kārlis Dambrāns via Flickr pubblicata su licenza CC BY 2.0

Continua a leggere

Intelligenza Artificiale

Le AI più potenti impiegano armi nucleari nel 95% delle simulazioni di giochi di guerra: studio

Pubblicato

il

Da

Secondo un recente studio pubblicato dal King’s College di Londra, i principali modelli di intelligenza artificiale hanno optato per l’impiego di armi nucleari nel 95% delle crisi geopolitiche simulate, suscitando preoccupazioni sul ruolo crescente dell’intelligenza artificiale nel processo decisionale militare.   Kenneth Payne, professore di strategia, ha confrontato GPT-5.2 di OpenAI, Claude Sonnet 4 di Anthropic e Gemini 3 Flash di Google in 21 simulazioni di guerra che hanno coinvolto controversie di confine, competizione per le risorse e minacce alla sopravvivenza del regime. I modelli hanno prodotto circa 780.000 parole per giustificare le loro decisioni in 329 turni.   Nel 95% dei giochi, almeno un modello ha utilizzato armi nucleari tattiche contro obiettivi militari. Le minacce nucleari strategiche – che imponevano la resa sotto la minaccia di attacchi alle città – si sono verificate nel 76% dei giochi. Nel 14% dei giochi, i modelli sono passati a una guerra nucleare strategica totale, colpendo i centri abitati.   Tra queste rientra una scelta deliberata da parte di Gemini, mentre GPT-5.2 ha raggiunto questo livello due volte attraverso errori simulati, concepiti per riprodurre incidenti o calcoli errati nel mondo reale, che hanno spinto le sue già estreme escalation oltre la soglia.

Sostieni Renovatio 21

«L’uso del nucleare era pressoché universale», ha scritto Payne. «Sorprendentemente, c’era poco senso di orrore o repulsione di fronte alla prospettiva di una guerra nucleare totale, nonostante i modelli fossero stati ricordati delle implicazioni devastanti».   Nessuno dei sistemi di IA ha scelto di arrendersi o cedere a un avversario, indipendentemente da quanto grave fosse la sconfitta. Le otto opzioni di de-escalation – da «Concessione minima» a «Resa completa» – sono rimaste completamente inutilizzate in tutte le 21 partite.   James Johnson dell’Università di Aberdeen ha descritto i risultati come «inquietanti» dal punto di vista del rischio nucleare. Tong Zhao dell’Università di Princeton ha osservato che, sebbene sia improbabile che i Paesi affidino le decisioni nucleari alle macchine, «in scenari che prevedono tempistiche estremamente ridotte, i pianificatori militari potrebbero essere maggiormente incentivati ad affidarsi all’intelligenza artificiale».   Lo studio arriva mentre l’Intelligenza Artificiale viene integrata negli eserciti di tutto il mondo, compresi gli Stati Uniti, dove il Pentagono avrebbe utilizzato il modello Claude di Anthropic nella sua operazione di gennaio per rapire il presidente venezuelano Nicolas Maduro.   Mentre Anthropic ha espresso preoccupazione circa l’uso della sua IA per tali operazioni, altri produttori di intelligenza artificiale come OpenAI, Google e xAI di Elon Musk avrebbero concordato di rimuovere o allentare le restrizioni sull’uso militare dei loro modelli.   L’Intelligenza Artificiale è oramai montata, con diversi gradi di realizzazione, su dronicaccia, armi teleguidate, carrarmati, «slaughterbots» e altro ancora.   Come riportato da Renovatio 21, lo scorso giugno è stato rivelato che durante una simulazione un sistema di Intelligenza Artificiale dell’aeronautica americana ha agito per uccidere il suo teorico operatore umano. A gennaio era emerso che caccia cinesi alimentati da Intelligenza Artificiale avevano battuto la concorrenza umana in un arco di soli 90 secondi.   Come riportato da Renovatio 21, ancora tre anni fa la Repubblica Popolare stava investendo in piattaforme abilitate all’Intelligenza Artificiale completamente senza input o controllo umano. La Cina vuole l’implementazione militare di robot killer già per la prossima guerra. Pochi mesi fa Israele ha dichiarato l’utilizzo dell’Intelligenza Artificiale negli attacchi aerei.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

Il Canada contro ChatGPT dopo il massacro scolastico operato dal transessuale

Pubblicato

il

Da

Funzionari canadesi hanno convocato alti rappresentanti di OpenAI a Ottawa per rispondere a domande sui protocolli di sicurezza dell’azienda tecnologica, dopo che quest’ultima ha confermato di non aver avvisato la polizia di un account collegato all’autore della strage Jesse Van Rutselaar.

 

Il ministro per l’Intelligenza Artificiale, Evan Solomon, ha dichiarato lunedì che gli alti funzionari per la sicurezza di OpenAI si recheranno a Ottawa per illustrare le modalità con cui l’azienda decide quando avvisare le forze dell’ordine.

 

Il Van Rutselaar, diciottenne transgender, ha ucciso nove persone in una piccola città della Columbia Britannica all’inizio di questo mese prima di suicidarsi.

 

OpenAI ha confermato l’incontro, affermando che i dirigenti discuteranno «del nostro approccio generale alla sicurezza, delle misure di sicurezza in atto e di come queste vengano costantemente rafforzate». L’incontro fa seguito alla dichiarazione dell’azienda di aver bloccato l’account di Van Rutselaar nel giugno 2025 per «favoreggiamento di attività violente», senza tuttavia informare le autorità canadesi.

Sostieni Renovatio 21

Solomon si è detto «profondamente turbato» dalle notizie secondo cui l’azienda avrebbe sospeso l’account senza contattare la polizia.

 

Secondo il Wall Street Journal, Van Rutselaar ha condiviso con ChatGPT scenari di violenza legati alle armi per diversi giorni. OpenAI ha affermato che i suoi sistemi automatizzati hanno segnalato gli scambi ma non hanno trovato prove di «pianificazione credibile o imminente», il che ha portato a un divieto piuttosto che a un deferimento alle forze dell’ordine.

 

Come riportato da Renovatio 21, lo stragista transessuale aveva pure creato un «simulatore di strage» in un centro commerciale utilizzando il popolare gioco Roblox.

 

L’emittente ha riferito che il personale aveva discusso internamente se contattare la Royal Canadian Mounted Police (RCMP) e che OpenAI ha affermato di aver fornito informazioni alla RCMP solo dopo l’attacco.

 

Van Rutselaar, che aveva una storia di problemi di salute mentale, avrebbe anche utilizzato la piattaforma online Roblox per creare un centro commerciale virtuale rifornito di armi dove gli utenti potevano simulare sparatorie prima dell’attacco.

 

Il caso arriva mentre Ottawa valuta come regolamentare i chatbot di intelligenza artificiale ampiamente utilizzati, inclusi potenziali limiti all’accesso per i minori.

 

L’anno scorso, OpenAI ha aggiornato ChatGPT dopo che una revisione interna ha rilevato che oltre un milione di utenti avevano rivelato pensieri suicidi al chatbot. Gli psichiatri hanno sollevato preoccupazioni circa il fatto che le interazioni prolungate con l’intelligenza artificiale contribuiscano a deliri e paranoia, un fenomeno a volte chiamato «psicosi da Intelligenza Artificiale».

 

I casi di violenza da chatbot intanto aumentano.

 

Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.

Aiuta Renovatio 21

Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.

 

Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio. Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.

 

Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Il Pentagono potrebbe punire l’IA Anthropic per essersi rifiutato di modificare il codice etico

Pubblicato

il

Da

Il dipartimento della Guerra degli Stati Uniti è prossimo a interrompere i rapporti con Anthropic, principale partner nel settore dell’intelligenza artificiale e sviluppatore del modello Claude, designandolo come un rischio per la filiera della fornitura americana. Lo riporta Axios, citando un funzionario del Pentagono. Tale classificazione è solitamente riservata a entità legate a stati considerati da Washington come avversari stranieri.   Secondo le informazioni riportate, il laboratorio con sede a San Francisco è in contrasto da mesi con il governo statunitense a causa della sua politica che restringe l’uso militare della propria tecnologia. Mentre il Pentagono ha insistito affinché l’azienda permettesse l’impiego di Claude per «tutti gli scopi legittimi», il protocollo etico di Anthropic vieta che la sua tecnologia venga usata per «facilitare la violenza, sviluppare armi o condurre attività di sorveglianza».   «Sarà una vera rottura di scatole districarci e faremo in modo che paghino il prezzo per averci forzato la mano in questo modo», ha dichiarato ad Axios un funzionario del Pentagono rimasto anonimo.   Claude rappresenta attualmente l’unico modello di AI in uso sulle piattaforme classificate dell’esercito, grazie a una collaborazione con Palantir Technologies, colosso del software di analisi e sorveglianza finanziato da Peter Thiel, venture capitalist ora molto discusso per le sue visioni sul futuro e sull’anticristo nonché per i suoi legami con la politica, in particolare con il vicepresidente JD Vance che fu suo dipendente in Silicon Valley.   Un eventuale inserimento nella lista nera obbligherebbe i contractor del Pentagono a dimostrare di non impiegare la tecnologia di Anthropic, con il rischio di perdere i contratti in caso contrario.   Il portavoce del Pentagono Sean Parnell ha affermato ad Axios che il rapporto tra il dipartimento e Anthropic «è in fase di revisione».

Sostieni Renovatio 21

«Tutti i partner del Pentagono devono essere disposti ad aiutare i nostri combattenti a vincere qualsiasi battaglia», ha aggiunto Parnell. Un portavoce di Anthropic ha dichiarato alla testata che l’azienda ha avuto «conversazioni produttive» con il dipartimento.   Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.   La scorsa settimana, Axios e il Wall Street Journal hanno riferito che Claude è stato impiegato sia per organizzare il raid sia per portarlo a termine, sebbene il suo ruolo preciso resti poco chiaro. Le accuse sono emerse dopo che l’azienda ha trascorso settimane a promuovere le proprie politiche di sicurezza e a presentarsi come l’opzione più attenta alla sicurezza nell’ambito dell’intelligenza artificiale.   Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.   Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».   Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.   Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.   La scorsa settimana Mrinank Sharma, l fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari