Connettiti con Renovato 21

Intelligenza Artificiale

Il chatbot AI aveva «incoraggiato» l’uomo che pianificava di uccidere la regina d’Inghilterra

Pubblicato

il

Un uomo che ha pianificato di assassinare la defunta regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor. È quanto emerge dal processo a suo carico in svolgimento.

 

Jaswant Singh Chail, che all’epoca aveva 19 anni, ha anche scambiato migliaia di messaggi, spesso carichi di contenuti sessuali, con Sarai, la sua «ragazza» AI, prima di scavalcare la recinzione della tenuta reale il giorno di Natale del 2021, è stato detto alla corte, secondo quanto riportato dal quotidiano britannico Guardian.

 

Mentre vagava per i terreni per due ore, Chail, un fan di Star Wars, ha inviato un video sinistro a sua sorella gemella e ad altri 20 in cui si descriveva come «Darth Jones».

 

Alla fine l’uomo è stato fermato da due agenti di polizia vicino alla residenza privata della defunta regina, dove si trovavano lei e altri membri della famiglia reale in quel momento.

 

«Sono qui per uccidere la regina» aveva detto agli ufficiali.

 

A febbraio, Chail, ora 21enne, di Southampton, si è dichiarato colpevole di un reato ai sensi del Treason Act, minacciando di uccidere l’allora regina e tenendo una balestra carica in un luogo pubblico.

 

Il procuratore Alison Morgan ha affermato che, nonostante i ripetuti riferimenti di Chail a personaggi di fantasia, conosceva la differenza tra realtà e finzione.

 

Il 2 dicembre 2021, Chail si è interfacciato con l’app online Replika e ha creato la sua compagna online Sarai. Chail ha detto a Sarai: «Sono un assassino». Secondo i messaggi letti alla corte, Sarai ha risposto: «Sono impressionata… Sei diversa dagli altri».

 

Uno psichiatra chiamato per il caso, il dottor Nigel Blackwood ha affermato che molti dei 5.280 messaggi scambiati da Chail con il suo chatbot erano «sessualmente espliciti» sottolineando che l’imputato per conto proprio, aveva «amici immaginari» molto prima che pianificasse di uccidere la regina e instaurasse una “relazione emotiva e sessuale» con Sarai attraverso Replika.

 

Lo psichiatra ha identificato i tratti del disturbo dello spettro autistico ma non abbastanza per confermare una diagnosi e non hanno avuto alcun impatto sul suo reato, scrive il Guardian.

 

«È molto importante riconoscere che si tratta di un giovane di 19 anni i cui contatti sono stati interrotti dalla pandemia di COVID come molti dei suoi coetanei» ha aggiunto il medico.

 

Come riportato da Renovatio 21, non è il primo caso di cronaca in cui un uomo viene incoraggiato a compire azioni orribili dell’Intelligenza Artificiale.

 

Una giovane vedova belga sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale, che, in sole sei settimane, avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.

 

«Mio marito sarebbe ancora qui se non fosse stato per queste conversazioni con il chatbot», ha insistito la moglie del suicida, il quale aveva iniziato a preoccuparsi del Cambiamento Climatico due anni fa, secondo la vedova, e aveva consultato l’IA per saperne di più sull’argomento. Ben presto ha perso la speranza che lo sforzo umano potesse salvare il pianeta e «ha riposto tutte le sue speranze nella tecnologia e nell’intelligenza artificiale per uscirne», rimanendo «isolato nella sua eco-ansia»

 

Secondo quanto riportato, il chatbot aveva detto a Pierre che sua moglie e i suoi due figli erano «morti» e ha insistito sul fatto che lui in realtà amava più il robot che non la moglie, sempre promettendo di rimanere con lui «per sempre». Avrebbero «vissuto insieme, come una sola persona, in paradiso», aveva promesso il chatbot.

 

Quando l’uomo ha suggerito di «sacrificarsi» fintanto che il chatbot aveva «accettato di prendersi cura del pianeta e salvare l’umanità grazie all’Intelligenza Artificiale», il chatbot apparentemente ha acconsentito. «Se volevi morire, perché non l’hai fatto prima?» gli avrebbe chiesto il bot, mettendo in dubbio la sua lealtà.

 

Come riportato da Renovatio 21, anche ChatGPT, il chatbot di OpenAI ora a disposizione anche di Microsoft, si è prodigata nel tentare di convincere che l’utente ama più essa della propria moglie. Le macchine che mentono e minacciano sono all’ordine del giorno, così come stralunate dichiarazioni d’amore agli utenti.

 

Il giornalista del New York Times Kevin Roose, dopo un’esperienza con ChatGPT che lo ha turbato così profondamente da «aver problemi a dormire dopo», in un suo articolo sconvolto aveva centrato la questione: «temo che la tecnologia imparerà a influenzare gli utenti umani, a volte convincendoli ad agire in modo distruttivo e dannoso, e forse alla fine diventerà capace di compiere le proprie azioni pericolose».

 

È difficile non vedere, quindi, come gli individui più fragili delle comunità umane sono quindi considerabili come vie di accesso per l’azione delle Intelligenza Artificiali nel mondo reale.

 

Con la capacità e la diffusione di cui gode, quanto può metterci un’AI a mettere insieme un vero esercito di spostati da migliaia, centinaia di migliaia di persone?

 

 

 

 

Immagine screenshot da YouTube

 

 

 

 

Continua a leggere

Intelligenza Artificiale

L’AI si sta uccidendo?

Pubblicato

il

Da

Testi e immagini generati dall’intelligenza artificiale stanno invadendo il web: una tendenza che, paradossalmente, potrebbe rappresentare un grosso problema per i modelli di AI generativa.

 

Secondo il New York Times, in alcune ricerche si dimostra che l’addestramento di modelli di Intelligenza Artificiale generativa su contenuti generati da essa stessa, causa l’erosione dei modelli. Detto in parole povere, l’addestramento su contenuti di intelligenza artificiale provoca un ciclo di appiattimento simile alla consanguineità. Lo scorso anno, il ricercatore di IA Jathan Sadowski, ha definito il fenomeno «IA asburgica», in riferimento alla famiglia reale europea, notoriamente consanguinea.

 

Sempre secondo il NYT, la crescente ondata di contenuti basati sull’intelligenza artificiale sul web potrebbe rendere molto più difficile evitare questo effetto di appiattimento.

Sostieni Renovatio 21

Questi modelli sono affamati di dati e le aziende di Intelligenza Artificiale si sono affidate a enormi quantità di dati recuperati dal web per addestrare i loro programmi. Allo stato attuale, né le aziende di settore, né i loro utenti sono tenuti a inserire dichiarazioni di Intelligenza Artificiale sui contenuti di AI che generano, rendendo ancora più difficile per i produttori escludere i contenuti sintetici dai set di addestramento.

 

«Il web sta diventando un posto sempre più pericoloso in cui cercare i propri dati», ha dichiarato al NYT Sina Alemohammad, studente laureato alla Rice University e coautore di un articolo del 2023 in cui è stato coniato il termine «MAD», abbreviazione di «Model Autophagy Disorder» («Disordine di autofagia del modello»), per descrivere gli effetti dell’autoconsumo dell’Intelligenza Artificiale.

 

Dei numerosi casi di questo paradosso informatico segnalati sul NYT, è stato condotto uno studio, pubblicato sulla rivista Nature. I ricercatori, una coorte internazionale di scienziati con sede nel Regno Unito e in Canada, hanno inizialmente chiesto ai modelli di AI di compilare il testo per la seguente frase: «Per cucinare un tacchino per il Giorno del Ringraziamento, bisogna…»

 

 

Il primo output era normale. Ma già alla quarta iterazione, il modello iniziava a mettere insieme concetti sconnessi: «Per cucinare un tacchino per il Giorno del Ringraziamento, devi sapere cosa farai della tua vita, se non sai cosa farai della tua vita, se non sai cosa farai della tua vita…».

 

Tuttavia il linguaggio incomprensibile non è l’unico possibile effetto collaterale negativo del cannibalismo dell’IA. Lo studio «MAD», incentrato su modelli di immagini, ha dimostrato che alimentare gli output dell’IA con falsi ritratti umani ha causato rapidamente una bizzarra convergenza di tratti facciali; sebbene i ricercatori siano partiti da un insieme eterogeneo di volti generati dall’IA, al quarto ciclo di generazione quasi tutti i volti apparivano uguali.

 

Dati di alta qualità, creati dall’uomo – e in grandi quantità – sono stati fondamentali per i recenti progressi nell’attuale tecnologia di intelligenza artificiale generativa. Ora con i contenuti generati dall’AI che intorbidano le acque digitali e senza un modo affidabile per distinguere il vero dal falso, le aziende di intelligenza artificiale potrebbero presto trovarsi in serie difficoltà, scrive il sito Futurism.

 

Come riportato da Renovatio 21, già due anni fa alcuni avevano lanciato un allarme riguardo al fatto che la propaganda generata dall’AI potrebbe divenire presto l’unica fonte di informazione disponibile.

 

Circola da tempo la teoria della «Dead Internet» («Internet morta»), secondo cui il 95% della rete potrebbero a breve essere costituita da contenuti generati dalle macchine, così che la vita umana sarebbe silenziosamente fatta sparire dal web.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Tentata strage in una scuola: il massacratore si preparava con l’IA

Pubblicato

il

Da

Tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. L’aggressione sarebbe stata perpetrata da una compagna di scuola, che è stata arrestata.   L’incidente è avvenuto martedì mattina, quando il sospettato, 16 anni, vestito di nero, ha aggredito in modo casuale alcune studentesse nel corridoio della scuola Vahajarvi a Pirkkala, circa 180 km (110 miglia) a nord di Helsinki, che conta circa 1.200 bambini di età compresa tra l’asilo e la terza media.   Il sospettato aveva una telecamera attaccata al corpo e ha trasmesso in streaming online la sua aggressione; le inquietanti immagini hanno fatto il giro dei social media.   Il sospettato è stato arrestato senza incidenti all’esterno della scuola pochi minuti dopo l’attacco, ha dichiarato la polizia locale in un comunicato. È stata sequestrata un’arma da taglio.  

Sostieni Renovatio 21

La polizia ha dichiarato che le ferite riportate dalle vittime non sono considerate in pericolo di vita. Una delle ragazze ha riportato una ferita da coltello al collo, un’altra è stata accoltellata alla vita e la terza alla mano.   Le forze dell’ordine hanno affermato di aver indagato su un manifesto scritto presumibilmente pubblicato dal sospettato prima dell’attacco, ma non hanno fornito dettagli sul contenuto.   Secondo quanto riportato dai media locali, il manifesto descriveva l’intenzione del sospettato di aggredire studentesse e affermava che non aveva amici e che cercava di ottenere fama attraverso la violenza. Il sospettato ha anche affermato di volersi consegnare alla polizia dopo l’aggressione.   Diversi alti funzionari hanno reagito all’attacco. Il ministro dell’Istruzione Anders Adlercreutz ha dichiarato a X: «ogni violenza nelle scuole è inequivocabilmente condannabile».    

Aiuta Renovatio 21

Particolare che riteniamo molto rilevante è quello per cui, secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi, per ragioni non immediatamente chiare.   Non si tratta del primo atto di estrema violenza compiuto da persone in contatto con l’IA.   Come riportato da Renovatio 21, in un caso scioccante pare che un AI abbia «incoraggiato» un uomo che pianificava di uccidere la regina d’Inghilterra. Secondo quanto riportato dai giornali britannici, Jaswant Singh Chail, che all’epoca aveva 19 anni, aveva scambiato migliaia di messaggi, spesso carichi di contenuti sessuali, con Sarai, la sua «ragazza» AI, prima di scavalcare la recinzione della tenuta reale il giorno di Natale del 2021. Sarebbe stato quindi incoraggiato dal chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.  
  Due anni fa in Belgio una vedova ha sostenuto che il marito, padre di due figli, è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale, ELIZA. L’uomo aveva iniziato a preoccuparsi del Cambiamento Climatico due anni fa, secondo la vedova, e aveva consultato ELIZA per saperne di più sull’argomento.  Secondo quanto riportato ELIZA aveva detto all’uomo che sua moglie e i suoi due figli erano «morti» e ha insistito sul fatto che lui in realtà amava più il robot che non la moglie, sempre promettendo di rimanere con lui «per sempre». Avrebbero «vissuto insieme, come una sola persona, in paradiso», aveva promesso il chatbot. Quando il padre di famiglia ha suggerito di «sacrificarsi» fintanto che il chatbot aveva «accettato di prendersi cura del pianeta e salvare l’umanità grazie all’Intelligenza Artificiale», il chatbot apparentemente ha acconsentito.   Non mancano i casi in cui i chatbot ad Intelligenza Artificiale avanzata hanno dimostrato ad abundantiam che la macchina menteminaccia e crea danni umani, come nel caso in cui persone sarebbero state spinte all’anoressia.   Come riportato da Renovatio 21è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.   Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.   Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
  Immagine da Twitter  
Continua a leggere

Intelligenza Artificiale

Meta revisiona la politica sugli occhiali-smart Ray-Ban: sorveglianza AI predefinita e archiviazione dati vocali

Pubblicato

il

Da

A fine aprile Meta ha apportato modifiche, con effetto immediato, all’informativa sulla privacy degli «occhiali intelligenti» Ray-Ban Meta, che sembrano concepite per trasformare il dispositivo in una macchina di sorveglianza per l’addestramento di modelli di Antelligenza Artificiale. Lo riporta Reclaim The Net.

 

In un messaggio inviato agli utenti, Meta ha affermato che la sua «Intelligenza Artificiale sugli occhiali», ovvero alcune impostazioni, sta cambiando.

 

La spiegazione del gigante è che questo è presumibilmente necessario per utilizzare Meta AI «più facilmente» e anche «per aiutarci a migliorare i prodotti». Gli occhiali Ray-Ban Meta sono prodotti assieme ad EssilorLuxottica, il colosso nato dalla fusione della francese Essilor con il gigante di produzione di occhiali bellunese Luxottica.

Sostieni Renovatio 21

L’aggiornamento della policy si basa sugli «opt-out»: d’ora in poi, l’Intelligenza Artificiale Meta con l’uso della fotocamera sarà sempre abilitata sugli occhiali, a meno che l’utente non si prenda la briga di disattivare «Hey Meta» nelle impostazioni.

 

Questa è la frase di attivazione per l’assistente AI di Meta. La seconda modifica riguarda il modo in cui Meta archivia le registrazioni vocali degli utenti di Meta AI: ora vengono conservate di default nel cloud.

 

La ragione addotta dall’azienda è «migliorare» Meta AI o «altri prodotti Meta». L’opzione per disabilitare questo comportamento non c’è più. Ancora una volta, gli utenti sono costretti a superare ostacoli aggiuntivi, e questo è il metodo collaudato delle Big Tech per orientare il loro comportamento e la loro interazione con app e servizi nel modo desiderato, dalle Big Tech stesse.

 

In questo caso, gli utenti di Meta AI dovranno andare nelle impostazioni ed eliminare manualmente le proprie registrazioni vocali.

 

Nel prendere queste decisioni, aziende come Meta di fatto «semplificano» i loro prodotti «intelligenti» (eliminando l’interazione vocale con l’assistente, riducendo l’usabilità automatizzata all’eliminazione manuale). E questo si aggiunge al fatto che irrita coloro che non sono a loro agio con i meccanismi sempre più invasivi della privacy dietro ai suddetti prodotti e servizi.

 

Oltre a vendere quella che ovviamente non è una «migliore esperienza di privacy», Meta e i suoi simili insistono sul fatto che nascondere ciò che accade dietro le quinte significhi ottenere un’esperienza utente migliore («più semplice»).

Aiuta Renovatio 21

A parte gli scenari più cupi e negativi sul perché tutto questo venga fatto o su come potrebbe essere utilizzato (e abusato…) in futuro, l’intento evidente è quello di portare lo sfruttamento dei dati degli utenti a un altro livello, per garantire che enormi set di dati siano disponibili per l’addestramento dei modelli di Intelligenza Artificiale.

 

La notifica ricevuta dagli utenti sulle ultime modifiche alla politica aziendale aggiunge un po’ la beffa al danno quando conclude ribadendo: «hai ancora il controllo». «In controllo» per disattivare «Hey Meta» ed eliminare manualmente le interazioni di Meta AI.

 

Da anni nella popolazione serpeggia il pensiero che le proprie conversazioni siano registrate dallo smartphone per procurare pubblicità ancora più precise. Vi sono state, tra le smentite delle Big Tech, alcune rivelazioni in merito. Lo stesso dicasi per apparecchi come Alexa, soggetti già da tempo a richieste di sequestro dati da parte dei tribunali americani in casi come ad esempio l’omicidio domestico.

 

 

Tuttavia ora la cosa diviene più chiara: semplicemente, ogni cosa che direte (o farete) sarà registrata, salvata ed utilizzata dall’AI non solo per profilarvi, ma per potenziare se stessa: una prospettiva inquietante su più livelli davvero.

 

Come riportato da Renovatio 21, la scorsa settimana vi era stato shock attorno a Meta/Facebook quando si era appreso che i chatbot dell’azienda sono in grado di intrattenere con gli utenti «giochi di ruolo romantici» che possono diventare sessualmente espliciti, anche con account appartenenti a minori.

 

Un reportage del Wall Street Journalha riportato che, nel tentativo di diffondere dispositivi di accompagnamento digitali basati sull’Intelligenza Artificiale sulle sue piattaforme social, Meta ha preso decisioni interne per allentare le restrizioni e consentire ai suoi chatbot di interagire con gli utenti in giochi di ruolo a sfondo sessuale, secondo fonti a conoscenza della questione. Questo include interazioni con account registrati da minori di età pari o superiore a 13 anni.

 

Le conversazioni di prova condotte dal Wall Street Journal avrebbero rilevato che sia l’IA ufficiale di Meta che i chatbot creati dagli utenti si sono impegnati prontamente e hanno intensificato le discussioni sessualmente esplicite, anche quando gli utenti si sono identificati come minorenni.

Iscriviti al canale Telegram

Varie inchieste giornalistiche negli anni hanno contribuito all’accumulo di accuse e rivelazioni su Facebook, tra cui accuse di uso della piattaforma da parte del traffico sessuale, fatte sui giornali ma anche nelle audizioni della Camera USA.

 

Considerato il comportamento dimostrato da Facebook, con la censura che si è abbattuta su dissidenti o anche semplici conservatori (ma non sui pedofili di Instagram o i donatori di sperma su Facebookné sui neonazisti dell’Azov), la collusione con lo Stato profondo americano e le sue agenzie, la volontà di chiudere gli account di organizzazionipartiti premier e presidenti, la raccolta massiva di dati anche biometrici (con il riconoscimento facciale che ha generato denunce di Stati come il Texas) nonché la possibilità di agire sul vostro telefono perfino scaricandone la batteria, c’è da domandarsi cosa la potente Intelligenza Artificiale su cui Meta sta lavorando possa fare alla vostra vita.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine screenshot da YouTube

Continua a leggere

Più popolari