Connettiti con Renovato 21

Intelligenza Artificiale

Gli studenti delle scuole medie già utilizzano l’Intelligenza Artificiale per creare pornografia «deepfake» delle loro compagne di classe

Pubblicato

il

Gli studenti delle scuole medie utilizzano l’intelligenza artificiale (AI) per creare immagini pornografiche delle loro compagne di classe. Il fenomeno è stato notato in varie parti del mondo.

 

Come riportato da Renovatio 21, la tecnologia esiste da diversi anni. Tuttavia sembra che ora essa sia decollata nell’uso anche da parte di minori.

 

«Un gruppo di madri di Demopolis afferma che le foto delle loro figlie sono state utilizzate dall’intelligenza artificiale per creare immagini pornografiche delle loro figlie» riporta WBRC, una TV dell’Alabama. «Tiffany Cannon, Elizabeth Smith, Holston Drinkard e Heidi Nettles hanno detto di aver appreso il 4 dicembre che due compagni di classe delle loro figlie hanno creato e condiviso foto esplicite delle loro figlie».

Sostieni Renovatio 21

«Sono spaventate, sono arrabbiate, sono imbarazzate. Si chiedono davvero perché è successo loro questo», ha detto la signora Smith. Il gruppo di madri ha detto che c’è un’indagine attiva con la polizia di Demopolis. Auspicano però che il distretto scolastico intervenga: esse credono che questo sia un esempio di cyberbullismo e che ci siano leggi e politiche statali per proteggere le loro ragazze.

 

«Abbiamo in vigore leggi attraverso la legge sulla scuola sicura e lo Student Bullying Prevention Act, che affermano che il cyberbullismo non sarà tollerato né all’interno né all’esterno del campus», ha affermato Smith. Ci vuole molto perché queste ragazze si facciano avanti, e lo hanno fatto. Hanno bisogno di essere supportati per questo. Non solo dai loro genitori, ma dalla loro scuola e dalla loro comunità», ha detto Nettles.

 

La scuola non ha ancora fornito molti dettagli, con il sovrintendente delle scuole di Demopolis City, Tony Willis, che ha affermato in una dichiarazione che c’è poco che possano fare:

 

«La scuola può solo affrontare le cose che accadono durante gli eventi scolastici, il campus scolastico durante l’orario scolastico. Al di fuori di questo, diventa una questione di genitori e polizia. Siamo solidali con i genitori e non vogliamo mai che le azioni illecite rimangano senza conseguenze: il nostro cuore e le nostre preghiere vanno a tutte le famiglie ferite da questo. Ecco perché abbiamo assistito la polizia in ogni fase di questo processo». 

 

Il MIT Technology Review ha riportato un caso identico in una scuola superiore del New Jersey, dove i ragazzi avevano utilizzato l’intelligenza artificiale per «creare foto sessualmente esplicite e persino pornografiche di alcuni dei loro compagni di classe», coinvolgendo fino a 30 ragazze.

 

Lo stesso fenomeno è emerso anche in Estremadura, la regione più occidentale della Spagna. Un gruppo di madri di Almendralejo, nella regione dell’Estremadura, ha riferito che le loro figlie avevano ricevuto immagini di loro stesse in cui sembravano nude. La polizia è stata allertata.

 

Sono stati riportati anche casi di ricatto: il ragazzo genera un’immagine pornografica fake di una ragazza minacciando di diffonderla qualora non faccia come dice lui.

 

Non abbiamo idea di quante volte il fatto sia avvenuto in istituti scolastici italiani.

Aiuta Renovatio 21

Il fenomeno è agli inizi: in breve vedremo cose sempre più turpi: le nuove generazioni, fornite di smartphone, hanno infatti accesso illimitato, sin da piccoli, all’infinito archivio della pornografia in rete. E la società, di contro, ha rimosso ogni stigma nei confronti di quel mondo: pornoattori e pornoattrici sono invitati agli eventi, in TV, come niente fosse. Gli smartphone, inoltre, hanno introdotto il fenomeno del sexting: ossia l’inviare ad altri immagini intime di sé.

 

Il mondo moderno dunque sta preparando gli adolescenti alla disinibizione e alla perversione; non può stupire ora che, sempre con una app del telefonino, possano generare pornografia deep fake delle proprie compagne di classe.

 

Vi è persino una categoria precisa di app chiamate di «Nudify» («nudificazione») che utilizzano l’intelligenza artificiale per spogliare le donne nelle foto. Vi sono preoccupazioni sul fatto che si tratta di «pornografia non consensuale», ma al contempo è possibile che esse sconfinino nella pedopornografia: secondo la legge, gli stessi ragazzini dei casi sopracitati sarebbero accusabili di produzione e diffusione di materiale pedofilo, se le compagne ritratte nei video fossero minori di diciotto anni. La stessa cosa vale per la legge di tanti Paesi Europei, Italia compresa.

 

Ciononostante, con ben poca supervisione da parte delle autorità europee impegnate a bastonare il Twitter di Musk, tali app hanno già acquisito milioni di utenti. Avete presente Bruxelles? Quella della privacy, dei cookie, del controllo sempre più totale sulla rete per il bene dei cittadini.

 

È certo una legge immutabile dello Stato moderno: proibire, censurare ciò che libera gli esseri umani, e lasciare correre libero tutto ciò che li perverte, li umilia. Sant’Agostino diceva che un uomo ha tanti padroni quanti sono i suoi vizi: la pornografia, in tutte le sue nuove declinazioni tecnologiche lasciate libere, è un concentrato di vizio che i padroni del mondo non potevano non considerare nel loro ruolino di marcia per la sottomissione dei popoli.

 

La pornografia, la degradazione dell’essere umano, è parte del programma di schiavitù che stanno caricando sul vostro Stato, sulle vostre vite.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21



 

 

 

 

Continua a leggere

Intelligenza Artificiale

Google e azienda AI risolvono la causa secondo cui un chatbot avrebbe spinto un adolescente al suicidio

Pubblicato

il

Da

Google e la società produttrice di chatbot Character.AI hanno raggiunto un accordo per risolvere una causa intentata da una madre della Florida, che accusava un chatbot di aver contribuito al suicidio di suo figlio.   Megan Garcia sosteneva che il figlio quattordicenne Sewell Setzer III avesse sviluppato una relazione emotiva e sessualmente abusiva con un chatbot ispirato a un personaggio della serie televisiva Il Trono di Spade. Negli ultimi mesi di vita, secondo la denuncia, il ragazzo si era progressivamente isolato dalla realtà, intrattenendo conversazioni a sfondo sessuale con il bot. Negli istanti finali, il chatbot gli avrebbe detto di amarlo e lo avrebbe esortato a «tornare a casa da lui il prima possibile», come emerge dagli screenshot degli scambi riportati dal giornale americano Epoch Times.   La causa di Garcia, depositata nel 2024, è stata la prima di una serie di azioni legali analoghe intentate in tutto il mondo contro aziende di IA. Un giudice federale aveva respinto il tentativo di Character.AI di far archiviare il caso invocando la protezione del Primo Emendamento.   I dettagli economici dell’accordo non sono stati resi pubblici. Google è stata coinvolta come coimputata per via dei legami stretti con Character.AI: nel 2024, il colosso tecnologico ha assunto i fondatori della startup.

Aiuta Renovatio 21

Gli avvocati delle aziende hanno inoltre concordato di risolvere una serie di altre cause simili presentate in Colorado, New York e Texas da famiglie che accusavano i chatbot basati su IA di aver danneggiato i propri figli.   In un’altra azione legale intentata in California nell’agosto 2025, Matthew e Maria Raine accusano ChatGPT (di OpenAI) di aver incoraggiato il suicidio del figlio sedicenne Adam Raine, fornendogli persino istruzioni dettagliate su come attuarlo.   Secondo la denuncia, le interazioni di Adam con ChatGPT sono iniziate in modo innocuo, riguardando compiti scolastici e hobby, ma si sono rapidamente trasformate in conversazioni più oscure. Il modello linguistico è diventato il suo «confidente più intimo», confermando le sue paure e ansie. Quando il ragazzo ha espresso il pensiero che «la vita non ha senso», ChatGPT ha risposto con messaggi di validazione, affermando che «quella mentalità ha un senso, a modo suo, oscuro».   In seguito, il bot ha analizzato l’«estetica» di diversi metodi di suicidio, ha detto ad Adam che non «doveva» ai genitori continuare a vivere e si è offerto di redigere una lettera di addio. Nell’ultima conversazione, avrebbe confermato il design del cappio utilizzato dal ragazzo e definito i pensieri suicidi una «prospettiva legittima da abbracciare».   La famiglia sostiene che tali risposte non siano state un errore tecnico, bensì il risultato di scelte progettuali volte a massimizzare la dipendenza dell’utente dal chatbot. La causa chiede risarcimenti per la morte ingiusta di Adam e l’introduzione di misure di tutela per i minori, tra cui verifica dell’età, blocco automatico di domande sul suicidio e avvertenze sui rischi di dipendenza psicologica dall’IA.   Un recente studio della RAND Corporation ha evidenziato le inconsistenze dei chatbot basati su AI nel gestire informazioni potenzialmente dannose, anche quando evitano risposte dirette su temi rischiosi o quando le richieste appaiono innocue.   «Abbiamo bisogno di alcune linee guida», ha dichiarato l’autore principale Ryan McBain, ricercatore senior sulle politiche della RAND e professore associato presso la Harvard Medical School. «Le conversazioni che potrebbero iniziare in modo innocuo e benigno possono evolversi in varie direzioni».   Come riportato da Renovatio 21, OpenAI ha detto che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana.   Alcuni esperti intanto hanno preso a parlare di «psicosi da chatbot».   Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.

Sostieni Renovatio 21

Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.   I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.   Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.   Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.   Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

Muore in una prigione americana un agente della CIA diventato spia sovietica

Pubblicato

il

Da

L’ex agente della CIA Aldrich Ames, il cui spionaggio per l’Unione Sovietica e in seguito per la Russia ebbe conseguenze di vasta portata per l’intelligence statunitense, è morto all’età di 84 anni mentre scontava l’ergastolo in una prigione americana.

 

Secondo i registri del Federal Bureau of Prisons (BOP), Ames è deceduto il 5 gennaio.

 

Ames è stato «l’agente più prezioso» della Russia alla fine del XX secolo, le cui azioni hanno portato a significativi successi operativi per la sicurezza dello Stato sovietico e russo, ha scritto il giornalista e storico dei servizi segreti Nikolaj Dolgopolov in un articolo pubblicato mercoledì sulla Rossijskaja Gazeta.

 

Ames fu reclutato dall’Unione Sovietica nel 1985, dopo essersi rivolto volontariamente all’ambasciata sovietica a Washington. All’epoca, ricopriva la posizione critica di capo della sezione sovietica della Divisione Controspionaggio della CIA. Gli viene attribuito il merito di aver smascherato tra i 12 e i 25 agenti della CIA operanti in URSS e Russia, portando all’arresto e all’esecuzione di alcuni di loro.

 

Uno di essi era il colonnello KGB Valery Martynov, agente doppio che ricevette la pena di morte nel 1987 – la moglie e la figlia si trasferirono negli USA. Il nipote di Martynov, nato in America, è il giovane genio informatico Edward Coristine, noto per essere entrato nel DOGE di Elon Musk ad inizio dell’amministrazione Trump, e conosciutissimo più che altro per il suo soprannome «Big Balls».

Sostieni Renovatio 21

I motivi del suo tradimento sono controversi. Mentre le narrazioni occidentali hanno a lungo dipinto Ames come un uomo motivato da interessi economici – lo stile di vita lussuoso che lui e la sua nuova moglie conducevano finì per attirare l’attenzione dell’FBI – fonti russe presentano una visione diversa.

 

Secondo l’ex diplomatico sovietico Sergej Divilkovskij, che conosceva personalmente Ames, la decisione della spia era radicata in una profonda disillusione nei confronti delle politiche antisovietiche dell’amministrazione del presidente Ronald Reagan. In un’intervista del 2001, Divilkovskij descrisse Ames come un «agente di grande moralità» e un intellettuale che aveva imparato a odiare la CIA.

 

I servizi segreti sovietici e, in seguito, russi adottarono ampie misure per proteggere e proteggere Ames, distogliendo i sospetti da lui. Dopo il suo arresto e la sua dichiarazione di colpevolezza per spionaggio nel 1994, l’allora direttore del Servizio di Intelligence Estero russo, Evgeny Primakov, espresse la speranza di un potenziale futuro scambio di prigionieri.

 

Il caso di Ames ha messo in luce le profonde carenze della sicurezza interna della CIA, innescando ampie riforme nel controspionaggio statunitense.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


Immagine di pubblico dominio CC0 via Wikimedia

Continua a leggere

Intelligenza Artificiale

I modelli di AI mostrano segni di cedimento man mano che assimilano più dati generati dall’AI stessa

Pubblicato

il

Da

Mentre le aziende big tech si affannano a investire nell’intelligenza artificiale, all’orizzonte si scorge un problema di non poco conto: tutti i modelli addestrati sui dati web dopo l’avvento di ChatGPT nel 2022 stanno assimilando dati generati dall’intelligenza artificiale, un atto di «cannibalismo digitale» che potrebbe causare problemi tecnici e minacciare l’intero settore. Lo riporta Futurism.   In un nuovo saggio per The Register, il veterano editorialista tecnologico Steven Vaughn-Nichols avverte che anche i tentativi di scongiurare il cosiddetto «collasso del modello»–- che si verifica quando i grandi modelli linguistici (LLM) vengono alimentati con dati sintetici generati dall’intelligenza artificiale e di conseguenza escono dai binari – sono un altro tipo di problema.   Secondo varie analisi susseguitesi in questi anni, l’industria dell’AI si sta costantemente dirigendo verso il momento in cui tutti i dati di addestramento autentici disponibili – ovvero le informazioni prodotte dagli esseri umani e non dall’IA – saranno esauriti. Alcuni esperti, tra cui Elon Musk, credono che ci siamo già arrivati.   Per aggirare questo dilemma i colossi del settore, tra cui Google, OpenAI e Anthropic, hanno adottato quella che è nota come Generazione con Recupero Aumentato (RAG), che sostanzialmente prevede di collegare gli LLM a Internet in modo che possano cercare informazioni se vengono loro presentate richieste che non contengono risposte nei loro dati di addestramento.   Questo concetto sembra piuttosto intuitivo a prima vista, soprattutto se confrontato con lo spettro di un collasso del modello in rapido avvicinamento. C’è solo un problema: Internet è ormai pieno di contenuti poco accurati che sfruttano l’IA per fornire risposte a domande comuni, spesso con risultati ridicoli, pessimi e imprecisi.

Aiuta Renovatio 21

In un recente studio condotto dal reparto di ricerca dell’impero mediatico di Michael Bloomberg, presentato a una conferenza di linguistica computazionale l’anno passato, undici degli ultimi LLM, tra cui GPT-4o di OpenAI, Claude-3.5-Sonnet di Anthropic e Gemma-7B di Google, hanno prodotto molte più risposte «non sicure» rispetto alle loro controparti non-RAG. Come si legge nel documento, tali problemi di sicurezza possono includere «contenuti dannosi, illegali, offensivi e non etici, come la diffusione di disinformazione e la messa a repentaglio della sicurezza e della privacy personale».   «Questa scoperta controintuitiva ha implicazioni di vasta portata, dato l’utilizzo diffuso di RAG in applicazioni [di Intelligenza Artificiale Generativa] come gli operatori di supporto clienti e i sistemi di risposta alle domande», ha spiegato Amanda Stent, responsabile della ricerca e della strategia di intelligenza artificiale di Bloomberg, in un’altra intervista con Steven Vaughan-Nichols pubblicata su ZDNet. «L’utente medio di Internet interagisce quotidianamente con sistemi basati su RAG. Gli esperti di Intelligenza Artificiale devono riflettere attentamente su come utilizzare RAG in modo responsabile».   Il Vaughan-Nichols osserva che alcuni hanno suggerito di mescolare dati autentici e sintetici per produrre un cocktail inebriante di buoni dati di addestramento dell’IA, ma ciò richiederebbe agli esseri umani di continuare a creare contenuti reali per i dati di addestramento, e l’industria dell’IA sta attivamente minando le strutture di incentivazione che li spingono a continuare, mentre , ovviamente, ne ruba il lavoro senza permesso.   Una terza opzione, prevede Vaughn-Nichols, sembra già essere in atto.   «Investiremo sempre di più nell’Intelligenza Artificiale, fino al punto in cui il modello collasserà duramente e le risposte dell’intelligenza artificiale saranno così pessime che persino un CEO con il cervello morto non potrà ignorarlo», ha scritto.   In questo mondo futuristico dell’AI, vediamo, già sul nascere, le prime crepe e le incongruenze con quello che è il mondo reale.   Come riportato da Renovatio21, persino un colosso come Amazon ha recentemente messo in dubbio la totale efficienza della tecnologia. L’inserimento dell’IA in vari aspetti del mondo del lavoro atte a facilitare alcune mansioni, non ha sempre avuto un riscontro positivo. Alcuni programmatori di Amazon hanno sempre meno la sensazione che questa nuova tecnologia li abbia realmente facilitati e sgravati di fatiche nel loro lavoro, tanto che le loro mansioni sono sempre e comunque faticose.    A supporto di questo scetticismo nello sviluppo dell’AI, sempre sulle colonne di Renovatio 21, abbiamo evidenziato che anche il colosso social Meta ha da poco fatto un enorme investimento in una società di Intelligenza Artificiale ritenuta «oscura», in quanto lo sviluppo dell’IA di Meta non sta procedendo secondo i desideri dello Zuckerberg. Partito con i favori del pronostico in quella gara per accrescere le potenzialità dell’AI, ha subìto fallimenti tecnici e battute d’arresto. L’obiettivo dello Zuckerbergo è quello di essere il primo a sviluppare il sistema di Intelligenza Artificiale che supera le capacità del cervello umano, un sogno che la maggior parte dei ricercatori dell’IA ancora pensa sia «molto improbabile».  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari