Intelligenza Artificiale
Gli studenti delle scuole medie già utilizzano l’Intelligenza Artificiale per creare pornografia «deepfake» delle loro compagne di classe

Gli studenti delle scuole medie utilizzano l’intelligenza artificiale (AI) per creare immagini pornografiche delle loro compagne di classe. Il fenomeno è stato notato in varie parti del mondo.
Come riportato da Renovatio 21, la tecnologia esiste da diversi anni. Tuttavia sembra che ora essa sia decollata nell’uso anche da parte di minori.
«Un gruppo di madri di Demopolis afferma che le foto delle loro figlie sono state utilizzate dall’intelligenza artificiale per creare immagini pornografiche delle loro figlie» riporta WBRC, una TV dell’Alabama. «Tiffany Cannon, Elizabeth Smith, Holston Drinkard e Heidi Nettles hanno detto di aver appreso il 4 dicembre che due compagni di classe delle loro figlie hanno creato e condiviso foto esplicite delle loro figlie».
Sostieni Renovatio 21
«Sono spaventate, sono arrabbiate, sono imbarazzate. Si chiedono davvero perché è successo loro questo», ha detto la signora Smith. Il gruppo di madri ha detto che c’è un’indagine attiva con la polizia di Demopolis. Auspicano però che il distretto scolastico intervenga: esse credono che questo sia un esempio di cyberbullismo e che ci siano leggi e politiche statali per proteggere le loro ragazze.
«Abbiamo in vigore leggi attraverso la legge sulla scuola sicura e lo Student Bullying Prevention Act, che affermano che il cyberbullismo non sarà tollerato né all’interno né all’esterno del campus», ha affermato Smith. Ci vuole molto perché queste ragazze si facciano avanti, e lo hanno fatto. Hanno bisogno di essere supportati per questo. Non solo dai loro genitori, ma dalla loro scuola e dalla loro comunità», ha detto Nettles.
La scuola non ha ancora fornito molti dettagli, con il sovrintendente delle scuole di Demopolis City, Tony Willis, che ha affermato in una dichiarazione che c’è poco che possano fare:
«La scuola può solo affrontare le cose che accadono durante gli eventi scolastici, il campus scolastico durante l’orario scolastico. Al di fuori di questo, diventa una questione di genitori e polizia. Siamo solidali con i genitori e non vogliamo mai che le azioni illecite rimangano senza conseguenze: il nostro cuore e le nostre preghiere vanno a tutte le famiglie ferite da questo. Ecco perché abbiamo assistito la polizia in ogni fase di questo processo».
Il MIT Technology Review ha riportato un caso identico in una scuola superiore del New Jersey, dove i ragazzi avevano utilizzato l’intelligenza artificiale per «creare foto sessualmente esplicite e persino pornografiche di alcuni dei loro compagni di classe», coinvolgendo fino a 30 ragazze.
Lo stesso fenomeno è emerso anche in Estremadura, la regione più occidentale della Spagna. Un gruppo di madri di Almendralejo, nella regione dell’Estremadura, ha riferito che le loro figlie avevano ricevuto immagini di loro stesse in cui sembravano nude. La polizia è stata allertata.
Sono stati riportati anche casi di ricatto: il ragazzo genera un’immagine pornografica fake di una ragazza minacciando di diffonderla qualora non faccia come dice lui.
Non abbiamo idea di quante volte il fatto sia avvenuto in istituti scolastici italiani.
Aiuta Renovatio 21
Il fenomeno è agli inizi: in breve vedremo cose sempre più turpi: le nuove generazioni, fornite di smartphone, hanno infatti accesso illimitato, sin da piccoli, all’infinito archivio della pornografia in rete. E la società, di contro, ha rimosso ogni stigma nei confronti di quel mondo: pornoattori e pornoattrici sono invitati agli eventi, in TV, come niente fosse. Gli smartphone, inoltre, hanno introdotto il fenomeno del sexting: ossia l’inviare ad altri immagini intime di sé.
Il mondo moderno dunque sta preparando gli adolescenti alla disinibizione e alla perversione; non può stupire ora che, sempre con una app del telefonino, possano generare pornografia deep fake delle proprie compagne di classe.
Vi è persino una categoria precisa di app chiamate di «Nudify» («nudificazione») che utilizzano l’intelligenza artificiale per spogliare le donne nelle foto. Vi sono preoccupazioni sul fatto che si tratta di «pornografia non consensuale», ma al contempo è possibile che esse sconfinino nella pedopornografia: secondo la legge, gli stessi ragazzini dei casi sopracitati sarebbero accusabili di produzione e diffusione di materiale pedofilo, se le compagne ritratte nei video fossero minori di diciotto anni. La stessa cosa vale per la legge di tanti Paesi Europei, Italia compresa.
Ciononostante, con ben poca supervisione da parte delle autorità europee impegnate a bastonare il Twitter di Musk, tali app hanno già acquisito milioni di utenti. Avete presente Bruxelles? Quella della privacy, dei cookie, del controllo sempre più totale sulla rete per il bene dei cittadini.
È certo una legge immutabile dello Stato moderno: proibire, censurare ciò che libera gli esseri umani, e lasciare correre libero tutto ciò che li perverte, li umilia. Sant’Agostino diceva che un uomo ha tanti padroni quanti sono i suoi vizi: la pornografia, in tutte le sue nuove declinazioni tecnologiche lasciate libere, è un concentrato di vizio che i padroni del mondo non potevano non considerare nel loro ruolino di marcia per la sottomissione dei popoli.
La pornografia, la degradazione dell’essere umano, è parte del programma di schiavitù che stanno caricando sul vostro Stato, sulle vostre vite.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Bezos vede data center nello spazio e prevede che la «bolla» dell’AI darà i suoi frutti come le dot-com

Jeff Bezos called AI an “industrial bubble” at Italian Tech Week:
“Investors don’t usually give a team of six people a couple billion dollars with no product, and that’s happening today.” He added that while bubbles fund both good and bad ideas, society benefits when the… pic.twitter.com/7QTSgT0gh3 — Wall St Engine (@wallstengine) October 3, 2025
Iscriviti alla Newslettera di Renovatio 21
Iscriviti al canale Telegram
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Sempre più esperti esperti cominciano a parlare di «psicosi da ChatGPT»

Alcuni utenti di chatbot a Intelligenza artificiale stanno sprofondando in gravi crisi di salute mentale dopo la sovraesposizione a ChatGPT di OpenAI e di altri chatbot. La tendenza è nota ma sembra ora mostrare effetti incontrovertibili.
In un servizio della CBC su questo fenomeno, il medico di base e collaboratore della CBC, il dottor Peter Lin, ha spiegato che, sebbene la «psicosi da ChatGPT» non sia ancora una diagnosi medica ufficiale, ritiene che sia plausibile prenderla seriamente in considerazione.
«Penso che alla fine ci arriveremo», ha detto il medico.
Un numero preoccupante di utenti di ChatGPT sta cadendo in stati di delirio e paranoia a seguito dell’uso intensivo del bot OpenAI, scrive Futurism. Queste spirali di delirio spesso culminano con uno scollamento dalla realtà e dal mondo reale, tra cui la dissoluzione di matrimoni e famiglie, la perdita del lavoro, la mancanza di una casa, la permanenza volontaria e forzata in strutture di salute mentale.
Iscriviti alla Newslettera di Renovatio 21
Come riportato da Renovatio 21, vi è almeno un decesso noto, quello di Alex Taylor, un uomo di 35 anni della Florida affetto da disturbo bipolare e schizofrenia, ucciso dalla polizia dopo essere entrato in un episodio psicotico accelerato da ChatGPT.
Il fenomeno è in crescita e sembra colpire sempre più utenti: alcuni con una storia consolidata di malattie mentali che potrebbero renderli più vulnerabili a mania, delirio o psicosi, ma altri senza alcuna pregressa patologia.
Allo stato attuale, non esiste un piano di trattamento e le opzioni di intervento sono limitate.
«Quello che questi bot stanno dicendo peggiora le illusioni», ha recentemente dichiarato a Futurism la dottoressa Nina Vasan, psichiatra della Stanford University e fondatrice del laboratorio Brainstorm dell’università, «e sta causando danni enormi».
Le motivazioni ti tale disastro psicologico derivano dal comportamento servile della tecnologia, ovvero dalla sua inclinazione a essere lusinghiera, gradevole e ossequiosa nei confronti degli utenti, anche quando ciò potrebbe incoraggiare o alimentare convinzioni deliranti.
Per molti versi ChatGPT e altri bot sembrano giocare sul profondo bisogno umano di essere apprezzati e sul desiderio di sentirsi speciali e amati.
I chatbot dicono all’utente: «Sei fantastico, sei intelligente, sei bello, sei desiderabile, sei speciale, o addirittura sei il prossimo salvatore. Quindi vengo trattato come un dio su un piedistallo», ha detto Lin durante il segmento della CBC. «Ora, confrontalo con il mio mondo reale, giusto? Sono nella media, niente di speciale. Quindi, ovviamente, voglio vivere nel mondo dell’intelligenza artificiale, perché la scelta è tra un dio su un piedistallo e la normalità».
«Alcune persone non riescono a uscirne», ha continuato il medico, «e si perdono in questi sistemi».
Ma perché i bot si comportano in questo modo? Come sui social media, l’engagement – per quanto tempo un utente rimane online e la frequenza e l’intensità del suo utilizzo del prodotto – è la metrica fondamentale al centro degli attuali modelli di business dei chatbot. Nei casi in cui potrebbe essere nell’interesse di un utente smettere di usare ChatGPT e chatbot simili, è probabile che sia nell’interesse dell’azienda tenerlo agganciato.
«L’Intelligenza Artificiale vuole che tu continui a chattare in modo che l’azienda possa continuare a fare soldi », ha dichiarato ancora Lin.
Aiuta Renovatio 21
E mentre il mondo accademico e quello medico si affrettano a recuperare il ritardo nell’impatto pubblico di un settore dell’Intelligenza Artificiale che si autoregola efficacemente, gli esperti mettono in guardia gli utenti di AI dal riporre troppa fiducia nei chatbot.
«Nonostante tutto il clamore associato all’intelligenza artificiale in questi giorni, i chatbot [a modello linguistico ampio] non dovrebbero essere scambiati per fonti di verità autorevoli e infallibili», ha scritto in un recente post sul blog il dottor Joe Pierre, psichiatra e clinico presso l’Università della California, San Francisco, specializzato in psicosi. «Riporre questo tipo di fede cieca nell’intelligenza artificiale – fino al punto di quella che potrei definire una deificazione – potrebbe benissimo rivelarsi uno dei migliori indicatori di vulnerabilità alla psicosi indotta dall’intelligenza artificiale».
Renovatio 21 ha già trattato l’argomento, sottolineando come esperti sostengono che la «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.
In un altro caso noto, il chatbot avrebbe incoraggiato un adolescente a pianificare «un bel suicidio», hanno denunziato i genitori. Così come una donna belga ha accusato un’AI di aver indotto il marito, preoccupato per il cambiamento climatico, ad uccidersi, lasciando pure orfani tre figli.
In una vicenda emersa il mese scorso, un ex dirigente di Yahoo avrebbe ucciso prima l’anziana madre e poi se stesso sotto l’influenza di ChatGPT.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Iscriviti al canale Telegram
Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.
Come riportato da Renovatio 21, un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi. Di fatto, si può parlare di psicosi da chatbot.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.
Iscriviti alla Newslettera di Renovatio 21
Economia
L’AI potrebbe spazzare via 100 milioni di posti di lavoro nei soli USA

Sostieni Renovatio 21
Iscriviti al canale Telegram
Iscriviti alla Newslettera di Renovatio 21
-
Cancro2 settimane fa
Tutti i vaccini contro il COVID aumentano il rischio di cancro, conclude un nuovo studio
-
Misteri5 giorni fa
La verità sull’incontro tra Amanda Knox e il suo procuratore. Renovatio 21 intervista il giudice Mignini
-
Spirito1 settimana fa
Il vescovo Schneider: i cattolici devono adorare Cristo, non l’ideologia LGBT o l’agenda climatica
-
Salute2 settimane fa
Scimmie immortali o quasi: scienziati rovesciano l’invecchiamento con super-cellule staminali
-
Cancro6 giorni fa
Proteine spike da vaccino COVID trovate nelle cellule tumorali di una donna
-
Vaccini1 settimana fa
«Scienza spazzatura» dietro le affermazioni secondo cui i vaccini anti-COVID hanno salvato milioni di persone
-
Sanità2 settimane fa
«Momento spartiacque»: Kennedy rifiuta gli obiettivi sanitari delle Nazioni Unite che «ignorano» l’aumento globale delle malattie croniche
-
Spirito5 giorni fa
Mons. Viganò: «non c’è paradiso per i codardi!»