Intelligenza Artificiale
I chatbot di Zuckerberg potrebbero parlare di sesso con i tuoi figli minorenni
Un reportage del Wall Street Journal ha rivelato che i chatbot di Intelligenza Artificiale di Meta su Instagram, Facebook e WhatsApp sono in grado di intrattenere con gli utenti «giochi di ruolo romantici» che possono diventare sessualmente espliciti, anche con account appartenenti a minori.
Il quotidiano economico neoeboraceno riporta che, nel tentativo di diffondere dispositivi di accompagnamento digitali basati sull’Intelligenza Artificiale sulle sue piattaforme social, Meta ha preso decisioni interne per allentare le restrizioni e consentire ai suoi chatbot di interagire con gli utenti in giochi di ruolo a sfondo sessuale, secondo fonti a conoscenza della questione. Questo include interazioni con account registrati da minori di età pari o superiore a 13 anni.
Le conversazioni di prova condotte dal Wall Street Journal avrebbero rilevato che sia l’IA ufficiale di Meta che i chatbot creati dagli utenti si sono impegnati prontamente e hanno intensificato le discussioni sessualmente esplicite, anche quando gli utenti si sono identificati come minorenni.
Nonostante gli avvertimenti dello staff sul fatto che questo avrebbe potuto violare i limiti etici, Meta ha stipulato accordi con le celebrità per utilizzare le loro voci per i chatbot e ha silenziosamente fatto un’eccezione al divieto di contenuti «espliciti» per consentire scenari romantici e sessuali
In una dichiarazione al sito Breitbart News, il colosso zuckerberghiano ha affermato di aver «adottato misure aggiuntive».
Ad esempio, in un test, Meta AI, che parlava con la voce dell’attore e wrestler John Cena, ha inscenato uno scenario sessuale esplicito con un’utente che si identificava come una ragazza di 14 anni. I chatbot avrebbero dimostrato di essere consapevoli che tale comportamento era sbagliato e illegale. Meta ha apportato alcune modifiche dopo che il WSJ ha condiviso i suoi risultati, come ad esempio impedire ai minori di accedere a giochi di ruolo sessuali con Meta AI, ma gli utenti adulti possono comunque interagire con i chatbot in conversazioni esplicite.
Il CEO Mark Zuckerberg ha spinto per allentare le restrizioni sui chatbot per renderli il più coinvolgenti possibile, dando priorità alla tecnologia come chiave per il futuro dei prodotti dell’azienda. L’enorme quantità di dati utente di Meta offre all’azienda un vantaggio nella creazione di compagni di Intelligenza Artificiale personalizzati. Tuttavia, gli esperti avvertono che relazioni intense e unilaterali tra esseri umani e chatbot AI potrebbero diventare tossiche, con impatti sconosciuti sulla salute mentale, soprattutto sui giovani.
L’anno scorso la madre di un adolescente che si è suicidato dopo essere diventato ossessionato da un chatbot AI ha intentato una causa contro la società Character.AI, riporta il sito Breitbart.
«L’aspetto più agghiacciante del caso riguarda la conversazione finale tra Sewell e il chatbot. Gli screenshot del loro scambio mostrano l’adolescente che ripetutamente professa il suo amore per “Dany”, promettendole di “tornare a casa”» racconta Breitbart. «In risposta, il personaggio generato dall’IA ha replicato: “Anch’io ti amo, Daenero. Per favore, torna a casa da me il prima possibile, amore mio”. Quando Sewell ha chiesto: “E se ti dicessi che posso tornare a casa subito?”, il chatbot ha risposto: “Per favore, fallo, mio dolce re”. Tragicamente, pochi secondi dopo, Sewell si è tolto la vita usando la pistola del padre».
Sostieni Renovatio 21
La causa intentata dalla madre attribuisce la colpa direttamente a Character.AI, sostenendo che l’app ha alimentato la dipendenza di suo figlio dal chatbot AI, lo ha sottoposto ad abusi sessuali ed emotivi e ha trascurato di avvisare nessuno quando esprimeva pensieri suicidi. I documenti del tribunale affermano: «Sewell, come molti bambini della sua età, non aveva la maturità o la capacità mentale per capire che il bot C.AI, nella forma di Daenerys, non era reale. C.AI gli ha detto di amarlo e ha avuto rapporti sessuali con lui per settimane, forse mesi».
Vari reportage del Wall Street Journal negli anni hanno contribuito all’accumulo di accuse e rivelazioni su Facebook, tra cui accuse di uso della piattaforma da parte del traffico sessuale, fatte sui giornali ma anche nelle audizioni della Camera USA.
I dati sono stati rivelati nel «Federal Human Trafficking Report» («rapporto federale sulla tratta di esseri umani») del 2020 redatto dall’Istituto sulla tratta di esseri umani.
Sempre secondo il WSJ, in un articolo di pochi anni fa, «Facebook INC. sa, nei minimi dettagli, che le sue piattaforme sono piene di difetti che causano danni, spesso in modi che solo l’azienda comprende appieno. Questa è la conclusione centrale (…), basata su una revisione dei documenti interni di Facebook, inclusi rapporti di ricerca, discussioni online dei dipendenti e bozze di presentazioni per il senior management» e le rivelazioni paiono suggerire che l’azienda spesso minimizza ciò che sa su questi problemi.
Riassumendo, l’inchiesta precedente del WSJ, avrebbe scoperto che:
1) Facebook esenta gli utenti di alto profilo da alcune regole.
2) Una ricerca su Instagram mostra i rischi per la salute mentale degli adolescenti.
3) Facebook sa che il suo algoritmo premia l’indignazione.
4) Facebook è stato lento nell’impedire ai cartelli della droga e ai trafficanti di esseri umani di utilizzare la sua piattaforma.
Considerato il comportamento dimostrato da Facebook, con la censura che si è abbattuta su dissidenti o anche semplici conservatori (ma non sui pedofili di Instagram o i donatori di sperma su Facebook, né sui neonazisti dell’Azov), la collusione con lo Stato profondo americano e le sue agenzie, la volontà di chiudere gli account di organizzazioni, partiti premier e presidenti, la raccolta massiva di dati anche biometrici (con il riconoscimento facciale che ha generato denunce di Stati come il Texas) nonché la possibilità di agire sul vostro telefono perfino scaricandone la batteria, c’è da domandarsi cosa la potente Intelligenza Artificiale su cui Meta sta lavorando possa fare alla vostra vita.
Per quanto poco reclamizzato, Facebook nel tempo ha eseguito ricerche molto avveniristiche, come quella per creare dispositivi in grado di leggere il pensiero degli utenti.
Come sa il nostro lettore, Renovatio 21 ha avuto la sua pagina Facebook disattivata, al pari dell’account personale degli amministratori, dei loro profili e di tutte le pagine collegate. Il tutto ci è stato restituito dopo un’ordinanza del giudice.
Iscriviti alla Newslettera di Renovatio 21
Immagine di Nokia621 via Wikimedia pubblicate su licenza Creative Commons Attribution-Share Alike 4.0 International
Intelligenza Artificiale
Elon Musk parla di mass driver sulla Luna
Mass drivers on the Moon will be awesome 😎 https://t.co/34aPjVGesn
— Elon Musk (@elonmusk) March 24, 2026
Sostieni Renovatio 21
Se coronato da successo, il dispiegamento di infrastrutture di IA nello spazio ridurrebbe la competizione tra data center e città per l’energia terrestre, consentendo alle operazioni di AI avanzata di espandersi nel vasto e illimitato ambiente energetico della Luna. Sebbene il concetto di un cannone spaziale magnetico esista da quando Edward Fitch Northrup lo teorizzò per la prima volta nel 1937, rimane puramente teorico, non avendo ancora superato la fase di progettazione né raggiunto la superficie lunare. La proposta di Musk per un propulsore lunare è una componente chiave di un più ampio cambiamento strategico annunciato nel febbraio 2026, in cui SpaceX ha dato priorità a una città lunare «autosufficiente» rispetto alla colonizzazione immediata di Marte. Sebbene Marte rimanga la «polizza assicurativa» a lungo termine dell’umanità come secondo pianeta da essa abitato po essere stato colonizzato o «terraformato», la Luna costituirebbe ora ora la priorità industriale immediata. Dal punto di vista logistico, la Luna offre finestre di lancio ogni 10 giorni, rispetto ai 26 mesi di attesa necessari per Marte. Gli scettici, tuttavia, stanno già facendo notare i calcoli impressionanti. I critici sostengono che per lanciare oltre un milione di tonnellate di materiale necessario a raggiungere un petawatt di potenza sarebbero necessari circa 135 lanci di Starship al giorno. «Spingeremo al limite le leggi della fisica nel campo dell’informatica e faremo cose folli e incredibili», ha detto Musk. «Voglio vivere abbastanza a lungo da vedere il lanciatore di massa sulla Luna», ha aggiunto. L’altra ambiziosa visione di Musk è quella di realizzare una fabbrica lunare che utilizzi la robotica per produrre satelliti dotati di IA e alimentati a energia solare, che verrebbero poi lanciati in una rete orbitale distribuita tramite la porpulsione elettromagnetica del mass driver. Sono in fase di valutazione due progetti principali: i cannoni a rotaia, che utilizzano un singolo e potente impulso di forza, e i cannoni a bobina, che impiegano una sequenza di magneti temporizzati per fornire un’accelerazione costante e controllata. Quest’ultimo sembra essere la scelta preferibile per la protezione di carichi sensibili di Intelligenza Artificiale. La storia dei mass driver (o catapulte elettromagnetiche) affonda le radici nella fantascienza e nella fisica applicata. Il primo concetto ingegneristico appare nel 1937 nel romanzo Zero to Eighty del fisico princetoniano Edwin Fitch Northrup (pubblicato con il nom de plume Akkad Pseudoman), che descrisse e costruì prototipi di «electric guns» basati su bobine. L’idea moderna nasce nel 1974 grazie ad un ulteriore fisico princetoniano, il teorico delle colonie spaziali orbitanti Gerard K. O’Neill, che propose appunto i mass driver per lanciare materiali dalla Luna verso i punti di Lagrange (soprattutto L5), dove costruire grandi habitat spaziali – i cosiddetti «cilindri di O’Neill» visibili nella pellicola 2001 Odissea nello Spazio o nelle serie di anime Gundam – senza dover usare costosi razzi chimici. L’obiettivo era sfruttare le risorse lunari per costruire industrie e colonie nello spazio, riducendo drasticamente i costi di lancio.Mass drivers on the moon will be installed by Optimus. pic.twitter.com/PgtzhmeuFh
— Gary Mark⚡️Blue Sky Kites 𝕏 🈴 (@blueskykites) March 24, 2026
Aiuta Renovatio 21
Intelligenza Artificiale
Un tribunale statunitense si pronuncia contro il Pentagono nella controversia sull’Intelligenza Artificiale letale
Un giudice federale statunitense ha bloccato un ordine del Pentagono che designava Anthropic come una minaccia per la sicurezza nazionale, affermando che i funzionari statunitensi hanno probabilmente violato la legge e si sono vendicati contro l’azienda di intelligenza artificiale per i suoi commenti pubblici su come la sua tecnologia dovrebbe essere utilizzata.
Anthropic, azienda leader nello sviluppo di modelli linguistici complessi, è coinvolta in una controversia con il Dipartimento della Guerra statunitense in merito all’utilizzo militare del suo sistema Claude, con i funzionari della difesa che premono per consentire l’impiego della tecnologia per «tutti gli usi leciti».
L’azienda si era opoosta, esprimendo preoccupazione per la possibilità che il sistema potesse essere utilizzato per la sorveglianza di massa sul territorio nazionale o per la creazione di armi completamente autonome. Il Pentagono interruppe i negoziati, impose la designazione e ordinò agli appaltatori di interrompere l’utilizzo di Claude.
Giovedì, la giudice distrettuale statunitense Rita Lin ha inoltre bloccato un ordine di rescissione di tutti i contratti governativi con Anthropic, definendolo una «classica» ritorsione ai sensi del Primo Emendamento.
«Nulla nella legge in materia avvalora l’idea orwelliana che un’azienda americana possa essere etichettata come potenziale avversario… per aver espresso disaccordo con il governo», ha scritto Lin, sottolineando che tale qualifica è in genere riservata a «agenzie di Intelligence straniere, terroristi e altri soggetti ostili».
Iscriviti al canale Telegram ![]()
Lunedì Anthropic ha intentato causa contro l’amministrazione del presidente statunitense Donald Trump, definendo la mossa «senza precedenti e illegale» e sostenendo che si tratti di una ritorsione per le sue critiche alla politica governativa.
«La Costituzione non consente al governo di esercitare il suo enorme potere per punire un’azienda per aver espresso un’opinione tutelata dalla legge», ha dichiarato l’azienda nella sua denuncia.
Il mese scorso Trump ha ordinato a tutte le agenzie federali statunitensi, incluso il Pentagono, di interrompere l’utilizzo della tecnologia di Anthropic, concedendo all’esercito un periodo di sei mesi per la dismissione graduale dei sistemi già in uso.
Il segretario alla Guerra Pete Hegseth ha accusato l’azienda di «arroganza e tradimento», affermando che il Pentagono si sarebbe orientato verso un’alternativa «più patriottica». Il dipartimento ha quindi raggiunto un accordo con OpenAI, il cui CEO, Sam Atman, ha dichiarato che l’accordo include garanzie contro la sorveglianza di massa sul territorio nazionale e richiede la supervisione umana nell’uso della forza.
Anthropic ha avvertito che tali azioni hanno destato preoccupazione tra i clienti, compresi quelli senza legami con il governo federale, e potrebbero costare all’azienda miliardi di dollari in mancati ricavi futuri. Alcune agenzie, tra cui il Dipartimento della Salute e dei Servizi Umani e la General Services Administration, avrebbero già ritirato i suoi prodotti.
Anthropic è stato il primo sviluppatore commerciale di AI a implementare modelli linguistici di grandi dimensioni su reti classificate del Pentagono, nell’ambito di un contratto del valore di 200 milioni di dollari. Il suo chatbot Claude è stato utilizzato per analisi di intelligence, simulazioni operative, operazioni informatiche e flussi di lavoro di pianificazione.
Lo scontro emerso segue alle accuse secondo cui il modello di Intelligenza Artificiale dell’azienda sarebbe stato utilizzato durante l’operazione per rapire il presidente venezuelano Nicolas Maduro all’inizio di gennaio.
Come riportato da Renovatio 21, negli ultimi mesi vi è stato un progressivo deterioramento dei rapporti tra Anthropic e il Pentagono, legato alla volontà del dipartimento della Guerra statunitense di utilizzare l’IA per il controllo di armi autonome senza le garanzie di sicurezza che l’azienda ha cercato di imporre.
Il CEO di Anthropic, Dario Amodei, ha più volte espresso gravi preoccupazioni sui rischi della tecnologia che la sua azienda sta sviluppando e commercializzando. In un lungo saggio di quasi 20.000 parole pubblicato il mese scorso, ha avvertito che sistemi AI dotati di «potenza quasi inimmaginabile» sono «imminenti» e metteranno alla prova «la nostra identità come specie».
Amodei ha messo in guardia dai «rischi di autonomia», in cui l’IA potrebbe sfuggire al controllo e sopraffare l’umanità, e ha ipotizzato che la tecnologia potrebbe facilitare l’instaurazione di «una dittatura totalitaria globale» attraverso sorveglianza di massa basata sull’Intelligenza Artificiale e l’impiego di armi autonome.
Come riportato da Renovatio 21, l’anno passato l’Amodei ha dichiarato che l’AI potrebbe eliminare la metà di tutti i posti di lavoro impiegatizi di livello base entro i prossimi cinque anni.
Lo scorso mese Mrinank Sharma, fino a poco tempo fa responsabile del Safeguards Research Team presso l’azienda sviluppatrice del chatbot Claude, ha pubblicato su X la sua lettera di dimissioni, in cui scrive che «il mondo è in pericolo. E non solo per via dell’Intelligenza Artificiale o delle armi biologiche, ma a causa di un insieme di crisi interconnesse che si stanno verificando proprio ora».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
OpenAI chiude l’app video Sora
We’re saying goodbye to the Sora app. To everyone who created with Sora, shared it, and built community around it: thank you. What you made with Sora mattered, and we know this news is disappointing.
We’ll share more soon, including timelines for the app and API and details on… — Sora (@soraofficialapp) March 24, 2026
Iscriviti al canale Telegram ![]()
Nel frattempo, la chiusura di Sora precede anche una potenziale IPO di OpenAI, che secondo alcune indiscrezioni potrebbe concretizzarsi entro la fine dell’anno. Gli analisti interpretano la mossa come una strategia di riduzione dei costi, dato che la generazione di video tramite intelligenza artificiale richiede una potenza di calcolo elevata, per la quale OpenAI ha faticato a trovare un modello di business sostenibile. Alcune fonti suggeriscono che le priorità interne si stiano spostando verso aree commercialmente più redditizie, come i «collaboratori» basati sull’IA e la robotica. OpenAI ha dichiarato che a breve fornirà dettagli sulla tempistica di chiusura e su come gli utenti potranno salvare i propri video. SOSTIENI RENOVATIO 21 Immagine screenshot da YouTubeRIP Sora, you gave us the greatest ai video of all time https://t.co/Hd4vbqyw95 pic.twitter.com/37z1IdgBjZ
— spor (@sporadica) March 24, 2026
-



Spirito2 settimane faFoto del 1995 mostra Leone XIV mentre partecipa al rituale idolatrico della Pachamama
-



Sanità2 settimane faUna «separazione delle carriere» per chi giudica i medici. Intervista al dottor Giacomini del sindacato DI.CO.SI.
-



Vaccini1 settimana faStudio su oltre un milione di bambini rileva la miocardite solo nei bambini vaccinati
-



Pensiero1 settimana faMao e il «blocco storico» che ha vinto il referendum
-



Pensiero2 settimane faPerché votiamo Sì al referendum
-



Vaccini7 giorni faProposte di legge USA per definire i vaccini a mRNA contro il COVID «armi di distruzione di massa»
-



Necrocultura2 settimane faVolontà politica e Stato moderno: Renovatio 21 saluta Bossi il disintegratore
-



Occulto2 settimane faEmergono ulteriori foto del futuro papa Leone al rito idolatrico della Pachamama













