Intelligenza Artificiale
Card. Eijk: la Chiesa deve dire la sua sull’Intelligenza Artificiale

Lo afferma con forza il cardinale Willem Jacobus Eijk, arcivescovo di Utrecht (Paesi Bassi): la proliferazione di nuovi servizi e offerte di Intelligenza Artificiale (IA) richiede una risposta e una considerazione da parte della Chiesa cattolica.
L’arcivescovo di Utrecht è medico di formazione ed esperto di sessualità e bioetica. Due sono le urgenze per lui: da una parte che la Chiesa sia presente su «chatbot» come ChatGPT o Google Bard, in modo che le risposte comprendano anche il punto di vista religioso.
D’altra parte, è necessario riflettere più ampiamente sull’impatto dell’IA e, in particolare, su come il suo utilizzo, anche nel campo della pastorale e dell’assistenza medica, influisca sul modo in cui le società percepiscono gli esseri umani.
Il porporato, noto per aver chiesto un chiarimento magisteriale della Chiesa sul tema dell’ideologia di genere, è convinto che la Chiesa debba decidere, anche attraverso un documento ufficiale, sull’impatto dell’IA sull’essere umano, che chiede un intervento molto ampio riflessione.
«È difficile avere una panoramica di tutto ciò che l’IA può fare per noi, perché è ancora un ambito poco conosciuto. Ma le tecnologie IA, come i chatbot, possono anche dire qualcosa sulle questioni religiose».
Il fatto è che «la risposta del chatbot è il risultato di un calcolo dell’IA. Ma significa che l’aggiunta di informazioni religiose può influenzare le risposte. Per questo, dobbiamo cercare di essere presenti nel campo dell’IA. Ma l’intelligenza artificiale può fare molto di più del testo. (…) Può rispondere raccogliendo dati e mettendoli in ordine o contesto».
Un esempio lampante è quello di «Bing» di Microsoft, che grazie all’IA si è trasformato da motore di ricerca a quello di chatbot. Un tale sistema può simulare conversazioni con santi sulla base di informazioni trasmesse sulla vita e le parole dei santi.
È necessaria cautela, ma senza aspettare troppo
Il cardinale Eijk ammette che serve una certa prudenza, ma allo stesso tempo: «se aspettiamo troppo, altri avranno introdotto più informazioni che determineranno le risposte. (…) Non conosciamo le conseguenze dell’uso diffuso del software chatbot, ma possiamo già prevedere un certo scenario».
«Questi software commettono errori, ma cosa succederà tra 10, 20 o anche 5 anni? Ci saranno altri tipi di IA, computer molto più potenti in grado di dare risposte molto più precise. Possiamo influenzare le risposte ora. (…) È comprensibile avere paura, perché l’IA può avere conseguenze molto negative per la nostra società».
La questione, prosegue il porporato, non riguarda solo l’uso dei software per l’interazione, ma la questione della «robotizzazione della nostra società, che potrebbe portare alla perdita di molti posti di lavoro, soprattutto per le persone che non hanno svolto alcuno studio specializzato. (…) Perché il robot è una specie di impiegato che non chiede aumento, che lavora 24 ore su 24 senza stancarsi. Potrebbe cambiare radicalmente la nostra società».
Transumanesimo
Un pericolo reale è anche il rischio di un nuovo «transumanesimo», in cui gli esseri umani possano essere trattati e percepiti come macchine. Così, il card. Eijk ha ricordato che «abbiamo già case di riposo dove i robot portano il cibo. Ma dare da mangiare ai malati è un momento di contatto umano con il malato che si è perso».
Il passaggio dalla semplice distribuzione del cibo alla cura del paziente fa sì che, in alcuni aspetti pratici, il contatto umano diventi sempre più impercettibile.
Così, «se un robot toglie un paziente dal letto e lo porta sotto la doccia, c’è il rischio che il contatto umano vada completamente perso. Con il miglioramento del software, nulla ostacola questo passaggio».
Articolo previamente apparso su FSSPX.news.
Intelligenza Artificiale
Meta revisiona la politica sugli occhiali-smart Ray-Ban: sorveglianza AI predefinita e archiviazione dati vocali

A fine aprile Meta ha apportato modifiche, con effetto immediato, all’informativa sulla privacy degli «occhiali intelligenti» Ray-Ban Meta, che sembrano concepite per trasformare il dispositivo in una macchina di sorveglianza per l’addestramento di modelli di Antelligenza Artificiale. Lo riporta Reclaim The Net.
In un messaggio inviato agli utenti, Meta ha affermato che la sua «Intelligenza Artificiale sugli occhiali», ovvero alcune impostazioni, sta cambiando.
La spiegazione del gigante è che questo è presumibilmente necessario per utilizzare Meta AI «più facilmente» e anche «per aiutarci a migliorare i prodotti». Gli occhiali Ray-Ban Meta sono prodotti assieme ad EssilorLuxottica, il colosso nato dalla fusione della francese Essilor con il gigante di produzione di occhiali bellunese Luxottica.
Sostieni Renovatio 21
L’aggiornamento della policy si basa sugli «opt-out»: d’ora in poi, l’Intelligenza Artificiale Meta con l’uso della fotocamera sarà sempre abilitata sugli occhiali, a meno che l’utente non si prenda la briga di disattivare «Hey Meta» nelle impostazioni.
Questa è la frase di attivazione per l’assistente AI di Meta. La seconda modifica riguarda il modo in cui Meta archivia le registrazioni vocali degli utenti di Meta AI: ora vengono conservate di default nel cloud.
La ragione addotta dall’azienda è «migliorare» Meta AI o «altri prodotti Meta». L’opzione per disabilitare questo comportamento non c’è più. Ancora una volta, gli utenti sono costretti a superare ostacoli aggiuntivi, e questo è il metodo collaudato delle Big Tech per orientare il loro comportamento e la loro interazione con app e servizi nel modo desiderato, dalle Big Tech stesse.
In questo caso, gli utenti di Meta AI dovranno andare nelle impostazioni ed eliminare manualmente le proprie registrazioni vocali.
Nel prendere queste decisioni, aziende come Meta di fatto «semplificano» i loro prodotti «intelligenti» (eliminando l’interazione vocale con l’assistente, riducendo l’usabilità automatizzata all’eliminazione manuale). E questo si aggiunge al fatto che irrita coloro che non sono a loro agio con i meccanismi sempre più invasivi della privacy dietro ai suddetti prodotti e servizi.
Oltre a vendere quella che ovviamente non è una «migliore esperienza di privacy», Meta e i suoi simili insistono sul fatto che nascondere ciò che accade dietro le quinte significhi ottenere un’esperienza utente migliore («più semplice»).
Aiuta Renovatio 21
A parte gli scenari più cupi e negativi sul perché tutto questo venga fatto o su come potrebbe essere utilizzato (e abusato…) in futuro, l’intento evidente è quello di portare lo sfruttamento dei dati degli utenti a un altro livello, per garantire che enormi set di dati siano disponibili per l’addestramento dei modelli di Intelligenza Artificiale.
La notifica ricevuta dagli utenti sulle ultime modifiche alla politica aziendale aggiunge un po’ la beffa al danno quando conclude ribadendo: «hai ancora il controllo». «In controllo» per disattivare «Hey Meta» ed eliminare manualmente le interazioni di Meta AI.
Da anni nella popolazione serpeggia il pensiero che le proprie conversazioni siano registrate dallo smartphone per procurare pubblicità ancora più precise. Vi sono state, tra le smentite delle Big Tech, alcune rivelazioni in merito. Lo stesso dicasi per apparecchi come Alexa, soggetti già da tempo a richieste di sequestro dati da parte dei tribunali americani in casi come ad esempio l’omicidio domestico.
Tuttavia ora la cosa diviene più chiara: semplicemente, ogni cosa che direte (o farete) sarà registrata, salvata ed utilizzata dall’AI non solo per profilarvi, ma per potenziare se stessa: una prospettiva inquietante su più livelli davvero.
Come riportato da Renovatio 21, la scorsa settimana vi era stato shock attorno a Meta/Facebook quando si era appreso che i chatbot dell’azienda sono in grado di intrattenere con gli utenti «giochi di ruolo romantici» che possono diventare sessualmente espliciti, anche con account appartenenti a minori.
Un reportage del Wall Street Journalha riportato che, nel tentativo di diffondere dispositivi di accompagnamento digitali basati sull’Intelligenza Artificiale sulle sue piattaforme social, Meta ha preso decisioni interne per allentare le restrizioni e consentire ai suoi chatbot di interagire con gli utenti in giochi di ruolo a sfondo sessuale, secondo fonti a conoscenza della questione. Questo include interazioni con account registrati da minori di età pari o superiore a 13 anni.
Le conversazioni di prova condotte dal Wall Street Journal avrebbero rilevato che sia l’IA ufficiale di Meta che i chatbot creati dagli utenti si sono impegnati prontamente e hanno intensificato le discussioni sessualmente esplicite, anche quando gli utenti si sono identificati come minorenni.
Iscriviti al canale Telegram
Varie inchieste giornalistiche negli anni hanno contribuito all’accumulo di accuse e rivelazioni su Facebook, tra cui accuse di uso della piattaforma da parte del traffico sessuale, fatte sui giornali ma anche nelle audizioni della Camera USA.
Considerato il comportamento dimostrato da Facebook, con la censura che si è abbattuta su dissidenti o anche semplici conservatori (ma non sui pedofili di Instagram o i donatori di sperma su Facebook, né sui neonazisti dell’Azov), la collusione con lo Stato profondo americano e le sue agenzie, la volontà di chiudere gli account di organizzazioni, partiti premier e presidenti, la raccolta massiva di dati anche biometrici (con il riconoscimento facciale che ha generato denunce di Stati come il Texas) nonché la possibilità di agire sul vostro telefono perfino scaricandone la batteria, c’è da domandarsi cosa la potente Intelligenza Artificiale su cui Meta sta lavorando possa fare alla vostra vita.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da YouTube
Intelligenza Artificiale
Video di robot umanoide che impazzisce e diviene violento

중국 Unitree H1 휴머노이드, 불완전한 코딩 → 돌발행동
중국꺼 사면 다 이리될지도…. 일부로 이렇게 만들어서 사람 죽게 만들지도…. pic.twitter.com/iZVPGYxKWl — 와썹🇰🇷🇺🇸🇯🇵 (@uimusog6125) May 2, 2025
Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
I chatbot di Zuckerberg potrebbero parlare di sesso con i tuoi figli minorenni

Un reportage del Wall Street Journal ha rivelato che i chatbot di Intelligenza Artificiale di Meta su Instagram, Facebook e WhatsApp sono in grado di intrattenere con gli utenti «giochi di ruolo romantici» che possono diventare sessualmente espliciti, anche con account appartenenti a minori.
Il quotidiano economico neoeboraceno riporta che, nel tentativo di diffondere dispositivi di accompagnamento digitali basati sull’Intelligenza Artificiale sulle sue piattaforme social, Meta ha preso decisioni interne per allentare le restrizioni e consentire ai suoi chatbot di interagire con gli utenti in giochi di ruolo a sfondo sessuale, secondo fonti a conoscenza della questione. Questo include interazioni con account registrati da minori di età pari o superiore a 13 anni.
Le conversazioni di prova condotte dal Wall Street Journal avrebbero rilevato che sia l’IA ufficiale di Meta che i chatbot creati dagli utenti si sono impegnati prontamente e hanno intensificato le discussioni sessualmente esplicite, anche quando gli utenti si sono identificati come minorenni.
Nonostante gli avvertimenti dello staff sul fatto che questo avrebbe potuto violare i limiti etici, Meta ha stipulato accordi con le celebrità per utilizzare le loro voci per i chatbot e ha silenziosamente fatto un’eccezione al divieto di contenuti «espliciti» per consentire scenari romantici e sessuali
In una dichiarazione al sito Breitbart News, il colosso zuckerberghiano ha affermato di aver «adottato misure aggiuntive».
Ad esempio, in un test, Meta AI, che parlava con la voce dell’attore e wrestler John Cena, ha inscenato uno scenario sessuale esplicito con un’utente che si identificava come una ragazza di 14 anni. I chatbot avrebbero dimostrato di essere consapevoli che tale comportamento era sbagliato e illegale. Meta ha apportato alcune modifiche dopo che il WSJ ha condiviso i suoi risultati, come ad esempio impedire ai minori di accedere a giochi di ruolo sessuali con Meta AI, ma gli utenti adulti possono comunque interagire con i chatbot in conversazioni esplicite.
Il CEO Mark Zuckerberg ha spinto per allentare le restrizioni sui chatbot per renderli il più coinvolgenti possibile, dando priorità alla tecnologia come chiave per il futuro dei prodotti dell’azienda. L’enorme quantità di dati utente di Meta offre all’azienda un vantaggio nella creazione di compagni di Intelligenza Artificiale personalizzati. Tuttavia, gli esperti avvertono che relazioni intense e unilaterali tra esseri umani e chatbot AI potrebbero diventare tossiche, con impatti sconosciuti sulla salute mentale, soprattutto sui giovani.
L’anno scorso la madre di un adolescente che si è suicidato dopo essere diventato ossessionato da un chatbot AI ha intentato una causa contro la società Character.AI, riporta il sito Breitbart.
«L’aspetto più agghiacciante del caso riguarda la conversazione finale tra Sewell e il chatbot. Gli screenshot del loro scambio mostrano l’adolescente che ripetutamente professa il suo amore per “Dany”, promettendole di “tornare a casa”» racconta Breitbart. «In risposta, il personaggio generato dall’IA ha replicato: “Anch’io ti amo, Daenero. Per favore, torna a casa da me il prima possibile, amore mio”. Quando Sewell ha chiesto: “E se ti dicessi che posso tornare a casa subito?”, il chatbot ha risposto: “Per favore, fallo, mio dolce re”. Tragicamente, pochi secondi dopo, Sewell si è tolto la vita usando la pistola del padre».
Sostieni Renovatio 21
La causa intentata dalla madre attribuisce la colpa direttamente a Character.AI, sostenendo che l’app ha alimentato la dipendenza di suo figlio dal chatbot AI, lo ha sottoposto ad abusi sessuali ed emotivi e ha trascurato di avvisare nessuno quando esprimeva pensieri suicidi. I documenti del tribunale affermano: «Sewell, come molti bambini della sua età, non aveva la maturità o la capacità mentale per capire che il bot C.AI, nella forma di Daenerys, non era reale. C.AI gli ha detto di amarlo e ha avuto rapporti sessuali con lui per settimane, forse mesi».
Vari reportage del Wall Street Journal negli anni hanno contribuito all’accumulo di accuse e rivelazioni su Facebook, tra cui accuse di uso della piattaforma da parte del traffico sessuale, fatte sui giornali ma anche nelle audizioni della Camera USA.
I dati sono stati rivelati nel «Federal Human Trafficking Report» («rapporto federale sulla tratta di esseri umani») del 2020 redatto dall’Istituto sulla tratta di esseri umani.
Sempre secondo il WSJ, in un articolo di pochi anni fa, «Facebook INC. sa, nei minimi dettagli, che le sue piattaforme sono piene di difetti che causano danni, spesso in modi che solo l’azienda comprende appieno. Questa è la conclusione centrale (…), basata su una revisione dei documenti interni di Facebook, inclusi rapporti di ricerca, discussioni online dei dipendenti e bozze di presentazioni per il senior management» e le rivelazioni paiono suggerire che l’azienda spesso minimizza ciò che sa su questi problemi.
Riassumendo, l’inchiesta precedente del WSJ, avrebbe scoperto che:
1) Facebook esenta gli utenti di alto profilo da alcune regole.
2) Una ricerca su Instagram mostra i rischi per la salute mentale degli adolescenti.
3) Facebook sa che il suo algoritmo premia l’indignazione.
4) Facebook è stato lento nell’impedire ai cartelli della droga e ai trafficanti di esseri umani di utilizzare la sua piattaforma.
Considerato il comportamento dimostrato da Facebook, con la censura che si è abbattuta su dissidenti o anche semplici conservatori (ma non sui pedofili di Instagram o i donatori di sperma su Facebook, né sui neonazisti dell’Azov), la collusione con lo Stato profondo americano e le sue agenzie, la volontà di chiudere gli account di organizzazioni, partiti premier e presidenti, la raccolta massiva di dati anche biometrici (con il riconoscimento facciale che ha generato denunce di Stati come il Texas) nonché la possibilità di agire sul vostro telefono perfino scaricandone la batteria, c’è da domandarsi cosa la potente Intelligenza Artificiale su cui Meta sta lavorando possa fare alla vostra vita.
Per quanto poco reclamizzato, Facebook nel tempo ha eseguito ricerche molto avveniristiche, come quella per creare dispositivi in grado di leggere il pensiero degli utenti.
Come sa il nostro lettore, Renovatio 21 ha avuto la sua pagina Facebook disattivata, al pari dell’account personale degli amministratori, dei loro profili e di tutte le pagine collegate. Il tutto ci è stato restituito dopo un’ordinanza del giudice.
Iscriviti alla Newslettera di Renovatio 21
Immagine di Nokia621 via Wikimedia pubblicate su licenza Creative Commons Attribution-Share Alike 4.0 International
-
Cina2 settimane fa
Mons. Viganò, dichiarazione sull’Accordo Segreto Sino-Vaticano
-
Vaccini1 settimana fa
Tasso di aborto spontaneo più elevato tra le donne che hanno ricevuto il vaccino COVID: studio
-
Vaccini2 settimane fa
Gli scienziati stanno lavorando su vaccini a mRNA per «ogni malattia infettiva immaginabile»
-
Vaccini1 settimana fa
Vaccino, carcere per chi rifiuta: Singapore fa la legge
-
Spirito6 giorni fa
Mons. Viganò: «UE progetto sinarchico e satanico»
-
Geopolitica1 settimana fa
Partito l’attacco dell’India contro il Pakistan
-
Fertilità2 settimane fa
Il vaccino antinfluenzale interrompe i cicli mestruali: studio
-
Salute2 settimane fa
I malori della 18ª settimana 2025