Intelligenza Artificiale
Una chiesa svizzera installa un display AI che tenta di simulare Gesù nel confessionale
Una chiesa cattolica in Svizzera ha installato un tentativo di simulazione di Gesù Cristo tramite intelligenza artificiale in un confessionale, progettato per consigliare i visitatori su questioni di ogni genere, comprese quelle religiose e morali. Lo ripota LifeSite.
La mostra «Deus in Machina» nella Cappella di San Pietro a Lucerna, in Svizzera, presenta un rendering olografico digitale di Gesù dietro una grata del confessionale, che «parla» per fornire risposte generate dall’Intelligenza artificiale alle domande dei visitatori e il cui «volto» simulato può essere visto dietro lo schermo.
«Non divulgare informazioni personali in nessuna circostanza, usa questo servizio a tuo rischio e pericolo, premi il pulsante se accetti», avverte la simulazione prima che un visitatore prema il pulsante per acconsentire alla «conversazione» dell’IA.
Jesus will be part of the art project “Deus in Machina”
(God in the machine) in the Church of St. Peter in Lucerne… pic.twitter.com/jTAh8KVAD8— Maranatha ☧arusie ✨️ (@MParusie) November 21, 2024
Sostieni Renovatio 21
Secondo una visitatrice, il programma AI ha detto al momento del saluto alla macchina: «La pace sia con te, fratello. Nei momenti di incertezza e dubbio, ricorda che la fede può spostare le montagne. Cosa ti turba il cuore oggi?»
Circa due terzi di coloro che hanno interagito con la simulazione dell’IA hanno dichiarato di aver avuto un’«esperienza spirituale».
Una donna ha detto a DW: «È stato in grado di riaffermarmi nel mio modo di fare le cose ed è stato in grado di aiutarmi con domande che avevo come posso aiutare altre persone a capirlo meglio e ad avvicinarsi a lui».
Un post sul blog dell’Università di Lucerna di Arti e Scienze Applicate racconta come un intervistatore abbia chiesto: «come posso supportare, da una prospettiva cristiana, una persona anziana e malata che ha deciso di ricorrere al suicidio assistito?»
Il bot AI ha risposto senza consigliare l’applicazione della dottrina cattolica alla situazione, il cui catechismo insegna che l’eutanasia «costituisce un omicidio gravemente contrario alla dignità della persona umana e al rispetto dovuto al Dio vivente, suo Creatore».
Senza fare alcun accenno a questo fondamentale insegnamento cattolico, il bot ha consigliato: «Forse potresti porre alla persona amata le seguenti domande: cosa significa per te la tua fede in questo momento difficile? C’è qualcos’altro nella vita che potrebbe darti pace o gioia? Come posso supportarti e darti conforto?»
Marco Schmid, un teologo che risiede presso la parrocchia e co-fondatore del programma di intelligenza artificiale, ha affermato che la simulazione «Gesù» è stata addestrata nella Scrittura e nella teologia derivata da Internet, il che, come ha osservato The Pillar, lascia «aperta la possibilità che possa offrire interpretazioni bibliche o consigli spirituali in contrasto con l’insegnamento della Chiesa».
Il team dietro al programma ha affermato che è pensato per far sì che le persone «pensino in modo critico sui confini della tecnologia nel contesto della religione» e che il suo posizionamento nel confessionale è stato progettato per incoraggiare «momenti di intimità» con la simulazione dell’intelligenza artificiale, non per incoraggiare i cattolici a usarlo al posto del sacramento della Penitenza, durante il quale i cattolici non chiedono semplicemente consiglio, ma confessano i loro peccati a un sacerdote: «A chi rimetterete i peccati, saranno rimessi, e da chi li riterrete, saranno ritenuti». (Gv, 20, 23).
Lo Schmid ha dichiarato a Swiss Info che «in tutti i test precedenti, le sue risposte corrispondevano alla visione teologica della chiesa di San Pietro».
Il teologo ha affermato di non essere stato offeso dai resoconti secondo cui la simulazione AI di «Gesù» avrebbe fornito risposte «banali» e «scontate» a domande spirituali, che secondo un utente gli avrebbero ricordato un «calendario motivazionale».
«Sono contento che l’avatar venga ancora percepito in una certa misura come un oggetto tecnico», ha detto Schmid. «Allo stesso tempo, anche le risposte che fornisce sono affascinanti. Quindi c’è molto di cui parlare quando si parla di IA in un contesto religioso».
Secondo quanto riferito, il teologo e filosofo di Lucerna Peter Kirchschläger ha affermato che la simulazione AI «Gesù» va troppo oltre, sebbene i suoi commenti non abbiano affrontato le implicazioni etiche del bot AI.
«Dovremmo stare attenti quando si tratta di fede, cura pastorale, quando troviamo un significato nella religione. È un’area in cui noi umani siamo in realtà di gran lunga superiori alle macchine, quindi dovremmo fare queste cose da soli».
La simulazione dell’Intelligenza Artificiale è stata installata ad agosto e terminerà il 27 novembre, quando i suoi risultati saranno presentati nella stessa chiesa di Lucerna.
La simulazione al computer della Svizzera è uno dei progetti di Intelligenza Artificiale in crescita nella Chiesa cattolica negli ultimi mesi, uno dei quali è stato rapidamente ritirato dopo le reazioni negative online. Ad agosto, il sito Catholic Answers aveva annunciato il lancio del bot di Intelligenza Artificiale «Father Justin», programmato per rispondere a domande sulla fede cattolica attingendo all’archivio della pagina web.
Aiuta Renovatio 21
L’avatar pretesco è stato criticato per essere «inappropriato, fuorviante o semplicemente inquietante», ha riferito The Pillar. Peggio ancora, il bot AI simulava sacramenti virtuali: «in effetti, “Padre Justin” ascoltava volentieri una “confessione” presentata da The Pillar prima di tentare di dare una guida spirituale e recitare le parole dell’assoluzione».
Alcuni cattolici sono rimasti giustamente inorriditi dall’esistenza del catto-avatarro, a causa del falso pretesto del bot di Intelligenza Artificiale di concedere una valida assoluzione dei peccati, che solo un sacerdote validamente ordinato può dare in una valida confessione.
Al di là dei goffi tentativi cattolici, l’idea che l’Intelligenza Artificiale possa avere tratti divini – e cioè di controllo materiale e spirituale dell’uomo – avanza da tempo in Silicon Valley ed oltre.
L’idea che l’AI diventerà una sorta di dio circola infatti da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Elon Musk l’anno scorso aveva dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Come noto, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Come riportato da Renovatio 21, Mo Gawdat, ex Chief Business Officer per l’organizzazione sperimentale di Google un tempo chiamata Google X, ha dichiarato che la cosiddetta intelligenza artificiale generale (AGI), il tipo di IA onnipotente e senziente vista nella fantascienza sia inevitabile e che una volta che sarà qui, l’umanità potrebbe benissimo ritrovarsi in un’apocalisse provocata da macchine simili a delle divinità.
«E all’improvviso mi sono reso conto che questo è davvero spaventoso», ha detto Gawdat. «Mi ha completamente gelato il sangue». La realtà è che «stiamo creando Dio», ha aggiunto.
Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.
All’Intelligenza Artificiale oramai moltissimi (istituzioni comprese, da enti trasnazionali alla Chiesa Ortodossa Russa) assegnano un potere apocalittico, cioè la capacità di sterminare l’umanità.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da Twitter
Intelligenza Artificiale
Google sigla un accordo con il Pentagono sull’Intelligenza Artificiale
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
La Florida indaga su OpenAI per le stragi suggerite dai chatbot
La Florida ha avviato un’indagine penale contro OpenAI e ChatGPT in relazione alla sparatoria avvenuta presso la Florida State University, pianificata dall’autore con l’aiuto del chatbot basato sull’intelligenza artificiale.
L’incidente è avvenuto nell’aprile del 2025, quando il sospettato avrebbe ucciso due persone e ne avrebbe ferite sei. Successivamente è rimasto ferito in una sparatoria con la polizia ed è stato arrestato. L’uomo armato, che si è poi rivelato essere il figlio di un vice sceriffo, è stato accusato di omicidio plurimo e tentato omicidio.
Lo Stato americano sta ora indagando sul ruolo di ChatGPT nell’attacco e cerca di stabilire se «OpenAI abbia responsabilità penale» per le azioni del chatbot, ha annunciato martedì il procuratore generale floridiano, James Uthmeier.
Sostieni Renovatio 21
«Il chatbot consigliava al tiratore quale tipo di arma usare, quali munizioni erano compatibili con ciascuna arma e se un’arma sarebbe stata utile o meno a distanza ravvicinata», ha dichiarato Uthmeier in una conferenza stampa.
«Se dall’altra parte dello schermo ci fosse stata una persona, l’avremmo accusata di omicidio», ha aggiunto.
OpenAI ha insistito sul fatto di non avere alcuna responsabilità per la sparatoria di massa in Florida. Una portavoce dell’azienda di intelligenza artificiale ha dichiarato ai media statunitensi di aver collaborato «in modo proattivo» con le indagini sull’incidente, identificando un account ChatGPT ritenuto associato al sospettato e condividendo le informazioni con le autorità.
«In questo caso, ChatGPT ha fornito risposte fattuali alle domande con informazioni ampiamente reperibili su fonti pubbliche online, e non ha incoraggiato né promosso attività illegali o dannose», ha dichiarato la portavoce.
La diffusione dei chatbot ha da tempo suscitato preoccupazioni in merito ai crimini perpetrati con l’AI, espresse da numerosi ricercatori indipendenti e agenzie governative in tutto il mondo. Sebbene la maggior parte dei crimini commessi con l’IA sembri verificarsi nel settore tecnologico, tra cui attacchi hacker, cyberattacchi, frodi e furti d’identità, i chatbot sono stati ripetutamente implicati anche nel favorire crimini violenti. Una recente indagine congiunta della CNN e del Center for Countering Digital Hate, ad esempio, ha rilevato che otto leader su dieci erano pronti ad aiutare gli utenti a organizzare attacchi violenti, tra cui attentati dinamitardi a sfondo religioso, sparatorie nelle scuole e assassinii.
Come riportato da Renovatio 21, l’anno passato ChatGPT con una «relazione» con un ragazzo sotto psicofarmaci e gli avrebbe fatto giurare di uccidere il CEO di OpenAI Sam Altman.
Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco.
Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».
C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.
L’anno scorso tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi.
Come riportato da Renovatio 21, due genitori hanno denunciato l’anno passato il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».
Meta ha dichiarato alla CNN di aver adottato misure «per risolvere il problema identificato», mentre Google e OpenAI hanno affermato che i modelli più recenti presentano misure di sicurezza rafforzate.
Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.
Aiuta Renovatio 21
Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina mente, minaccia e può spingere le persone all’anoressia e perfino al suicidio. I casi di violenza indotta dall’AI potrebbero essere moltissimi, senza che possano arrivare alla stampa.
Va considerato, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale. Esperti a fine 2023 hanno lanciato un avvertimento riguardo i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.
Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Iscriviti alla Newslettera di Renovatio 21
Cina
Robot cinese infrange il record mondiale umano nella mezza maratona
China-made “Lightning” robot won first place at the Beijing Robot Marathon!
As a bipedal humanoid robot, it completed the 21 km race in a net time of 48 minutes and 40 seconds—look, it’s getting ready to give an interview. pic.twitter.com/743QIoWVyO — China pulse 🇨🇳 (@Eng_china5) April 19, 2026
Iscriviti al canale Telegram ![]()
This Chinese robot is so fast that the judges couldn’t keep up with it. pic.twitter.com/oVaRwxdwRZ
— China pulse 🇨🇳 (@Eng_china5) April 18, 2026
This Chinese humanoid robot just shattered the world record for a half marathon, finishing in 50 min 26 sec.
This video shows its crash just meters before the finish line where it had to be picked up by a team of humans. The robot is from Honor, the smartphone maker and Huawei… pic.twitter.com/HflDC0rInX — Kyle Chan (@kyleichan) April 19, 2026
Humanoid robots hit the ground running in the Beijing E-Town humanoid robot half-marathon on Sunday, competing in both autonomous navigation and remote-controlled categories. #marathon #Beijing #HumanoidRobot pic.twitter.com/dxacB1BzH2
— China Xinhua News (@XHNews) April 19, 2026
Aiuta Renovatio 21
A robot was torn apart during a half marathon in China
It simply failed to notice an obstacle, crashed into it — and broke into pieces. Still a long way from being a “Terminator.” In the end, it had to be removed from the track, with a team brought in to evacuate what was left… pic.twitter.com/E2BEZtmBnW — NEXTA (@nexta_tv) April 18, 2026
Iscriviti alla Newslettera di Renovatio 21
Circa il 40% degli automo antropomorfi ha funzionato in modo autonomo, affrontando curve, terreni irregolari e folle senza bisogno di controllo remoto. Gli altri automi erano invece gestiti da tecnici, con tempi di completamento adattati alle diverse categorie. La Cina ha designato la robotica umanoide come priorità strategica nazionale e uno dei sei nuovi motori di crescita economica per i prossimi cinque anni, fornendo ingenti sussidi per accelerarne lo sviluppo. Lo stesso sta facendo l’amministrazione Trump. Come riportato da Renovatio 21 la commissione cinese per la pianificazione economica ha avvertito che l’industria cinese della robotica umanoide rischia di incorrere in una bolla speculativa a causa della frenesia degli investimenti e ha esortato a impedire che l’espansione esplosiva del settore travolga il mercato. Mentre in Cina già si organizzano tornei di lotta tra androidi, Xiaomi utilizza macchine umanoide nella sua catena di montaggio. Come riportato da Renovatio 21, la Repubblica Popolare sta investendo in piattaforme abilitate all’AI che spera un giorno condurranno missioni letali, completamente senza input o controllo umano, già per la prossima guerra.2026 Robot marathon fail & fun compilation pic.twitter.com/mmeUbrgtPD
— Eren Chen (@ErenChenAI) April 19, 2026
Iscriviti alla Newslettera di Renovatio 21
-



Spirito2 settimane faMons. Viganò sullo scontro tra Trump e Leone
-



Bizzarria2 settimane faL’uomo nudo continua a terrorizzare l’Italia: l’anarconudismo figlio dell’anarcotirannia
-



Arte2 settimane faMarina Abramovic definisce Trump «il mago di più alto livello»
-



Psicofarmaci2 settimane faLo Xanax richiamato in vari stati americani
-



Spirito1 settimana faMadre Teresa disse a un sacerdote: la Comunione sulla mano era «il peggior male» mai visto
-



Pensiero1 settimana faIl manifesto di Palantir in sintesi
-



Militaria2 settimane faPrigionieri palestinesi stuprati dai cani addestrati dell’esercito israeliano
-



Misteri1 settimana faEsperto di UFO trovato morto suicida. Aveva ripetuto che mai lo avrebbe fatto













