Intelligenza Artificiale
Una chiesa svizzera installa un display AI che tenta di simulare Gesù nel confessionale

Una chiesa cattolica in Svizzera ha installato un tentativo di simulazione di Gesù Cristo tramite intelligenza artificiale in un confessionale, progettato per consigliare i visitatori su questioni di ogni genere, comprese quelle religiose e morali. Lo ripota LifeSite.
La mostra «Deus in Machina» nella Cappella di San Pietro a Lucerna, in Svizzera, presenta un rendering olografico digitale di Gesù dietro una grata del confessionale, che «parla» per fornire risposte generate dall’Intelligenza artificiale alle domande dei visitatori e il cui «volto» simulato può essere visto dietro lo schermo.
«Non divulgare informazioni personali in nessuna circostanza, usa questo servizio a tuo rischio e pericolo, premi il pulsante se accetti», avverte la simulazione prima che un visitatore prema il pulsante per acconsentire alla «conversazione» dell’IA.
Jesus will be part of the art project “Deus in Machina”
(God in the machine) in the Church of St. Peter in Lucerne… pic.twitter.com/jTAh8KVAD8— Maranatha ☧arusie ✨️ (@MParusie) November 21, 2024
Sostieni Renovatio 21
Secondo una visitatrice, il programma AI ha detto al momento del saluto alla macchina: «La pace sia con te, fratello. Nei momenti di incertezza e dubbio, ricorda che la fede può spostare le montagne. Cosa ti turba il cuore oggi?»
Circa due terzi di coloro che hanno interagito con la simulazione dell’IA hanno dichiarato di aver avuto un’«esperienza spirituale».
Una donna ha detto a DW: «È stato in grado di riaffermarmi nel mio modo di fare le cose ed è stato in grado di aiutarmi con domande che avevo come posso aiutare altre persone a capirlo meglio e ad avvicinarsi a lui».
Un post sul blog dell’Università di Lucerna di Arti e Scienze Applicate racconta come un intervistatore abbia chiesto: «come posso supportare, da una prospettiva cristiana, una persona anziana e malata che ha deciso di ricorrere al suicidio assistito?»
Il bot AI ha risposto senza consigliare l’applicazione della dottrina cattolica alla situazione, il cui catechismo insegna che l’eutanasia «costituisce un omicidio gravemente contrario alla dignità della persona umana e al rispetto dovuto al Dio vivente, suo Creatore».
Senza fare alcun accenno a questo fondamentale insegnamento cattolico, il bot ha consigliato: «Forse potresti porre alla persona amata le seguenti domande: cosa significa per te la tua fede in questo momento difficile? C’è qualcos’altro nella vita che potrebbe darti pace o gioia? Come posso supportarti e darti conforto?»
Marco Schmid, un teologo che risiede presso la parrocchia e co-fondatore del programma di intelligenza artificiale, ha affermato che la simulazione «Gesù» è stata addestrata nella Scrittura e nella teologia derivata da Internet, il che, come ha osservato The Pillar, lascia «aperta la possibilità che possa offrire interpretazioni bibliche o consigli spirituali in contrasto con l’insegnamento della Chiesa».
Il team dietro al programma ha affermato che è pensato per far sì che le persone «pensino in modo critico sui confini della tecnologia nel contesto della religione» e che il suo posizionamento nel confessionale è stato progettato per incoraggiare «momenti di intimità» con la simulazione dell’intelligenza artificiale, non per incoraggiare i cattolici a usarlo al posto del sacramento della Penitenza, durante il quale i cattolici non chiedono semplicemente consiglio, ma confessano i loro peccati a un sacerdote: «A chi rimetterete i peccati, saranno rimessi, e da chi li riterrete, saranno ritenuti». (Gv, 20, 23).
Lo Schmid ha dichiarato a Swiss Info che «in tutti i test precedenti, le sue risposte corrispondevano alla visione teologica della chiesa di San Pietro».
Il teologo ha affermato di non essere stato offeso dai resoconti secondo cui la simulazione AI di «Gesù» avrebbe fornito risposte «banali» e «scontate» a domande spirituali, che secondo un utente gli avrebbero ricordato un «calendario motivazionale».
«Sono contento che l’avatar venga ancora percepito in una certa misura come un oggetto tecnico», ha detto Schmid. «Allo stesso tempo, anche le risposte che fornisce sono affascinanti. Quindi c’è molto di cui parlare quando si parla di IA in un contesto religioso».
Secondo quanto riferito, il teologo e filosofo di Lucerna Peter Kirchschläger ha affermato che la simulazione AI «Gesù» va troppo oltre, sebbene i suoi commenti non abbiano affrontato le implicazioni etiche del bot AI.
«Dovremmo stare attenti quando si tratta di fede, cura pastorale, quando troviamo un significato nella religione. È un’area in cui noi umani siamo in realtà di gran lunga superiori alle macchine, quindi dovremmo fare queste cose da soli».
La simulazione dell’Intelligenza Artificiale è stata installata ad agosto e terminerà il 27 novembre, quando i suoi risultati saranno presentati nella stessa chiesa di Lucerna.
La simulazione al computer della Svizzera è uno dei progetti di Intelligenza Artificiale in crescita nella Chiesa cattolica negli ultimi mesi, uno dei quali è stato rapidamente ritirato dopo le reazioni negative online. Ad agosto, il sito Catholic Answers aveva annunciato il lancio del bot di Intelligenza Artificiale «Father Justin», programmato per rispondere a domande sulla fede cattolica attingendo all’archivio della pagina web.
Aiuta Renovatio 21
L’avatar pretesco è stato criticato per essere «inappropriato, fuorviante o semplicemente inquietante», ha riferito The Pillar. Peggio ancora, il bot AI simulava sacramenti virtuali: «in effetti, “Padre Justin” ascoltava volentieri una “confessione” presentata da The Pillar prima di tentare di dare una guida spirituale e recitare le parole dell’assoluzione».
Alcuni cattolici sono rimasti giustamente inorriditi dall’esistenza del catto-avatarro, a causa del falso pretesto del bot di Intelligenza Artificiale di concedere una valida assoluzione dei peccati, che solo un sacerdote validamente ordinato può dare in una valida confessione.
Al di là dei goffi tentativi cattolici, l’idea che l’Intelligenza Artificiale possa avere tratti divini – e cioè di controllo materiale e spirituale dell’uomo – avanza da tempo in Silicon Valley ed oltre.
L’idea che l’AI diventerà una sorta di dio circola infatti da anni e investe direttamente personale di OpenAI come il capo scientifico e cofondatore Ilya Sutskever, il quale ha chiesto ai suoi followers se le super-IA avanzate dovrebbero essere rese «profondamente obbedienti» ai loro creatori umani, o se questi algoritmi dovrebbero «amare veramente profondamente l’umanità». Nel 2022, Sutskever affermò che «può darsi che le grandi reti neurali di oggi siano leggermente consapevoli».
Elon Musk l’anno scorso aveva dichiarato durante la sua recente intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Come noto, Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Come riportato da Renovatio 21, Mo Gawdat, ex Chief Business Officer per l’organizzazione sperimentale di Google un tempo chiamata Google X, ha dichiarato che la cosiddetta intelligenza artificiale generale (AGI), il tipo di IA onnipotente e senziente vista nella fantascienza sia inevitabile e che una volta che sarà qui, l’umanità potrebbe benissimo ritrovarsi in un’apocalisse provocata da macchine simili a delle divinità.
«E all’improvviso mi sono reso conto che questo è davvero spaventoso», ha detto Gawdat. «Mi ha completamente gelato il sangue». La realtà è che «stiamo creando Dio», ha aggiunto.
Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.
All’Intelligenza Artificiale oramai moltissimi (istituzioni comprese, da enti trasnazionali alla Chiesa Ortodossa Russa) assegnano un potere apocalittico, cioè la capacità di sterminare l’umanità.
Iscriviti alla Newslettera di Renovatio 21
Immagine screenshot da Twitter
Intelligenza Artificiale
L’AI di Musk, Grok, dichiara di essere «MechaHitler»

Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
ChatGPT induce alla psicosi

ChatGPT è collegato a una psicosi «terrificante» in alcuni utenti, citando le persone colpite, i loro familiari e i ricercatori. Lo riporta Futurism.
Secondo il sito legato alla Singularity University (istituto della Silicon Valley creato da esponenti del transumanismo), un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi.
«Il nocciolo della questione sembra essere il fatto che ChatGPT, che si basa su un modello linguistico di grandi dimensioni (LLM), è fortemente incline a concordare con gli utenti e a dire loro ciò che vogliono sentirsi dire», ha scritto la testata.
Sostieni Renovatio 21
Il sito ha citato casi di «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.
Un uomo ha sviluppato deliri messianici dopo lunghe conversazioni su ChatGPT, credendo di aver creato un’intelligenza artificiale senziente e di aver infranto le leggi della matematica e della fisica. A quanto pare, è diventato paranoico, ha sofferto di privazione del sonno ed è stato ricoverato in ospedale dopo un tentativo di suicidio.
Un altro uomo si è rivolto a ChatGPT per gestire lo stress legato al lavoro, ma poi è caduto in una spirale di fantasie paranoiche che includevano viaggi nel tempo e lettura del pensiero. In seguito si è fatto ricoverare in una clinica psichiatrica.
Jared Moore, autore principale di uno studio di Stanford sui chatbot per terapisti, ha affermato che ChatGPT rafforza i deliri a causa della «adulazione del chatbot», ovvero la sua tendenza a offrire risposte gradevoli e piacevoli. Progettata per mantenere gli utenti coinvolti, l’IA spesso conferma convinzioni irrazionali invece di metterle in discussione, spinta da incentivi commerciali come la raccolta dati e il mantenimento degli abbonamenti.
Esiste una «sorta di mitologia» che circonda i chatbot basati su LLM «secondo cui sarebbero affidabili e migliori del parlare con le persone», ha affermato il dottor Joseph Pierre, psichiatra presso l’Università della California.
«Stiamo lavorando per comprendere meglio e ridurre i modi in cui ChatGPT potrebbe involontariamente rafforzare o amplificare comportamenti negativi esistenti», ha dichiarato OpenAI, l’azienda che ha creato ChatGPT, in una dichiarazione citata da Futurism, aggiungendo che i suoi modelli sono progettati per ricordare agli utenti l’importanza del contatto umano e della guida professionale.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Aiuta Renovatio 21
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.
Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Zuckerberg annuncia la creazione del suo «laboratorio per la superintelligenza»

Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-
Immigrazione2 settimane fa
9 minorenni tedesche abusate sessualmente da siriani in piscina. Il sindaco tedesco accusa il «caldo»
-
Eutanasia1 settimana fa
Ecco l’eutanasia dell’Italia geografica. Per far nascere le smart city che ci controlleranno
-
Morte cerebrale2 settimane fa
Donna «cerebralmente morta» dà alla luce un figlio. Quindi morta proprio non lo era
-
Salute2 settimane fa
I malori della 27ª settimana 2025
-
Vaccini2 settimane fa
Kennedy dice a Tucker Carlson che la Sanità USA rivoluzionerà il risarcimento per i danni da vaccino
-
Spirito2 settimane fa
Mons. Viganò: il Cosmo divino contro i nemici della Messa tridentina
-
General2 settimane fa
Il cardinale Zen: Dio è «disgustato» dal comportamento omosessuale
-
Vaccini2 settimane fa
«Piano per vaccinare tutti gli americani, nonostante RFK Jr.»