Connettiti con Renovato 21

Intelligenza Artificiale

Sacerdozio virtuale, errore reale

Pubblicato

il

«Father Justin» è stato «ridotto allo stato laicale» pochi giorni dopo l’inizio del suo ministero. Non per una storia di abusi, perché «Father Justin» è l’avatar digitale dato a un algoritmo. La vicenda d’oltreoceano potrebbe sembrare aneddotica se non mostrasse, implicitamente, i limiti dell’uso dell’intelligenza artificiale (IA) negli ambiti della fede e della pastorale cristiana.

 

Catholic Answers è un’associazione dedicata alla difesa della fede cattolica, con sede a El Cajon, California. Gli apologeti che la gestiscono hanno subito capito il vantaggio di investire nell’universo digitale, utilizzando le inesauribili risorse dell’intelligenza artificiale.

 

È così che è stato sviluppato un algoritmo chiamato Father Justin, ornato da un’immagine generata al computer, che lo rappresenta come un prete barbuto che indossa una talare, in altre parole una sequenza matematica adatta a rispondere alle domande degli internauti sulla fede e sull’insegnamento della Chiesa.

 

Ma il prete virtuale – o meglio i suoi ideatori, l’IA non produce, in termini di qualità dell’informazione, nulla che non sia in linea con il suo database – non ha seguito un percorso teologico tradizionale: così, Father Justin non vede nessun problema nel battezzare con «Gatorade», una bevanda energetica, quando solo l’acqua costituisce la materia valida per questo sacramento.

 

Quando un utente chiede la forma del sacramento della penitenza, il robot propone online una formula per l’assoluzione dei peccati, che sarebbe totalmente invalida, poiché l’assoluzione richiede la presenza fisica di un sacerdote validamente ordinato e con giurisdizione per compiere questo atto.

 

Tuttavia, a una richiesta diretta di essere ascoltato in confessione e assolto, Father Justin spiega: «anche se vorrei aiutarti, non sono in grado di amministrare il sacramento della riconciliazione con questo mezzo. È un sacramento che richiede un incontro personale. Ti incoraggio a trovare una chiesa cattolica e a parlare con un prete».

 

Di fronte allo scalpore suscitato da questa vicenda, Catholic Answers ha fatto marcia indietro rivestendo il buon Father Justin da laico e promettendo di correggere il suo «chatbot» – il programma informatico che simula ed elabora una conversazione umana, permettendo di interagire con gli utenti – in un senso più coerente con la fede e la moralità cattolica.

 

Catholic Answers avrà presto un bot affidabile? Possiamo dubitarne, perché un progetto del genere pone un problema: immaginare che un «chatbot» possa svolgere a pieno titolo il ruolo di catechista o di missionario non rivela forse una profonda incomprensione del modo in cui si trasmette la fede?

 

Se l’Intelligenza Artificiale può rendere accessibile una quantità impressionante di informazioni in tempi record, la nozione di «chatbot» nasconde un’ambiguità: quella di far credere alle persone in una reale interazione personale.

 

Quando un fedele, o una persona che cerca la verità, si avvicina alla Chiesa, ha diritto di ascoltare delle risposte trasmesse in un vero spirito di fede teologale e di prudenza soprannaturale che supera le capacità numeriche di un algoritmo, anche il più elaborato.

 

Di fronte alle critiche, Catholic Answers si è difesa in modo poco convincente: «Comprendiamo che alcuni non si sentano a proprio agio con l’intelligenza artificiale. Ma dato che esiste, ci sforziamo di metterlo al servizio del Regno di Dio». Un modo per evitare la radice del problema.

 

Perché gli strumenti fabbricati dall’uomo hanno uno scopo solo nella misura in cui facilitano la vita veramente umana, permettendo così di risparmiare tempo, non per essere pigri, ma per esercitare le nostre facoltà di conoscenza e le nostre virtù, ed elevare la nostra umanità.

 

In questo contesto, vogliamo affidare le capacità umane, come la comprensione, il giudizio, le relazioni umane e l’autonomia d’azione, ai software di Intelligenza Artificiale senza conoscere il valore reale di questi sistemi che pretendono di essere intelligenti e cognitivi?

 

Questa è la sfida etica dei prossimi anni riguardo all’Intelligenza Artificiale, e di cui Father Justin, questa volta, ha pagato il prezzo.

 

Articolo previamente apparso su FSSPX.news.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Google sigla un accordo con il Pentagono sull’Intelligenza Artificiale

Pubblicato

il

Da

Google ha raggiunto un accordo per fornire al Pentagono i suoi modelli di Intelligenza Artificiale destinati a uso secretato. Lo riporta il New York Times.   L’intesa è stata siglata nonostante le proteste interne all’azienda e le persistenti controversie sulle applicazioni militari della tecnologia. A partire dallo scorso anno, il Pentagono ha rapidamente ottenuto l’accesso all’intelligenza artificiale avanzata tramite accordi analoghi con i principali sviluppatori del settore.   Secondo le informazioni diffuse, l’accordo amplia un contratto da 200 milioni di dollari firmato nel 2025, che consente all’IA Gemini di Google di funzionare su reti classificate. Il colosso tecnologico ha confermato l’intesa, senza però fornire ulteriori dettagli.   «Siamo orgogliosi di far parte di un ampio consorzio… che fornisce servizi di AI a supporto della sicurezza nazionale», ha dichiarato la portavoce dell’azienda, Jenn Crider, aggiungendo che Google resta impegnata a garantire che l’IA non venga utilizzata per la sorveglianza di massa interna o per armi autonome senza supervisione umana.   Secondo quanto riportato per primo dalla testata della Silicon Valley The Information, il Pentagono potrà ora impiegare l’intelligenza artificiale di Google per «qualsiasi scopo governativo lecito», termini che ricalcano gli accordi stipulati con altri sviluppatori di IA.   Funzionari statunitensi sostengono che il nuovo contratto mira a garantire alle forze armate maggiore flessibilità ed evitare la dipendenza da un unico fornitore, integrando l’IA in operazioni sensibili come la pianificazione delle missioni e il puntamento delle armi. Tuttavia, l’accordo consentirebbe al Pentagono di richiedere modifiche ai filtri di sicurezza di Google, pur specificando che l’azienda non può porre il veto a decisioni «legittime per il governo», clausola che ha destato preoccupazione tra i critici.

Sostieni Renovatio 21

L’intesa ha scatenato polemiche interne a Google. In una lettera aperta pubblicata questa settimana, oltre 600 dipendenti, tra cui dirigenti di alto livello, hanno esortato l’amministratore delegato Sundar Pichai a interrompere l’utilizzo dell’AI dell’azienda in ambito militare, avvertendo che potrebbe essere impiegata in «modi disumani o estremamente dannosi». Hanno chiesto una moratoria su tali contratti, maggiore trasparenza e la creazione di un comitato etico per supervisionare le collaborazioni con le forze armate.   L’accordo arriva dopo la controversia tra il Pentagono e la startup Anthropic, che all’inizio di quest’anno si era rifiutata di allentare le misure di sicurezza relative alla sorveglianza e alle armi autonome. Il dipartimento della Difesa l’aveva definita un «rischio per la catena di approvvigionamento», escludendola di fatto da futuri contratti. Da allora Anthropic ha impugnato la decisione in tribunale.   Altre aziende hanno scelto un approccio diverso. OpenAI ha recentemente concluso un accordo per implementare i suoi modelli su reti classificate del Pentagono, mentre xAI di Musk ha integrato i suoi sistemi nella piattaforma interna di IA delle forze armate, GenAI.mil, utilizzata da milioni di persone.   La spinta del Pentagono verso l’IA ha provocato proteste da parte di lavoratori del settore tecnologico e attivisti, che mettono in guardia contro l’impiego della tecnologia in ambito militare senza adeguati controlli. Il mese scorso manifestanti si sono radunati davanti agli uffici di OpenAI con slogan come «No allo stato di sorveglianza basato sull’IA» e «Orwell ci aveva avvertito».   Il Pentagono ribadisce di non avere intenzione di utilizzare l’AI per la sorveglianza di massa sul territorio nazionale o per armi completamente autonome, ma continua a promuovere un ampio accesso ai sistemi avanzati per «qualsiasi uso lecito».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

La Florida indaga su OpenAI per le stragi suggerite dai chatbot

Pubblicato

il

Da

La Florida ha avviato un’indagine penale contro OpenAI e ChatGPT in relazione alla sparatoria avvenuta presso la Florida State University, pianificata dall’autore con l’aiuto del chatbot basato sull’intelligenza artificiale.

 

L’incidente è avvenuto nell’aprile del 2025, quando il sospettato avrebbe ucciso due persone e ne avrebbe ferite sei. Successivamente è rimasto ferito in una sparatoria con la polizia ed è stato arrestato. L’uomo armato, che si è poi rivelato essere il figlio di un vice sceriffo, è stato accusato di omicidio plurimo e tentato omicidio.

 

Lo Stato americano sta ora indagando sul ruolo di ChatGPT nell’attacco e cerca di stabilire se «OpenAI abbia responsabilità penale» per le azioni del chatbot, ha annunciato martedì il procuratore generale floridiano, James Uthmeier.

Sostieni Renovatio 21

«Il chatbot consigliava al tiratore quale tipo di arma usare, quali munizioni erano compatibili con ciascuna arma e se un’arma sarebbe stata utile o meno a distanza ravvicinata», ha dichiarato Uthmeier in una conferenza stampa.

 

«Se dall’altra parte dello schermo ci fosse stata una persona, l’avremmo accusata di omicidio», ha aggiunto.

 

OpenAI ha insistito sul fatto di non avere alcuna responsabilità per la sparatoria di massa in Florida. Una portavoce dell’azienda di intelligenza artificiale ha dichiarato ai media statunitensi di aver collaborato «in modo proattivo» con le indagini sull’incidente, identificando un account ChatGPT ritenuto associato al sospettato e condividendo le informazioni con le autorità.

 

«In questo caso, ChatGPT ha fornito risposte fattuali alle domande con informazioni ampiamente reperibili su fonti pubbliche online, e non ha incoraggiato né promosso attività illegali o dannose», ha dichiarato la portavoce.

 

La diffusione dei chatbot ha da tempo suscitato preoccupazioni in merito ai crimini perpetrati con l’AI, espresse da numerosi ricercatori indipendenti e agenzie governative in tutto il mondo. Sebbene la maggior parte dei crimini commessi con l’IA sembri verificarsi nel settore tecnologico, tra cui attacchi hacker, cyberattacchi, frodi e furti d’identità, i chatbot sono stati ripetutamente implicati anche nel favorire crimini violenti. Una recente indagine congiunta della CNN e del Center for Countering Digital Hate, ad esempio, ha rilevato che otto leader su dieci erano pronti ad aiutare gli utenti a organizzare attacchi violenti, tra cui attentati dinamitardi a sfondo religioso, sparatorie nelle scuole e assassinii.

 

Come riportato da Renovatio 21, l’anno passato ChatGPT con una «relazione» con un ragazzo sotto psicofarmaci e gli avrebbe fatto giurare di uccidere il CEO di OpenAI Sam Altman.

 

Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco.

 

Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».

 

C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.

 

L’anno scorso tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi.

 

Come riportato da Renovatio 21, due genitori hanno denunciato l’anno passato il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».

 

Meta ha dichiarato alla CNN di aver adottato misure «per risolvere il problema identificato», mentre Google e OpenAI hanno affermato che i modelli più recenti presentano misure di sicurezza rafforzate.

 

Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.

Aiuta Renovatio 21

Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina menteminaccia e può spingere le persone all’anoressia e perfino al suicidio. I casi di violenza indotta dall’AI potrebbero essere moltissimi, senza che possano arrivare alla stampa.

 

Va considerato, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale. Esperti a fine 2023 hanno lanciato un avvertimento riguardo i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

 

Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.

 

Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Cina

Robot cinese infrange il record mondiale umano nella mezza maratona

Pubblicato

il

Da

Domenica, un robot umanoide cinese ha superato migliaia di corridori umani vincendo la mezza maratona di Pechino E-Town e frantumando il record mondiale. All’evento hanno partecipato circa 12.000 persone e oltre 100 macchine antropomorfe automatiche.   L’androide bipede rosso acceso chiamato Lightning, sviluppato dal produttore cinese di smartphone Honor, ha dominato la gara, tagliando il traguardo davanti a tutti i concorrenti umani. Ha percorso la distanza di 21,1 km in soli 50 minuti e 26 secondi, battendo il record mondiale di mezza maratona, stabilito dal corridore ugandese Jacob Kiplimo il mese scorso, di quasi 7 minuti.  

Iscriviti al canale Telegram

Gli automi si sono classificati anche al secondo e terzo posto, mentre il più veloce tra gli esseri umani a tagliare il traguardo della maratona è stato il ventinovenne Zhao Haijie, che ha completato la gara in 1 ora, 7 minuti e 47 secondi.  

Aiuta Renovatio 21

In una gara simile svoltasi l’anno scorso, le macchine non erano riuscite a impressionare: il robot più veloce, Tiangong, aveva impiegato 2 ore e 40 minuti per completare la distanza, ben al di sotto degli atleti umani.  

Iscriviti alla Newslettera di Renovatio 21

Nonostante il dominio incontrastato degli androidi nell’edizione di quest’anno, non sono mancati gli incidenti. Un umanoide è stato visto inciampare sulla linea di partenza e poi schiantarsi a faccia in giù sul marciapiede, mentre il personale accorreva con una barella.   Un altro androide ha sbandato contro una barricata nelle fasi finali della gara, ma è riuscito a riprendersi e a tagliare il traguardo, mentre gli ingegneri lo seguivano di corsa stringendo tra le mani i dispositivi di controllo. Un androide ha tagliato il traguardo, per poi deviare bruscamente dal percorso e cadere in un cespuglio.   Gli incidenti dei robotti corridori non sono decisamente mancati.     Circa il 40% degli automo antropomorfi ha funzionato in modo autonomo, affrontando curve, terreni irregolari e folle senza bisogno di controllo remoto. Gli altri automi erano invece gestiti da tecnici, con tempi di completamento adattati alle diverse categorie.   La Cina ha designato la robotica umanoide come priorità strategica nazionale e uno dei sei nuovi motori di crescita economica per i prossimi cinque anni, fornendo ingenti sussidi per accelerarne lo sviluppo. Lo stesso sta facendo l’amministrazione Trump.   Come riportato da Renovatio 21 la commissione cinese per la pianificazione economica ha avvertito che l’industria cinese della robotica umanoide rischia di incorrere in una bolla speculativa a causa della frenesia degli investimenti e ha esortato a impedire che l’espansione esplosiva del settore travolga il mercato.   Mentre in Cina già si organizzano tornei di lotta tra androidi, Xiaomi utilizza macchine umanoide nella sua catena di montaggio.   Come riportato da Renovatio 21, la Repubblica Popolare sta investendo in piattaforme abilitate all’AI che spera un giorno condurranno missioni letali, completamente senza input o controllo umano, già per la prossima guerra.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
   
Continua a leggere

Più popolari