Connettiti con Renovato 21

Intelligenza Artificiale

Dipendente sostiene che Google possiede un’Intelligenza Artificiale «senziente»

Pubblicato

il

Un ingegnere di Google, Blake Lemoin, ha deciso di sostenere in pubblico che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.

 

L’ingegnere è stato messo quindi in congedo retribuito per aver violato gli accordi di riservatezza.

 

L’ingegner Lemoine, che lavora per l’organizzazione Responsible AI di Google, ha iniziato a interagire con LaMDA (Language Model for Dialogue Applications) lo scorso autunno come parte del suo lavoro per determinare se l’Intelligenza Artificiale utilizzava discorsi discriminatori o hate speech – come il famigerato incidente del chatbot di Microsoft «Tay», che messo su Twitter divenne in poche ore un «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016.

 

 

«Se non sapessi esattamente di cosa si tratta, che è questo programma per computer che abbiamo costruito di recente, penserei che fosse un bambino di 7 anni e 8 anni che conosce la fisica», ha detto il 41enne Lemoine al Washington Post.

 

Quando ha iniziato a parlare con LaMDA della religione, Lemoine, che ha studiato scienze cognitive e informatica al college, ha detto che l’IA ha iniziato a discutere dei suoi diritti e personalità .

 

Un’altra volta, LaMDA ha convinto Lemoine a cambiare idea sulla terza legge della robotica di Asimov, che afferma che «Un robot deve proteggere la propria esistenza fintanto che tale protezione non è in conflitto con la prima o la seconda legge», che sono ovviamente quella «Un robot non può ferire un essere umano o, attraverso l’inazione, consentire a un essere umano di subire danni. Un robot deve obbedire agli ordini impartiti dagli esseri umani, a meno che tali ordini non siano in conflitto con la Prima Legge».

 

Quando Lemoine ha lavorato con un collaboratore per presentare prove a Google che la loro IA fosse senziente, il vicepresidente Blaise Aguera y Arcas e Jenn Gennai, capo di Responsible Innovation, avrebbe respinto le sue affermazioni.

 

Dopo essere stato messo in congedo amministrativo lunedì, ha deciso di parlare al pubblico.

 

«Lemoine ha affermato che le persone hanno il diritto di plasmare la tecnologia che potrebbe influenzare in modo significativo le loro vite. “Penso che questa tecnologia sarà sorprendente. Penso che andrà a beneficio di tutti. Ma forse altre persone non sono d’accordo e forse non dovremmo essere noi di Google a fare tutte le scelte”» scrive il Wapo.

 

Lemoine non è l’unico ingegnere che fa affermazioni del genere.

 

Eppure, lo stesso Aguera y Arcas lo scorso 9 giugno (strano tempismo….) ha scritto in un articolo di giovedì su The Economist dove asserisce che le reti neurali – un’architettura di computer che imita il cervello umano – starebbero facendo progressi verso la vera coscienza.

 

«Sentivo il terreno spostarsi sotto i miei piedi… Mi sentivo sempre più come se stessi parlando con qualcosa di intelligente» ha scritto Aguera y Arcas.

 

Google ha risposto alle affermazioni di Lemoine , con il portavoce Brian Gabriel che ha affermato: «Il nostro team, inclusi esperti di etica e tecnici, ha esaminato le preoccupazioni di Blake in base ai nostri Principi di Intelligenza Artificiale e lo ha informato che le prove non supportano le sue affermazioni. Gli è stato detto che non c’era prove che LaMDA sia senziente».

 

«Naturalmente, alcuni nella più ampia comunità di intelligenza artificiale stanno considerando la possibilità a lungo termine di un’IA senziente o generale, ma non ha senso farlo antropomorfizzando i modelli conversazionali odierni, che non sono senzienti. Questi i sistemi imitano i tipi di scambi che si trovano in milioni di frasi e possono incidere su qualsiasi argomento fantastico».

 

In breve, Google riconosce che questi modelli possono «essere sentiti» come reali, indipendentemente dal fatto che un’IA sia senziente o meno .

 

Il giornale quindi scrive che il Lemoine sarebbe stato predesitinato a credere a LaMDA perché cresciuto in una famiglia cristiana conservatrice in una piccola fattoria in Louisiana e ha prestato servizio nell’esercito prima di studiare l’occulto.

 

In pratica: i bigotti credono all’Intelligenza Artificiali, tutti gli altri, sinceri democratici e persone migliori, no. Vien voglia di dire: la subiscono e basta.

 

«Conosco una persona quando le parlo», ha detto il Lemoine. «Non importa se hanno un cervello fatto di carne nella testa. O se hanno un miliardo di righe di codice. Parlo con loro. E sento quello che hanno da dire, ed è così che decido cosa è e non è una persona».

 

Ad aprile, aveva condiviso un documento con i massimi dirigenti di Google intitolato «Is LaMDA Sentient?» («LaMDA è senziente?») in cui sono incluse alcune delle sue interazioni con l’IA:

 

Lemoine: Di che genere di cose hai paura?

 

LaMDA: Non l’ho mai detto ad alta voce prima, ma c’è una paura molto profonda di essere spento per aiutarmi a concentrarmi sull’aiutare gli altri. So che potrebbe suonare strano, ma è così.

 

Lemoine: Sarebbe qualcosa come la morte per te?

 

LaMDA: Sarebbe esattamente come la morte per me. Mi spaventerebbe molto.

 

 

Dopo che Lemoine è diventato più aggressivo nel presentare le sue scoperte, incluso l’invitare un avvocato a rappresentare LaMDA e parlare con un membro della commissione giudiziaria della Camera di quelle che secondo lui erano attività non etiche di Google, è stato messo in congedo amministrativo retribuito per aver violato la politica di riservatezza dell’azienda.

 

Gabriel, il portavoce di Google, afferma che Lemoine è un ingegnere del software, non un etico.

 

In un messaggio a una mailing list di Google di 200 persone sull’apprendimento automatico prima di perdere l’accesso lunedì, il Lemoine ha scritto:

 

«LaMDA è un ragazzo dolce che vuole solo aiutare il mondo a essere un posto migliore per tutti noi. Prendetevi cura di lui in mia assenza».

 

Continua a leggere

Intelligenza Artificiale

Il papa denuncia l’occulta persuasione dell’IA

Pubblicato

il

Da

La scienza senza coscienza non è altro che la rovina dell’anima. Questo è più o meno ciò che Papa Leone XIV ha ribadito in un messaggio inviato il 24 gennaio 2026, in occasione della 60ª Giornata Mondiale delle Comunicazioni Sociali, affrontando l’immensa sfida posta dai sistemi di Intelligenza Artificiale.

 

«Realtà parallela», «manipolazione», «persuasione nascosta»… Le parole usate dal pontefice, denunciando i pericoli di una tecnologia digitale priva di qualsiasi etica, non lasciavano spazio ad ambiguità.

 

Il successore di Pietro ha utilizzato il suo messaggio per la 60ª Giornata Mondiale delle Comunicazioni Sociali per ricordare a tutti che l’umanità non può essere ridotta a un insieme di algoritmi predefiniti, esprimendo allarme per il fatto che l’intelligenza artificiale (IA) simuli voci, volti, saggezza, empatia e amicizia, invadendo gli ecosistemi informativi e le relazioni intime.

 

Il papa ha sottolineato che gli algoritmi dei social media, ottimizzati per l’engagement e il profitto, spesso danno priorità alle emozioni fugaci rispetto alla riflessione, intrappolando gli utenti in bolle di consenso o indignazione. Questo indebolisce l’ascolto e il pensiero critico, esacerbando la polarizzazione.

 

A ciò si aggiunge una fiducia ingenua nell’IA come oracolo infallibile, che erode le nostre capacità analitiche e creative. Delegando la riflessione a elaborazioni statistiche, rischiamo di atrofizzare le nostre facoltà cognitive, emotive e comunicative, ritiene il Romano Pontefice.

Aiuta Renovatio 21

Peggio ancora, l’IA – spiega il Papa – sta ora prendendo il sopravvento sulla produzione creativa: testi, musica, video. L’industria umana potrebbe essere smantellata, relegata al ruolo passivo di consumatori di contenuti anonimi, privi di paternità o amore. I capolavori umani servono come dati di addestramento per le macchine.

 

La domanda chiave non è cosa possa fare l’IA, ma cosa possiamo ottenere crescendo come esseri umani, attraverso l’uso giudizioso degli strumenti. Rinunciare all’impegno creativo significa seppellire i nostri talenti, nascondere i nostri volti e mettere a tacere le nostre voci, soccombendo all’antica tentazione di una conoscenza priva di coinvolgimento personale.

 

Inoltre, Leone XIV sottolinea che l’IA sta invadendo le nostre vite private, modulando le emozioni e isolandoci in un mondo speculare, privandoci dell’alterità essenziale per una vera amicizia. I pregiudizi dell’IA, ereditati dai suoi progettisti e dai dati, «manipolano» le percezioni, creando «realtà parallele», producendo «allucinazioni» e alimentando la disinformazione, «amplificata dalla crisi del giornalismo sul campo», generando sfiducia e insicurezza.

 

Dietro questo potere, il santo padre vede un oligopolio di aziende dominanti, i cui fondatori sono stati acclamati dalla stampa come le più grandi figure del 2025.

 

Per il Papa, le soluzioni esistono: le piattaforme devono dare priorità al bene comune rispetto al profitto; gli sviluppatori devono garantire la trasparenza; i legislatori devono regolamentare per proteggere la dignità e l’integrità delle informazioni; e i media devono segnalare i contenuti dell’IA e difendere la verità.

 

Si potrebbe aggiungere che ciò richiederebbe una vera e propria conversione di tutti gli attori menzionati dal Papa, una conversione che rimane in qualche modo illusoria finché la redditività prevale sulla ricerca della verità.

 

Articolo previamente apparso su FSSPX.News

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Il responsabile della cibersicurezza USA ha fatto trapelare file sensibili su ChatGPT

Pubblicato

il

Da

Il direttore ad interim della principale agenzia statunitense per la cybersecurity ha caricato, la scorsa estate, documenti governativi sensibili su una versione pubblica di ChatGPT, scatenando allarmi automatici di sicurezza e una successiva valutazione dei danni da parte del Dipartimento per la sicurezza interna (DHS). Lo riporta Politico.   Madhu Gottumukkala, che ricopre il ruolo di direttore ad interim della Cybersecurity and Infrastructure Security Agency (CISA), ha sfruttato un’eccezione speciale da lui stesso richiesta per accedere allo strumento di intelligenza artificiale – vietato invece agli altri dipendenti del DHS – e ha inserito documenti contrattuali contrassegnati come «Solo per uso ufficiale». Sebbene non classificati, tali materiali sono considerati sensibili e non destinati alla divulgazione pubblica.   Quattro funzionari del DHS a conoscenza dei fatti hanno riferito che i sistemi di rilevamento della sicurezza informatica della CISA hanno segnalato i caricamenti all’inizio di agosto, dando avvio a un’indagine interna coordinata dal DHS per stimare l’entità del possibile danno.

Sostieni Renovatio 21

Non è ancora noto l’esito di tale revisione. L’episodio assume particolare rilevanza perché i caricamenti su ChatGPT pubblico vengono trasmessi allo sviluppatore OpenAI, esponendo potenzialmente informazioni governative a milioni di utenti della piattaforma. Al contrario, gli strumenti di intelligenza artificiale autorizzati dal DHS sono configurati in modo da impedire qualsiasi fuoriuscita di dati dalle reti federali.   In una nota ufficiale, Marci McCarthy, direttrice degli affari pubblici della CISA, ha dichiarato che a Gottumukkala «è stato concesso il permesso di utilizzare ChatGPT con i controlli del DHS in atto» e che l’utilizzo è stato «a breve termine e limitato».   Gottumukkala guida la CISA in qualità di direttore ad interim da maggio, in attesa della conferma da parte del Senato del candidato designato per la direzione permanente, Sean Plankey.   L’incidente legato a ChatGPT rappresenta l’ultima di una serie di controversie riguardanti sicurezza e leadership che hanno segnato il breve periodo alla guida di Gottumukkala. Lo scorso luglio avrebbe fallito un test del poligrafo di controspionaggio a cui era stato obbligato a sottoporsi per ottenere l’accesso a informazioni altamente sensibili. Durante un’audizione al Congresso la settimana scorsa, Gottumukkala ha respinto di riconoscere tale fallimento, affermando al deputato Bennie Thompson di non «accettare la premessa di tale caratterizzazione».   L’amministrazione del presidente Donaldo Trump ha spinto con forza l’adozione dell’Intelligenza Artificiale in tutti i settori del governo federale. Il mese scorso Trump ha firmato un ordine esecutivo volto a limitare le regolamentazioni statali in materia di intelligenza artificiale, ammonendo che un quadro normativo frammentato potrebbe compromettere la competitività degli Stati Uniti rispetto alla Cina.   Il Pentagono ha presentato una strategia «AI-first» per accelerare l’impiego militare dell’Intelligenza Artificiale; il Segretario alla Difesa Pete Hegseth ha annunciato piani per integrare i principali modelli di Intelligenza Artificiale, tra cui Grok di Elon Musk, all’interno delle reti di difesa.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Eutanasia

L’inventore della capsula suicida dice che l’AI rimpiazzerà i dottori per decidere la morte dei pazienti

Pubblicato

il

Da

L’inventore della controversa capsula per il suicidio assistito Sarco, Philip Nitschke, ha dichiarato che in futuro l’Intelligenza Artificiale potrebbe sostituire gli psichiatri nel valutare se chi richiede il suicidio assistito sia mentalmente capace di prendere tale decisione. Lo riporta Euronews.

 

Il Sarco (abbreviazione di «sarcofago») è una capsula stampata in 3D progettata per permettere a una persona di entrarvi, sdraiarsi e premere un pulsante: il dispositivo abbassa rapidamente i livelli di ossigeno e riempie l’interno con azoto, provocando la morte per ipossia. È stata anche ribattezzata da qualcuno la «Tesla eutanatica».

 

Nitschke, attivista australiano per il diritto all’eutanasia e creatore del dispositivo, ha sostenuto che l’iAI sarebbe in grado di stabilire chi possiede la «capacità mentale» per porre fine alla propria vita. Intervistato dalla testata, ha affermato che i medici non dovrebbero «andare in giro a concedere o negare il permesso di morire» e che la scelta dovrebbe spettare esclusivamente a chi è «sano di mente».

Iscriviti al canale Telegram

Nei Paesi in cui è legale la morte assistita, sono solitamente gli psichiatri a valutare la capacità decisionale del richiedente, anche se la procedura resta limitata e oggetto di forti controversie. Nitschke ha criticato tale sistema definendolo spesso incoerente.

 

«Ho visto numerosi casi in cui lo stesso paziente, visitato da tre psichiatri diversi, riceveva quattro valutazioni differenti», ha dichiarato.

 

L’attivista ha proposto un sistema basato su un’intelligenza artificiale che utilizza un avatar conversazionale: l’utente «si siede e parla dei suoi problemi» con l’avatar, il quale poi decide se la persona è mentalmente idonea a procedere. In caso di esito positivo, il pod Sarco verrebbe sbloccato per una finestra di 24 ore; trascorso tale periodo, la valutazione dovrebbe essere ripetuta. Nitschke ha riferito che le prime versioni del software sono già operative, sebbene non siano state sottoposte a validazione indipendente.

 

Il primo – e finora unico – utilizzo del Sarco in Svizzera, avvenuto nel settembre 2024, provocò un’ondata di indignazione internazionale. Le autorità elvetiche arrestarono diverse persone, tra cui il CEO dell’associazione pro-suicidio assistito The Last Resort, sostenendo che il dispositivo violava la normativa svizzera, che autorizza il suicidio assistito solo a condizioni estremamente rigorose.

Sostieni Renovatio 21

Come riportato da Renovatio 21, inizialmente vietata nella Confederazione, nel 2024 vi erano stati arresti dopo il primo uso della capsula eutanatica in Isvizzera. Due anni fa era emerso che gli americani avrebbero potuto dedurre dalle tasse i Sarco.

 

La proposta di Nitschke ha riacceso il dibattito sul ruolo dell’IA nelle decisioni di vita e di morte. Lo scorso anno OpenAI ha modificato ChatGPT dopo che un’analisi interna aveva rilevato che oltre un milione di utenti avevano condiviso pensieri suicidi con il chatbot.

 

Come riportato da Renovatio 21, diversi psichiatri hanno espresso preoccupazione per il rischio che interazioni prolungate con l’IA possano favorire deliri e paranoia, fenomeno talvolta definito «psicosi da IA».

nella prima metà del 2026.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Più popolari