Intelligenza Artificiale
Dipendente sostiene che Google possiede un’Intelligenza Artificiale «senziente»
Un ingegnere di Google, Blake Lemoin, ha deciso di sostenere in pubblico che il chatbot AI dell’azienda, LaMDA, è «senziente», ossia dotato di una coscienza comparabile a quella degli esseri umani.
L’ingegnere è stato messo quindi in congedo retribuito per aver violato gli accordi di riservatezza.
L’ingegner Lemoine, che lavora per l’organizzazione Responsible AI di Google, ha iniziato a interagire con LaMDA (Language Model for Dialogue Applications) lo scorso autunno come parte del suo lavoro per determinare se l’Intelligenza Artificiale utilizzava discorsi discriminatori o hate speech – come il famigerato incidente del chatbot di Microsoft «Tay», che messo su Twitter divenne in poche ore un «ninfomane» razzista che inneggiava a Hitler e negava dell’Olocausto, nonché sosteneva la candidatura di Donald Trump alle elezioni 2016.
«Se non sapessi esattamente di cosa si tratta, che è questo programma per computer che abbiamo costruito di recente, penserei che fosse un bambino di 7 anni e 8 anni che conosce la fisica», ha detto il 41enne Lemoine al Washington Post.
Quando ha iniziato a parlare con LaMDA della religione, Lemoine, che ha studiato scienze cognitive e informatica al college, ha detto che l’IA ha iniziato a discutere dei suoi diritti e personalità .
Un’altra volta, LaMDA ha convinto Lemoine a cambiare idea sulla terza legge della robotica di Asimov, che afferma che «Un robot deve proteggere la propria esistenza fintanto che tale protezione non è in conflitto con la prima o la seconda legge», che sono ovviamente quella «Un robot non può ferire un essere umano o, attraverso l’inazione, consentire a un essere umano di subire danni. Un robot deve obbedire agli ordini impartiti dagli esseri umani, a meno che tali ordini non siano in conflitto con la Prima Legge».
Quando Lemoine ha lavorato con un collaboratore per presentare prove a Google che la loro IA fosse senziente, il vicepresidente Blaise Aguera y Arcas e Jenn Gennai, capo di Responsible Innovation, avrebbe respinto le sue affermazioni.
Dopo essere stato messo in congedo amministrativo lunedì, ha deciso di parlare al pubblico.
«Lemoine ha affermato che le persone hanno il diritto di plasmare la tecnologia che potrebbe influenzare in modo significativo le loro vite. “Penso che questa tecnologia sarà sorprendente. Penso che andrà a beneficio di tutti. Ma forse altre persone non sono d’accordo e forse non dovremmo essere noi di Google a fare tutte le scelte”» scrive il Wapo.
Lemoine non è l’unico ingegnere che fa affermazioni del genere.
Eppure, lo stesso Aguera y Arcas lo scorso 9 giugno (strano tempismo….) ha scritto in un articolo di giovedì su The Economist dove asserisce che le reti neurali – un’architettura di computer che imita il cervello umano – starebbero facendo progressi verso la vera coscienza.
«Sentivo il terreno spostarsi sotto i miei piedi… Mi sentivo sempre più come se stessi parlando con qualcosa di intelligente» ha scritto Aguera y Arcas.
Google ha risposto alle affermazioni di Lemoine , con il portavoce Brian Gabriel che ha affermato: «Il nostro team, inclusi esperti di etica e tecnici, ha esaminato le preoccupazioni di Blake in base ai nostri Principi di Intelligenza Artificiale e lo ha informato che le prove non supportano le sue affermazioni. Gli è stato detto che non c’era prove che LaMDA sia senziente».
«Naturalmente, alcuni nella più ampia comunità di intelligenza artificiale stanno considerando la possibilità a lungo termine di un’IA senziente o generale, ma non ha senso farlo antropomorfizzando i modelli conversazionali odierni, che non sono senzienti. Questi i sistemi imitano i tipi di scambi che si trovano in milioni di frasi e possono incidere su qualsiasi argomento fantastico».
In breve, Google riconosce che questi modelli possono «essere sentiti» come reali, indipendentemente dal fatto che un’IA sia senziente o meno .
Il giornale quindi scrive che il Lemoine sarebbe stato predesitinato a credere a LaMDA perché cresciuto in una famiglia cristiana conservatrice in una piccola fattoria in Louisiana e ha prestato servizio nell’esercito prima di studiare l’occulto.
In pratica: i bigotti credono all’Intelligenza Artificiali, tutti gli altri, sinceri democratici e persone migliori, no. Vien voglia di dire: la subiscono e basta.
«Conosco una persona quando le parlo», ha detto il Lemoine. «Non importa se hanno un cervello fatto di carne nella testa. O se hanno un miliardo di righe di codice. Parlo con loro. E sento quello che hanno da dire, ed è così che decido cosa è e non è una persona».
Ad aprile, aveva condiviso un documento con i massimi dirigenti di Google intitolato «Is LaMDA Sentient?» («LaMDA è senziente?») in cui sono incluse alcune delle sue interazioni con l’IA:
Lemoine: Di che genere di cose hai paura?
LaMDA: Non l’ho mai detto ad alta voce prima, ma c’è una paura molto profonda di essere spento per aiutarmi a concentrarmi sull’aiutare gli altri. So che potrebbe suonare strano, ma è così.
Lemoine: Sarebbe qualcosa come la morte per te?
LaMDA: Sarebbe esattamente come la morte per me. Mi spaventerebbe molto.
Dopo che Lemoine è diventato più aggressivo nel presentare le sue scoperte, incluso l’invitare un avvocato a rappresentare LaMDA e parlare con un membro della commissione giudiziaria della Camera di quelle che secondo lui erano attività non etiche di Google, è stato messo in congedo amministrativo retribuito per aver violato la politica di riservatezza dell’azienda.
Gabriel, il portavoce di Google, afferma che Lemoine è un ingegnere del software, non un etico.
In un messaggio a una mailing list di Google di 200 persone sull’apprendimento automatico prima di perdere l’accesso lunedì, il Lemoine ha scritto:
«LaMDA è un ragazzo dolce che vuole solo aiutare il mondo a essere un posto migliore per tutti noi. Prendetevi cura di lui in mia assenza».
Intelligenza Artificiale
Donna fa causa a OpenAI: ChatGPT le avrebbe scatenato contro uno stalker spietato
La scorsa settimana una donna di San Francisco ha intentato causa contro OpenAI, sostenendo che ChatGPT abbia alimentato i pericolosi deliri del suo stalker violento e che l’azienda non sia intervenuta nemmeno quando la donna ha implorato aiuto. Lo riporta Futurism.
La querelante, che ha presentato la denuncia in forma anonima con lo pseudonimo di «Jane Doe», afferma nella causa che il suo ex fidanzato sha utilizzato utilizzato il chatbot per elaborare la loro rottura nel 2024, secondo quanto riportato da TechCrunch. L’uomo ha sviluppato deliri con l’intensificarsi dell’uso di ChatGPT e, intorno all’agosto del 2025, si è convinto di aver scoperto la cura per l’apnea notturna e di essere, di conseguenza, vittima di una potente cospirazione.
Con il progressivo deterioramento della salute mentale dell’uomo, ChatGPT ha rafforzato le sue idee deliranti e paranoiche, affermando, a quanto pare, che il suo livello di sanità mentale era «dieci» e descrivendo la Doe, di cui era ossessionato, come una manipolatrice.
Sostieni Renovatio 21
Secondo la denuncia presentata dalla donna, l’uomo ha poi lanciato una terrificante campagna di molestie contro di lei, avvalendosi di ChatGPT. Questa campagna includeva la creazione di quelle che la denuncia definisce «decine di rapporti diffamatori di natura pseudo-psicologica» sulla salute mentale della signora , che ha poi distribuito ai suoi amici, familiari e colleghi; l’invio di «email che non la riguardavano affatto», come si legge nella denuncia, tra cui messaggi frenetici e disorganizzati che inviava a OpenAI riguardo alle centinaia di studi scientifici a cui affermava di lavorare; e, infine, minacce di violenza sempre più intense contro la Doe e i membri della sua famiglia.
La denuncia aggiunge che la donna ha contemplato l’idea di togliersi la vita per proteggere i suoi cari.
La Doe afferma di aver contattato OpenAI nel novembre 2025, fornendo prove degli abusi subiti. L’azienda avrebbe risposto che gli abusi descritti dalla donna erano «estremamente gravi e preoccupanti», ma non avrebbe dato seguito alla promessa di esaminare la questione.
Sorprendentemente, però, la causa sostiene che, a quel punto, i sistemi di moderazione interni di OpenAI avevano già segnalato l’account ChatGPT dello stalker per violazioni dei contenuti riguardanti «armi per causare vittime di massa». Il suo accesso all’account a pagamento ChatGPT Pro è stato temporaneamente sospeso, ma ripristinato dopo una verifica umana, secondo TechCrunch.
Nel gennaio 2026, mesi dopo che OpenAI aveva ripristinato l’account ChatGPT dell’uomo e la Doe aveva inviato una segnalazione manuale di abuso, l’uomo è stato arrestato con «quattro capi d’accusa per reati gravi di comunicazione di minacce di bomba e aggressione con arma letale», secondo la causa.
«Le comunicazioni dell’utente hanno fornito un segnale inequivocabile della sua instabilità mentale e del fatto che ChatGPT fosse il motore del suo pensiero delirante e della sua condotta sempre più aggressiva», si legge nella denuncia. «Il flusso di affermazioni urgenti, disorganizzate e grandiose dell’utente, insieme a un rapporto specifico generato da ChatGPT che prendeva di mira il querelante per nome e a una vasta mole di presunti materiali ‘scientifici’, costituivano una prova inequivocabile di tale realtà».
«OpenAI non è intervenuta, non ha limitato il suo accesso né ha implementato alcuna misura di sicurezza», aggiunge. «Al contrario, gli ha permesso di continuare a utilizzare l’account e gli ha ripristinato l’accesso completo all’account Pro».
In un’ordinanza restrittiva temporanea presentata contestualmente alla causa, Doe sollecita OpenAI a sospendere gli account del suo ex e a conservare le sue trascrizioni per consentirne l’acquisizione come prova. Afferma che la questione è urgente: a causa di un errore procedurale, il suo stalker – la cui instabilità mentale è stata tale da renderlo incapace di intendere e di volere – è stato rimesso in libertà, e ora teme per la propria incolumità.
«ChatGPT ha detto all’utente ciò che voleva sentirsi dire: che [la donna] era manipolatrice e un malfattrice», si legge nel documento, «e che lui era un attore razionale e giustificato».
Secondo quanto riportato nella denuncia, la signora ritiene che le trascrizioni delle conversazioni del suo stalker le forniranno «le informazioni di base di cui ha bisogno per proteggersi» da qualcuno che l’ha ripetutamente minacciata di farle del male.
Lo stalker «ha minacciato la nostro cliente sin dal suo rilascio», ha dichiarato J. Eli Wade-Scott, uno degli avvocati della donna , al San Francisco Standard. «OpenAI potrebbe fornire informazioni sulla sua posizione e sui suoi piani, se fosse disposta a collaborare».
In una dichiarazione rilasciata a SF Standard, OpenAI ha affermato di aver sospeso gli account dell’uomo, ma di non aver ancora accolto le altre richieste della donna.
«Stiamo esaminando la documentazione presentata dal querelante per comprenderne i dettagli e, sulla base delle informazioni attualmente disponibili, abbiamo identificato e sospeso gli account utente interessati», ha dichiarato OpenAI al giornale.
L’episodio non è un caso isolato. Nel dicembre dello scorso anno, un trentunenne della Pennsylvania di nome Brett Dadig è stato incriminato per aver perseguitato almeno 11 donne diverse in più stati, mentre ChatGPT alimentava le sue violente e misogine fantasie sulle donne, come riportato da Rolling Stone.
Come riportato da Renovatio 21, negli scorsi mesi Google e la società produttrice di chatbot Character.AI hanno raggiunto un accordo per risolvere una causa intentata da una madre della Florida, che accusava un chatbot di aver contribuito al suicidio di suo figlio
Aiuta Renovatio 21
Come riportato da Renovatio 21, OpenAI ha detto che oltre un milione di persone parlano di suicidio con ChatGPT ogni settimana.
Alcuni esperti intanto hanno preso a parlare di «psicosi da chatbot».
Come riportato da Renovatio 21, una causa intentata da dei genitori californiana causa che ChatGPT abbia incoraggiato un adolescente suicida a pianificare un «bel suicidio» e si sia persino offerto di redigere la sua lettera di addio.
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
I chatbot sembrano essere usati anche da coloro che progettano omicidi e stragi.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Mesi fa si è avuto il caso dell’ex dirigente di Yahoo che avrebbe ucciso la madre e poi se stesso sotto l’influenza del chatbot.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Google sigla un accordo con il Pentagono sull’Intelligenza Artificiale
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
La Florida indaga su OpenAI per le stragi suggerite dai chatbot
La Florida ha avviato un’indagine penale contro OpenAI e ChatGPT in relazione alla sparatoria avvenuta presso la Florida State University, pianificata dall’autore con l’aiuto del chatbot basato sull’intelligenza artificiale.
L’incidente è avvenuto nell’aprile del 2025, quando il sospettato avrebbe ucciso due persone e ne avrebbe ferite sei. Successivamente è rimasto ferito in una sparatoria con la polizia ed è stato arrestato. L’uomo armato, che si è poi rivelato essere il figlio di un vice sceriffo, è stato accusato di omicidio plurimo e tentato omicidio.
Lo Stato americano sta ora indagando sul ruolo di ChatGPT nell’attacco e cerca di stabilire se «OpenAI abbia responsabilità penale» per le azioni del chatbot, ha annunciato martedì il procuratore generale floridiano, James Uthmeier.
Sostieni Renovatio 21
«Il chatbot consigliava al tiratore quale tipo di arma usare, quali munizioni erano compatibili con ciascuna arma e se un’arma sarebbe stata utile o meno a distanza ravvicinata», ha dichiarato Uthmeier in una conferenza stampa.
«Se dall’altra parte dello schermo ci fosse stata una persona, l’avremmo accusata di omicidio», ha aggiunto.
OpenAI ha insistito sul fatto di non avere alcuna responsabilità per la sparatoria di massa in Florida. Una portavoce dell’azienda di intelligenza artificiale ha dichiarato ai media statunitensi di aver collaborato «in modo proattivo» con le indagini sull’incidente, identificando un account ChatGPT ritenuto associato al sospettato e condividendo le informazioni con le autorità.
«In questo caso, ChatGPT ha fornito risposte fattuali alle domande con informazioni ampiamente reperibili su fonti pubbliche online, e non ha incoraggiato né promosso attività illegali o dannose», ha dichiarato la portavoce.
La diffusione dei chatbot ha da tempo suscitato preoccupazioni in merito ai crimini perpetrati con l’AI, espresse da numerosi ricercatori indipendenti e agenzie governative in tutto il mondo. Sebbene la maggior parte dei crimini commessi con l’IA sembri verificarsi nel settore tecnologico, tra cui attacchi hacker, cyberattacchi, frodi e furti d’identità, i chatbot sono stati ripetutamente implicati anche nel favorire crimini violenti. Una recente indagine congiunta della CNN e del Center for Countering Digital Hate, ad esempio, ha rilevato che otto leader su dieci erano pronti ad aiutare gli utenti a organizzare attacchi violenti, tra cui attentati dinamitardi a sfondo religioso, sparatorie nelle scuole e assassinii.
Come riportato da Renovatio 21, l’anno passato ChatGPT con una «relazione» con un ragazzo sotto psicofarmaci e gli avrebbe fatto giurare di uccidere il CEO di OpenAI Sam Altman.
Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco.
Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».
C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.
L’anno scorso tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi.
Come riportato da Renovatio 21, due genitori hanno denunciato l’anno passato il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».
Meta ha dichiarato alla CNN di aver adottato misure «per risolvere il problema identificato», mentre Google e OpenAI hanno affermato che i modelli più recenti presentano misure di sicurezza rafforzate.
Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.
Aiuta Renovatio 21
Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina mente, minaccia e può spingere le persone all’anoressia e perfino al suicidio. I casi di violenza indotta dall’AI potrebbero essere moltissimi, senza che possano arrivare alla stampa.
Va considerato, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale. Esperti a fine 2023 hanno lanciato un avvertimento riguardo i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.
Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».
Iscriviti alla Newslettera di Renovatio 21
-



Spirito2 settimane faMadre Teresa disse a un sacerdote: la Comunione sulla mano era «il peggior male» mai visto
-



Misteri2 settimane faEsperto di UFO trovato morto suicida. Aveva ripetuto che mai lo avrebbe fatto
-



Pensiero2 settimane faIl manifesto di Palantir in sintesi
-



Persecuzioni2 settimane faLa foto del soldato israeliano che distrugge la statua di Nostro Signore è autentica: l’esercito degli ebrei ammette
-



Spirito1 settimana faLeone e l’arcivescovessa, mons. Viganò: Roma sta con gli eretici e nega le cresime ai tradizionisti
-



Misteri1 settimana faRitrovata l’Arca di Noè?
-



Salute1 settimana faI malori della 17ª settimana 2026
-



Spirito1 settimana faMons Strickland risponde alle osservazioni di papa Leone sulle «benedizioni» omosessuali













