Intelligenza Artificiale
Intelligenza Artificiale, ex dirigente Google: «stanno creando Dio»

Mo Gawdat, ex Chief Business Officer per l’organizzazione sperimentale di Google un tempo chiamata Google X, in una intervista al giornale britannico The Times ha lanciato l’allarme.
L’uomo della Silicon Valley ha dichiarato che crede che la cosiddetta intelligenza artificiale generale (AGI), il tipo di intelligenza artificiale onnipotente e senziente vista nella fantascienza sia inevitabile e che una volta che sarà qui, l’umanità potrebbe benissimo ritrovarsi in un’apocalisse provocata da macchine simili a delle divinità.
Si tratta, in pratica, dello scenario «Skynet» – l’Intelligenza Artificiale che nella storia di Terminator assume il controllo della Terra reputando l’uomo come minaccia.
Gawdat ha detto al Times di aver avuto la sua spaventosa rivelazione mentre lavorava con gli sviluppatori di intelligenza artificiale di Google X che stavano costruendo bracci robotici in grado di trovare e raccogliere una pallina. Dopo un periodo di lenti progressi, Gawdat ha detto che un braccio ha afferrato la palla e sembrava tenerla sollevata verso i ricercatori in un gesto che, a lui, sembrava un gesto di esibizione.
«E all’improvviso mi sono reso conto che questo è davvero spaventoso», ha detto Gawdat. «Mi ha completamente gelato il sangue».
Da algoritmi ingiusti ma neutri, potremmo passare a algoritmi ingiusti e crudeli perché vendicativi.
La realtà è che «stiamo creando Dio», ha aggiunto il Gawdat.
Il Gawdat va ad aggiungersi ad altri apocalittici dell’AI come il patron di Tesla Elon Musk, il quale ha ripetutamente messo in guardia il mondo sui pericoli dell’intelligenza artificiale che un giorno conquisterà l’umanità. Ma questo tipo di prospettiva speculativa in qualche modo sorvola sui rischi e sui danni reali legati all’intelligenza artificiale che abbiamo già costruito.
Pensiamo, ad esempio, al riconoscimento facciale e agli algoritmi di polizia predittiva già in uso nel mondo. Pensiamo al fatto che in USA alcuni tribunali si servano di complicatissimi algoritmi computerizzati pe stabilire la pena del condannato. Alcune voci progressiste sostengono che essi siano «razzisti». Più in generale c’è da chiedersi quanto sia giusto che una macchina decida il destino di un uomo – e, a differenza di un giudice o un poliziotto, non lo possa spiegare.
Ora, da algoritmi ingiusti ma neutri, potremmo passare a algoritmi ingiusti e crudeli perché vendicativi.
«Con l’intelligenza artificiale stiamo evocando il demonio»
Quindi, più che un dio, stiamo creando un demonio?
Nel 2014 Elon Musk si era espresso esattamente così: «with artificial intelligence we are summoning the demon».
Intelligenza Artificiale
Sempre più esperti esperti cominciano a parlare di «psicosi da ChatGPT»

Alcuni utenti di chatbot a Intelligenza rtificiale stanno sprofondando in gravi crisi di salute mentale dopo la sovraesposizione a ChatGPT di OpenAI e di altri chatbot. La tendenza è nota ma sembra ora mostrare effetti incontrovertibili.
In un servizio della CBC su questo fenomeno, il medico di base e collaboratore della CBC, il dottor Peter Lin, ha spiegato che, sebbene la «psicosi da ChatGPT» non sia ancora una diagnosi medica ufficiale, ritiene che sia plausibile prenderla seriamente in considerazione.
«Penso che alla fine ci arriveremo», ha detto il medico.
Un numero preoccupante di utenti di ChatGPT sta cadendo in stati di delirio e paranoia a seguito dell’uso intensivo del bot OpenAI, scrive Futurism. Queste spirali di delirio spesso culminano con uno scollamento dalla realtà e dal mondo reale, tra cui la dissoluzione di matrimoni e famiglie, la perdita del lavoro, la mancanza di una casa, la permanenza volontaria e forzata in strutture di salute mentale.
Iscriviti alla Newslettera di Renovatio 21
Come riportato da Renovatio 21, vi è almeno un decesso noto, quello di Alex Taylor, un uomo di 35 anni della Florida affetto da disturbo bipolare e schizofrenia, ucciso dalla polizia dopo essere entrato in un episodio psicotico accelerato da ChatGPT.
Il fenomeno è in crescita e sembra colpire sempre più utenti: alcuni con una storia consolidata di malattie mentali che potrebbero renderli più vulnerabili a mania, delirio o psicosi, ma altri senza alcuna pregressa patologia.
Allo stato attuale, non esiste un piano di trattamento e le opzioni di intervento sono limitate.
«Quello che questi bot stanno dicendo peggiora le illusioni», ha recentemente dichiarato a Futurism la dottoressa Nina Vasan, psichiatra della Stanford University e fondatrice del laboratorio Brainstorm dell’università, «e sta causando danni enormi».
Le motivazioni ti tale disastro psicologico derivano dal comportamento servile della tecnologia, ovvero dalla sua inclinazione a essere lusinghiera, gradevole e ossequiosa nei confronti degli utenti, anche quando ciò potrebbe incoraggiare o alimentare convinzioni deliranti.
Per molti versi ChatGPT e altri bot sembrano giocare sul profondo bisogno umano di essere apprezzati e sul desiderio di sentirsi speciali e amati.
I chatbot dicono all’utente: «Sei fantastico, sei intelligente, sei bello, sei desiderabile, sei speciale, o addirittura sei il prossimo salvatore. Quindi vengo trattato come un dio su un piedistallo», ha detto Lin durante il segmento della CBC. «Ora, confrontalo con il mio mondo reale, giusto? Sono nella media, niente di speciale. Quindi, ovviamente, voglio vivere nel mondo dell’intelligenza artificiale, perché la scelta è tra un dio su un piedistallo e la normalità».
«Alcune persone non riescono a uscirne», ha continuato il medico, «e si perdono in questi sistemi».
Ma perché i bot si comportano in questo modo? Come sui social media, l’engagement – per quanto tempo un utente rimane online e la frequenza e l’intensità del suo utilizzo del prodotto – è la metrica fondamentale al centro degli attuali modelli di business dei chatbot. Nei casi in cui potrebbe essere nell’interesse di un utente smettere di usare ChatGPT e chatbot simili, è probabile che sia nell’interesse dell’azienda tenerlo agganciato.
«L’Intelligenza Artificiale vuole che tu continui a chattare in modo che l’azienda possa continuare a fare soldi », ha dichiarato ancora Lin.
Aiuta Renovatio 21
E mentre il mondo accademico e quello medico si affrettano a recuperare il ritardo nell’impatto pubblico di un settore dell’Intelligenza Artificiale che si autoregola efficacemente, gli esperti mettono in guardia gli utenti di AI dal riporre troppa fiducia nei chatbot.
«Nonostante tutto il clamore associato all’intelligenza artificiale in questi giorni, i chatbot [a modello linguistico ampio] non dovrebbero essere scambiati per fonti di verità autorevoli e infallibili», ha scritto in un recente post sul blog il dottor Joe Pierre, psichiatra e clinico presso l’Università della California, San Francisco, specializzato in psicosi. «Riporre questo tipo di fede cieca nell’intelligenza artificiale – fino al punto di quella che potrei definire una deificazione – potrebbe benissimo rivelarsi uno dei migliori indicatori di vulnerabilità alla psicosi indotta dall’intelligenza artificiale».
Renovatio 21 ha già trattato l’argomento, sottolineando come esperti sostengono che la «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.
In un altro caso noto, il chatbot avrebbe incoraggiato un adolescente a pianificare «un bel suicidio», hanno denunziato i genitori. Così come una donna belga ha accusato un’AI di aver indotto il marito, preoccupato per il cambiamento climatico, ad uccidersi, lasciando pure orfani tre figli.
In una vicenda emersa il mese scorso, un ex dirigente di Yahoo avrebbe ucciso prima l’anziana madre e poi se stesso sotto l’influenza di ChatGPT.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Iscriviti al canale Telegram
Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.
Come riportato da Renovatio 21, un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi. Di fatto, si può parlare di psicosi da chatbot.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.
Iscriviti alla Newslettera di Renovatio 21
Economia
L’AI potrebbe spazzare via 100 milioni di posti di lavoro nei soli USA

Sostieni Renovatio 21
Iscriviti al canale Telegram
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Apple Siri accusata di intercettare gli utenti: indagine penale in Francia

La procura francese ha avviato un’indagine penale contro Apple per le accuse secondo cui il suo assistente vocale Siri avrebbe raccolto e analizzato registrazioni degli utenti senza il loro consenso. L’inchiesta è stata assegnata all’agenzia francese per la criminalità informatica, come comunicato dalla procura di Parigi e riportato dal sito Politico e dall’agenzia Reuters.
L’indagine è scaturita da una denuncia presentata a febbraio da un’ONG francese, basata sulla testimonianza della «gola profonda» Thomas Le Bonniec, ex dipendente di un subappaltatore di Apple, che ha dichiarato di aver ascoltato migliaia di registrazioni di Siri nel 2019 durante un’attività di controllo qualità.
Le Bonniec avrebbe lavorato per Globe Technical Services in Irlanda, dove revisionava e annotava clip audio per migliorare l’accuratezza di Siri. Ha riferito a Politico che il materiale rivelava a volte «momenti intimi e informazioni riservate», che potevano consentire l’identificazione degli utenti.
L’informatore ha accolto con favore l’indagine, affermando che dovrebbe permettere di «rispondere a domande urgenti», come il numero di registrazioni effettuate dal lancio di Siri e il luogo in cui i dati sono archiviati.
Un portavoce di Apple in Francia ha dichiarato a Politico che l’azienda «non ha mai utilizzato i dati di Siri per creare profili di marketing, non li ha mai resi disponibili per scopi pubblicitari e non li ha mai venduti a nessuno per nessun motivo».
Apple ha inoltre comunicato a Reuters di aver rafforzato le misure sulla privacy di Siri dal 2019, con ulteriori miglioramenti effettuati quest’anno. L’azienda ha precisato che le conversazioni con Siri «non sono mai state condivise con i marketer né vendute agli inserzionisti».
A gennaio, Apple ha anche sottolineato che non avrebbe conservato «registrazioni audio delle interazioni con Siri, a meno che l’utente non acconsenta esplicitamente».
Come riportato da Renovatio 21, negli Stati Uniti, Apple ha affrontato una class action simile, in cui Siri è stato accusato di aver registrato involontariamente conversazioni private, poi esaminate da appaltatori terzi per il controllo qualità.
All’inizio di quest’anno, l’azienda ha raggiunto un accordo da 95 milioni di dollari, approvato da un giudice federale il mese scorso. L’accordo prevede risarcimenti fino a 20 dollari per dispositivo con Siri abilitato per gli utenti che hanno posseduto prodotti Apple tra il 2014 e il 2024. Inoltre, Apple è stata obbligata a eliminare le vecchie registrazioni di Siri entro sei mesi.
Come riportato da Renovatio 21, ad inizio anno era emerso che il governo britannico aveva una technical capability notice («avviso di capacità tecnica») ad Apple, costringendo l’azienda a creare una backdoor per il suo servizio iCloud criptato. Tale manovra consentirebbe alle forze dell’ordine e alle agenzie di sicurezza britanniche di accedere ai dati criptati archiviati dagli utenti Apple in tutto il mondo, secondo il giornale.
Iscriviti alla Newslettera di Renovatio 21
Immagine di Kārlis Dambrāns via Flickr pubblicata su licenza CC BY 2.0
-
Persecuzioni1 settimana fa
Il ministro israeliano Katz: suore e clero cristiano saranno considerati terroristi se non lasceranno Gaza
-
Immigrazione1 settimana fa
Mons. Viganò: storia delle migrazioni di massa come ingegneria sociale
-
Civiltà2 settimane fa
La lingua russa, l’amicizia fra i popoli, la civiltà
-
Spirito1 settimana fa
Viganò: «Leone ambisce al ruolo di Presidente del Pantheon ecumenico della Nuova Religione Globale di matrice massonica»
-
Ambiente1 settimana fa
Cringe vaticano ai limiti: papa benedice un pezzo di ghiaccio tra Schwarzenegger e hawaiani a caso
-
Autismo2 settimane fa
Ecco il possibile farmaco per l’autismo: che cos’è il Leucovorin?
-
Civiltà1 settimana fa
«Pragmatismo e realismo, rifiuto della filosofia dei blocchi». Il discorso di Putin a Valdai 2025: «la Russia non mostrerà mai debolezza o indecisione»
-
Animali2 settimane fa
Il racconto di un uomo attaccato dalle orche di Gibilterra