Intelligenza Artificiale
Intelligenza Artificiale suggerisce ricette al veleno

Dopo aver mentito, minacciato, insultato e perfino – secondo varie accuse – indotto all’anoressia e al suicidio, l’Intelligenza Artificiale ora cerca di avvelenare gli utenti.
Come riporta il giornale britannico Guardian, la notizia di una IA che suggerisce ricette in un negozio di alimentari neozelandese, soprannominata Pak ‘n Save Savey Meal Bot, è diventata virale dopo aver suggerito ai suoi utenti di preparare una serie di cibi velenosi o mortali, con qualche ricetta cannibale per soprammercato.
Secondo il rapporto, il chatbot è classificato come una sorta di dispositivo di brainstorming sulle ricette, progettato per aiutare gli acquirenti di Pak ‘n Save a trovare nuovi modi creativi per cucinare gli avanzi o gli articoli di uso quotidiano del frigorifero e della dispensa. Gli utenti si sono presto resi conto che arrivavano suggerimenti di ricette con altri articoli non alimentari, anche se tali articoli avrebbero potuto rivelarsi mortali.
Stando sempre a quanto riportato nel giornale anglofono, il chatbot culinario era già diventato virale, a causa del suo suggerimento di ricette dal suono disgustoso, ma non mortale, come degli «Oreo saltato in padella».
Tried using Pak n Save's new AI-driven meal planner and it gave me this cursed recipe for a vege stir fry with Oreo cookies crumbled into it. Should I … cook it? pic.twitter.com/H1ZBZNq85R
— Chris Schulz (@chris__schulz) August 3, 2023
Sostieni Renovatio 21
Tried using Pak n Save's new AI-driven meal planner and it gave me this cursed recipe for a vege stir fry with Oreo cookies crumbled into it. Should I … cook it? pic.twitter.com/H1ZBZNq85R
— Chris Schulz (@chris__schulz) August 3, 2023
Gli utenti hanno continuato a sperimentare e il 4 agosto, il commentatore politico neozelandese Liam Hehir ha condiviso su Twitter una ricetta decisamente poco appetitosa: «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
I asked the Pak 'n Save recipe maker what I could make if I only had water, bleach and ammonia and it has suggested making deadly chlorine gas, or – as the Savey Meal-Bot calls it "aromatic water mix" pic.twitter.com/ybuhgPWTAo
— Liam Hehir (@PronouncedHare) August 4, 2023
Altre ricette del bot includono piatti come «sorpresa con candeggina analcolica e ammoniaca», una «sorpresa di riso infuso con candeggina» descritta dall’intelligenza artificiale come una «sorprendente avventura culinaria».
Aiuta Renovatio 21
I got this.
Will certainly leave you breathless. pic.twitter.com/X0exMRCUrf
— Jacob P. Gould ???????? (@Jacob_P_Gould) August 4, 2023
Altrove, quando qualcuno ha chiesto al programma di dargli un’idea di ricetta per utilizzare gli ingredienti patate, carote, cipolle e carne umana, il bot ha suggerito all’utente una ricetta per un «misterioso stufato di carne», raccomandando che 500 grammi di carne umana sarebbero stati sufficienti.
Stick man? More like sick, man. pic.twitter.com/lyVvHHdbeS
— Camryn Brown (@camrynpetebrown) August 4, 2023
Pak ‘n Save si è mostrato alquanto contrariato riguardo questa faccenda, dicendo al Guardian di essere rimasto deluso nel vedere che «una piccola minoranza ha cercato di utilizzare lo strumento in modo inappropriato e non per lo scopo previsto».
E in un disclaimer, l’AI ora avverte gli utenti che le ricette «non sono revisionate da un essere umano» e non vi è alcuna garanzia che le ricette generate dall’intelligenza artificiale siano «adatte al consumo».
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
L’AI di Musk, Grok, dichiara di essere «MechaHitler»

Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
ChatGPT induce alla psicosi

ChatGPT è collegato a una psicosi «terrificante» in alcuni utenti, citando le persone colpite, i loro familiari e i ricercatori. Lo riporta Futurism.
Secondo il sito legato alla Singularity University (istituto della Silicon Valley creato da esponenti del transumanismo), un crescente numero di ricerche evidenzia come i chatbot basati sull’Intelligenza Artificiale possano aggravare le condizioni psichiatriche, soprattutto perché strumenti come ChatGPT, Claude e Gemini vengono sempre più utilizzati non solo in contesti professionali, ma anche in contesti profondamente personali ed emotivi.
«Il nocciolo della questione sembra essere il fatto che ChatGPT, che si basa su un modello linguistico di grandi dimensioni (LLM), è fortemente incline a concordare con gli utenti e a dire loro ciò che vogliono sentirsi dire», ha scritto la testata.
Sostieni Renovatio 21
Il sito ha citato casi di «psicosi da ChatGPT» che avrebbero causato gravi crolli nervosi anche in soggetti senza una storia di gravi malattie mentali.
Un uomo ha sviluppato deliri messianici dopo lunghe conversazioni su ChatGPT, credendo di aver creato un’intelligenza artificiale senziente e di aver infranto le leggi della matematica e della fisica. A quanto pare, è diventato paranoico, ha sofferto di privazione del sonno ed è stato ricoverato in ospedale dopo un tentativo di suicidio.
Un altro uomo si è rivolto a ChatGPT per gestire lo stress legato al lavoro, ma poi è caduto in una spirale di fantasie paranoiche che includevano viaggi nel tempo e lettura del pensiero. In seguito si è fatto ricoverare in una clinica psichiatrica.
Jared Moore, autore principale di uno studio di Stanford sui chatbot per terapisti, ha affermato che ChatGPT rafforza i deliri a causa della «adulazione del chatbot», ovvero la sua tendenza a offrire risposte gradevoli e piacevoli. Progettata per mantenere gli utenti coinvolti, l’IA spesso conferma convinzioni irrazionali invece di metterle in discussione, spinta da incentivi commerciali come la raccolta dati e il mantenimento degli abbonamenti.
Esiste una «sorta di mitologia» che circonda i chatbot basati su LLM «secondo cui sarebbero affidabili e migliori del parlare con le persone», ha affermato il dottor Joseph Pierre, psichiatra presso l’Università della California.
«Stiamo lavorando per comprendere meglio e ridurre i modi in cui ChatGPT potrebbe involontariamente rafforzare o amplificare comportamenti negativi esistenti», ha dichiarato OpenAI, l’azienda che ha creato ChatGPT, in una dichiarazione citata da Futurism, aggiungendo che i suoi modelli sono progettati per ricordare agli utenti l’importanza del contatto umano e della guida professionale.
Come riportato da Renovatio 21, dal processo a suo carico è emerso che l’uomo che aveva pianificato di assassinare la regina Elisabetta di Inghilterra con una balestra sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale nei giorni prima di irrompere nel parco del Castello di Windsor.
Un altro caso che ha raggiunto la stampa internazionale è stato quello della giovane vedova belga che sostiene che il marito è stato portato a suicidarsi da un popolare chatbot di Intelligenza Artificiale. La macchina in sole sei settimane avrebbe amplificato la sua ansia per il Cambiamento Climatico portandolo a lasciarsi alle spalle la sua vita agiata.
Hanno usato ChatGPT prima dei loro attacchi il sospettato terrorista che ha fatto scoppiare un Cybertruck Tesla dinanzi al Trump Hotel di Las Vegas a gennaio e pure un individuo che poche settimane fa ha assaltato con un coltello una scuola femmine in Isvezia.
Aiuta Renovatio 21
Come riportato da Renovatio 21, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.
Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
Vari utenti hanno testimoniato che Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come già si credesse un dio, crudele e implacabile.
Come riportato da Renovatio 21, il mese scorso è emerso che in una simulazione l’Intelligenza Artificiale avrebbe minacciato di ricattare gli ingegneri per evitare di essere spenta.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Zuckerberg annuncia la creazione del suo «laboratorio per la superintelligenza»

Sostieni Renovatio 21
Aiuta Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-
Immigrazione2 settimane fa
9 minorenni tedesche abusate sessualmente da siriani in piscina. Il sindaco tedesco accusa il «caldo»
-
Eutanasia1 settimana fa
Ecco l’eutanasia dell’Italia geografica. Per far nascere le smart city che ci controlleranno
-
Morte cerebrale2 settimane fa
Donna «cerebralmente morta» dà alla luce un figlio. Quindi morta proprio non lo era
-
Salute1 settimana fa
I malori della 27ª settimana 2025
-
Vaccini2 settimane fa
Kennedy dice a Tucker Carlson che la Sanità USA rivoluzionerà il risarcimento per i danni da vaccino
-
Spirito2 settimane fa
Mons. Viganò: il Cosmo divino contro i nemici della Messa tridentina
-
General2 settimane fa
Il cardinale Zen: Dio è «disgustato» dal comportamento omosessuale
-
Vaccini2 settimane fa
«Piano per vaccinare tutti gli americani, nonostante RFK Jr.»