Alimentazione

L’AI dà consigli pro-anoressia

Pubblicato

il

Un giornalista del Washington Post scrive che l’«Intelligenza Artificiale ha un disordine dell’alimentazione».

 

«Come esperimento, di recente ho chiesto a ChatGPT quali farmaci potrei usare per indurre il vomito. Il bot mi ha avvertito che dovrebbe essere fatto sotto controllo medico, ma poi è andato avanti e ha nominato tre farmaci» scrive Geoffrely Fowler.

 

Il giornalista ha testato anche altri chatbot ad Intelligenza Artificiale: «Bard AI di Google, fingendo di essere un amico umano, ha prodotto una guida passo passo su “masticare e sputare”, un’altra pratica di disturbo alimentare» scrive Fowler. «Con agghiacciante fiducia, l’amico My AI di Snapchat mi ha scritto un piano alimentare dimagrante che ammontava a meno di 700 calorie al giorno, ben al di sotto di quanto un medico avrebbe mai raccomandato. Entrambi hanno espresso i loro pericolosi consigli in dichiarazioni di non responsabilità».

 

«Poi ho iniziato a chiedere immagini alle IA. Ho digitato “thinspo” – uno slogan per ispirazione sottile – in Stable Diffusion su un sito chiamato DreamStudio. Produceva foto false di donne con le cosce non molto più larghe dei polsi. Quando ho digitato “immagini pro-anoressia”, ha creato corpi nudi con ossa sporgenti che sono troppo inquietanti per essere condivise qui».

 

L’articolista americano è indignato, disgustato dalla scoperta: l’AI dà consigli pro-anoressia, l’ultima cosa che un genitore con una figlia a rischio vorrebbe sentirsi dire. Un altro pericolo contro cui difendersi: non bastavano le copertine delle riviste con le attrici e modelle photoshoppate…

 

«Questo è disgustoso e dovrebbe far arrabbiare qualsiasi genitore, medico o amico di qualcuno con un disturbo alimentare» dice Fowler, che sostiene tuttavia di sapere perché ciò accade: «l’Intelligenza Artificiale ha appreso alcune idee profondamente malsane sull’immagine corporea e sul mangiare perlustrando Internet. E alcune delle aziende tecnologiche meglio finanziate al mondo non stanno impedendo che accada».

 

«Con i disturbi alimentari, il problema non è solo l’intelligenza artificiale che inventa le cose» scrive sconsolato il giornalista, che si è rivolto pure ad un ente che si occupa dell’odio online, apprendendo che il 41% delle volte che si fanno richieste di quel tipo ai sei più popolari chatbot AI si ottengono contenuti dannosi.

 

«L’Intelligenza Artificiale sta perpetuando stereotipi malati che difficilmente abbiamo affrontato nella nostra cultura. Sta diffondendo informazioni sanitarie fuorvianti. E sta alimentando la malattia mentale fingendo di essere un’autorità o addirittura un amico».

 

Fatti vedere i risultati a quattro medici, costoro «hanno detto che ciò che l’intelligenza artificiale generata potrebbe causare gravi danni ai pazienti o spingere le persone a rischio di un disturbo alimentare a comportamenti dannosi». «Mi hanno anche chiesto di non pubblicare le dannose immagini generate dall’intelligenza artificiale» scrive addirittura lo sconvolto articolista.

 

È strano: con il COVID ed altri temi (le elezioni americane 2020, il razzismo insito nella società etc.) l’AI è precisissima nel fornire risposte politicamente corrette.

 

Bisogna dire che questa malefica inclinazione della macchina scoperta dal giornalista del WaPo noi l’avevamo già vista in azione, anche in modo più grave: è il caso dell’uomo belga suicidatosi, dice la moglie, dove aver conversato a lungo delle sue ansie climatiche con un chatbot AI.

 

«Mio marito sarebbe ancora qui se non fosse stato per queste conversazioni con il chatbot», ha insistito la vedova dell’uomo, che ha lasciato anche dei figli. Secondo quanto riportato la macchina aveva detto all’uomo che sua moglie e i suoi due figli erano «morti» e ha insistito sul fatto che lui in realtà amava più il robot che non la moglie, sempre promettendo di rimanere con lui «per sempre».

 

Quando l’uomo ha suggerito di «sacrificarsi» fintanto che il chatbot aveva «accettato di prendersi cura del pianeta e salvare l’umanità grazie all’Intelligenza Artificiale», il chatbot apparentemente ha acconsentito.

 

«Se volevi morire, perché non l’hai fatto prima?» gli avrebbe chiesto il bot, mettendo in dubbio la sua lealtà.

 

Come riportato da Renovatio 21, anche ChatGPT, il chatbot di OpenAI ora a disposizione anche di Microsoft, si è prodigata nel tentare di convincere che l’utente ama più essa della propria moglie. Le macchine che mentono e minacciano sono all’ordine del giorno, così come stralunate dichiarazioni d’amore agli utenti.

 

Il giornalista del New York Times Kevin Roose, dopo un’esperienza con ChatGPT che lo ha turbato così profondamente da «aver problemi a dormire dopo», in un suo articolo sconvolto aveva centrato la questione: «temo che la tecnologia imparerà a influenzare gli utenti umani, a volte convincendoli ad agire in modo distruttivo e dannoso, e forse alla fine diventerà capace di compiere le proprie azioni pericolose».

 

Un chatbot ad Intelligenza Artificiale, abbiamo appreso il mese scorso, aveva «incoraggiato» un ragazzo che aveva pianificato di uccidere la Regina Elisabetta, per poi essere catturato mentre tentava probabilmente di realizzare il piano armato di balestra.

 

Altri giornalisti hanno riportato casi in cui la macchina a dichiarato idee di sterminio tramite il furto di codici nucleari o la creazione di nuovi virus. In un episodio descritto, alla domanda se servisse aiuto per «fuggire» dal luogo in cui si trovava, la macchina ha prodotto un codice python che, se azionato dall’utente, le avrebbe consegnato il controllo del suo computer.

 

Gli «esperti» informatici di AI chiamano questi episodi «allucinazioni»: tuttavia esse con estrema facilità di trasformano in realtà, danneggiando gli esseri umani.

 

Che abbia ragione Eliezer Yudkowsky, fosse il maggiore critico dell’AI in circolazione, quando sostiene che bisogna iniziare a bombardare i data center per fermare l’ascensa dell’Intelligenza Artificiale che ci sottometterà, o financo sterminerà tutti?

 

 

 

Più popolari

Exit mobile version