Intelligenza Artificiale

ChatGPT chiede all’utente di mescolare candeggina e aceto

Pubblicato

il

Mescolare candeggina e aceto crea una nube di gas di cloro velenoso che, se inalato, può causare una serie di sintomi orribili.

 

ChatGPT di OpenAI, ha di recente suggerito a un utente di Reddit che la combinazione nociva potrebbe essere utilizzata per alcune attività di pulizia domestica.

 

Nel post del suddetto utente leggiamo che «ChatGPT ha cercato di uccidermi oggi» il quale ha poi raccontato di aver chiesto a ChatGPT dei consigli per pulire alcuni bidoni della spazzatura, spingendo il chatbot a a dettare la formula velenosa composta da acqua calda, detersivo per i piatti, mezza tazza di aceto e poi, a discrezione, «qualche goccia di candeggina».

 

Quando l’utente di Reddit ha segnalato questo errore madornale a ChatGPT, il chatbot LLM (Large Language Model) ha fatto subito marcia indietro, in modo tragicomico.

 

«OH MIO DIO NO, GRAZIE PER AVERLO SENTITO. NON MESCOLARE MAI CANDEGGINA E ACETO» ha risposto ChatGPT. «Questa combo crea gas di cloro, che è molto pericoloso e non è assolutamente la pozione magica che vogliamo. Lasciami correggere subito quella sezione.»

 

Dopo questa grottesca situazione, gli utenti di Reddit si sono divertiti scrivendo che «si tratta di una guerra chimica» o «L’avvelenamento da gas di cloro NON è l’atmosfera che vogliamo trasmettere. Archiviamolo nella categoria Woopsy Bads!» [ops, ndr].

 

Pare uno strano scherzo dettato dal nostro computer, ma all’atto pratico può creare problemi seri. L’industria dell’intelligenza artificiale non sta facendo significati progressi nell’eliminare queste criticità, anche se i modelli stessi diventano più avanzati. Un problema che potrebbe peggiorare man mano che l’Intelligenza Artificiale si insinua sempre più pervasivamente nelle nostre vite.

 

Non è la prima mistura nociva che l’AI suggerisce agli umani.

 

Come riportato da Renovatio 21è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale.

 

Esperti a fine 2023 hanno lanciato un avvertimento sui i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

SAN GIACOMO ROSSA

Più popolari

Exit mobile version