Intelligence

Sindaco nega di utilizzare l’intelligenza artificiale per le decisioni amministrative

Pubblicato

il

Il sindaco della metropoli canadese di Vancouver, Ken Sim, ha precisato che i sistemi di intelligenza artificiale non vengono impiegati per assumere decisioni a livello comunale, dopo che alcune sue affermazioni sull’uso di assistenti digitali per gestire parte del suo lavoro avevano acceso un dibattito online, secondo quanto riportato dai media locali.

 

Le polemiche sono scaturite dopo che il Sim ha dichiarato, durante una conferenza tecnologica all’inizio di questa settimana, di avere «11 agenti di intelligenza artificiale» che gestiscono «gran parte» del suo lavoro «in background». I critici, tra cui il candidato sindaco Kareem Allam, hanno espresso dubbi sulla gestione delle informazioni sensibili e hanno messo in guardia contro possibili fughe di dati legate a servizi di intelligenza artificiale di terze parti.

 

Mercoledì, il Sim ha chiarito che gli strumenti di intelligenza artificiale non vengono utilizzati per prendere decisioni politiche o di governo presso il municipio di Vancouver, aggiungendo che la tecnologia serve principalmente per il supporto amministrativo, la ricerca e le attività di produttività. Ha spiegato che i sistemi lo aiutano a consultare le notizie, seguire gli eventi finanziari e globali e gestire la pianificazione alimentare.

Sostieni Renovatio 21

Le dichiarazioni di Sim sull’utilizzo di agenti di intelligenza artificiale sono arrivate mentre il governo federale canadese annunciava l’intenzione di sostenere la costruzione di due nuovi centri dati per l’IA a Vancouver. Secondo quanto riportato questa settimana dal National Observer canadese, Ottawa ha speso oltre 800 milioni di dollari canadesi (oltre 499 milioni di euro) in tecnologie e servizi legati all’IA negli ultimi tre anni.

 

L’episodio si verifica in un momento in cui i governi di tutto il mondo adottano sempre più sistemi di intelligenza artificiale per il lavoro amministrativo, l’analisi dei dati e i servizi pubblici, sostenendo che la tecnologia può migliorare l’efficienza e ridurre i costi.

 

Paesi come Singapore e gli Emirati Arabi Uniti hanno integrato la tecnologia nelle operazioni governative, mentre l’Albania lo scorso anno ha nominato un «ministro» generato dall’IA per sovrintendere ad alcune parti del suo sistema di appalti pubblici.

 

Al contempo, sono aumentate le preoccupazioni relative ai rischi connessi all’AI, tra cui la disinformazione, gli attacchi informatici, le violazioni della privacy, l’uso criminale, la perdita di posti di lavoro, gli effetti sulla salute mentale e il ruolo crescente dei sistemi automatizzati nei processi decisionali critici.

 

Le cronache di questi mesi hanno riportato di casi di persone che lasciano prendere ogni decisione della propria vita dai chatbot. Gli esiti, come sappiamo, a volte sono letali.

 

La diffusione dei chatbot ha da tempo suscitato preoccupazioni in merito ai crimini perpetrati con l’AI, espresse da numerosi ricercatori indipendenti e agenzie governative in tutto il mondo. Sebbene la maggior parte dei crimini commessi con l’IA sembri verificarsi nel settore tecnologico, tra cui attacchi hacker, cyberattacchi, frodi e furti d’identità, i chatbot sono stati ripetutamente implicati anche nel favorire crimini violenti. Una recente indagine congiunta della CNN e del Center for Countering Digital Hate, ad esempio, ha rilevato che otto leader su dieci erano pronti ad aiutare gli utenti a organizzare attacchi violenti, tra cui attentati dinamitardi a sfondo religioso, sparatorie nelle scuole e assassinii.

 

Come riportato da Renovatio 21, l’anno passato ChatGPT con una «relazione» con un ragazzo sotto psicofarmaci e gli avrebbe fatto giurare di uccidere il CEO di OpenAI Sam Altman.

 

Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco.

 

Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».

 

C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.

 

L’anno scorso tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi.

 

Come riportato da Renovatio 21, due genitori hanno denunciato l’anno passato il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».

 

Meta ha dichiarato alla CNN di aver adottato misure «per risolvere il problema identificato», mentre Google e OpenAI hanno affermato che i modelli più recenti presentano misure di sicurezza rafforzate.

 

Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.

Aiuta Renovatio 21

Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina menteminaccia e può spingere le persone all’anoressia e perfino al suicidio. I casi di violenza indotta dall’AI potrebbero essere moltissimi, senza che possano arrivare alla stampa.

 

Va considerato, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale. Esperti a fine 2023 hanno lanciato un avvertimento riguardo i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.

 

Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.

 

Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 


 

Più popolari

Exit mobile version