Bizzarria
Verbale IA dice che un poliziotto si trasforma in una rana. Ricordando quando un ladro zambiano si mutò in serpente
Le forze dell’ordine hanno rapidamente adottato l’Intelligenza Artificiale per ogni ambito, dalla stesura dei rapporti di polizia al riconoscimento facciale.
I risultati sono stati di prevedibile grande bizzarria. In un caso particolarmente eclatante – e involontariamente comico – il dipartimento di polizia di Heber City, nello Stato statunitense dello Utah, è stato costretto a spiegare perché un software per la gestione dei rapporti di polizia dichiarasse che un agente si era in qualche modo trasformato in una rana.
Come riporta Fox 13 di Salt Lake City, lo strumento difettoso sembra aver preso spunto da alcune chiacchiere di sottofondo non pertinenti per ideare il suo fantastico finale da favola.
Sostieni Renovatio 21
«Il software della body cam e il software di scrittura dei report basati sull’Intelligenza Artificiale hanno individuato il film in riproduzione in sottofondo, che per l’appunto era La principessa e il ranocchio», ha dichiarato il sergente di polizia Rick Keel all’emittente, riferendosi alla commedia musicale Disney del 2009. «È stato allora che abbiamo capito l’importanza di correggere questi report generati dall’Intelligenza Artificiale».
Il dipartimento aveva iniziato a testare un software basato sull’intelligenza artificiale chiamato Draft One per generare automaticamente verbali di polizia a partire dai filmati delle bodycam. L’obiettivo era ridurre la quantità di scartoffie burocratiche, ma considerando che errori enormi vengono spesso ignorati, i risultati variano notevolmente.
Anche un semplice controllo simulato del traffico, volto a dimostrare le capacità dello strumento, si è trasformato in un disastro. Il rapporto finale ha richiesto numerose correzioni, secondo Fox 13.
Nonostante gli svantaggi, Keel ha dichiarato al giornale che lo strumento gli fa risparmiare «da sei a otto ore alla settimana». «Non sono una persona molto esperta di tecnologia, quindi è molto intuitivo», ha aggiunto.
La prima bozza è stata annunciata per la prima volta l’anno scorso dall’azienda tecnologica Axon, la stessa che ha ideato il Taser, una popolare arma a elettroshock. Il software utilizza i modelli di linguaggio GPT di OpenAI per generare interi rapporti di polizia a partire dall’audio delle bodycam.
Gli esperti hanno subito lanciato l’allarme: le allucinazioni potrebbero passare inosservate in questi importanti documenti. «Temo che l’automazione e la semplicità della tecnologia possano indurre gli agenti di polizia a essere meno attenti nella scrittura», ha dichiarato l’anno scorso all’Associated Press Andrew Ferguson, professore di diritto presso l’American University.
Altri avvertono che il software potrebbe alimentare pregiudizi razziali e di genere preesistenti, una possibilità preoccupante considerando il ruolo storico delle forze dell’ordine nel perpetuarli ben prima dell’avvento dell’intelligenza artificiale. È stato anche dimostrato che gli strumenti di intelligenza artificiale generativa perpetuano pregiudizi sia nei confronti delle donne che delle persone non bianche.
«Il fatto che la tecnologia venga utilizzata dalla stessa azienda che fornisce i Taser al dipartimento è abbastanza allarmante», ha dichiarato all’AP Aurelius Francisco, cofondatore della Foundation for Liberating Minds di Oklahoma City.
I critici sostengono inoltre che lo strumento potrebbe essere utilizzato per introdurre la negazione e rendere gli agenti meno responsabili nel caso in cui gli errori dovessero passare inosservati. Secondo una recente indagine dell’Electronic Frontier Foundation, la Bozza Uno «sembra deliberatamente progettata per evitare verifiche che potrebbero comportare una qualsiasi responsabilità nei confronti del pubblico».
Secondo i documenti ottenuti dal gruppo, «spesso è impossibile stabilire quali parti di un rapporto di polizia siano state generate dall’Intelligenza Artificiale e quali siano state scritte da un agente». «Axon e i suoi clienti sostengono che questa tecnologia rivoluzionerà l’attività di polizia, ma resta da vedere come cambierà il sistema di giustizia penale e chi trarrà i maggiori benefici da questa tecnologia», ha scritto la Fondazione.
La vicenda poliziotto trasformato in ranocchio non è tuttavia la metamorfosi più incredibile riportata dalle cronache giudiziarie.
A Renovatio 21 sovviene l’impareggiabile caso, avvenuto in un contesto atecnologico e pure in un momento in cui l’IA non esisteva ancora, del criminale zambiano che si trasformò in serpente, mentre la polizia locale fu lasciata a brancolare nel buio: così almeno dice l’articolo del Times of Zambia, inviato a suo tempo a Renovatio 21 da lettori dello Zambia, Paesi dove il sito che state leggendo va fortissimo.
Aiuta Renovatio 21
«La polizia ha intensificato le indagini su un caso in cui un presunto ladro si sarebbe trasformato in un serpente» scriveva la testata africana a ridosso dell’incredibile evento. «Si ritiene che uno dei due uomini trovati nel porcile si sia trasformato in un pitone dopo essere stato arrestato dal custode della fattoria nella zona di Solomboni».
È raccontato che l’eroico custode «si sia avventato sull’uomo dopo averlo visto insieme al suo complice aggirarsi nei pressi del porcile, ma con sua sorpresa il presunto ladro si è trasformato in un pitone, mentre il complice è scappato».
«L’incidente è avvenuto intorno all’una di domenica e il sospettato non è stato ancora identificato» riporta amaramente il giornale. «Il capo della polizia della provincia di Lusaka ha dichiarato ieri in un’intervista che non ci sono nuovi sviluppi nel caso, ma che la polizia ha intensificato le indagini».
Ecco, all’AI che trasforma i poliziotti in rane per i verbali, preferiamo i giornali che ci parlano di criminali che si metamorfosano in pitoni e fuggono strisciando nell’oscurità.
Meno Intelligenza Artificiale, più magia africana. Fino ad un certo punto.
Iscriviti alla Newslettera di Renovatio 21