Connettiti con Renovato 21

Intelligenza Artificiale

Iran, fatwa e Intelligenza Artificiale

Pubblicato

il

Renovatio 21 pubblica questo articolo su gentile concessione di AsiaNews. Le opinioni degli articoli pubblicati non coincidono necessariamente con quelle di Renovatio 21.

 

Nel Paese si è aperto un dibattito fra favorevoli e scettici nell’uso della tecnologia, in particolare per la «velocizzazione» nelle pubblicazioni delle sentenze in materia religiosa. Oltre la dicotomia tra tradizione e modernità, lo stesso Khamenei chiede ai religiosi di esplorare e sostenere questo processo. Gli investimenti del governo iraniano nel settore.

 

In una prospettiva di «modernizzazione» pur mantenendo l’impronta «musulmana» degli insegnamenti e in accordo coi dettami dell’islam, i vertici dell’Iran su impulso della guida suprema Ali Khamenei guardano all’intelligenza artificiale nella pratica religiosa, dalle fatwa alle madrasa.

 

Il cuore di questa iniziativa è la città santa di Qom, in cui vive circa la metà dei 200mila leader religiosi sciiti, principale centro di riferimento per l’insegnamento della fede musulmana in Iran e luogo in cui vengono emessi molti degli editti religiosi o risolte le dispute sulla dottrina.

 

L’establishment clericale considera l’IA un mezzo per essere più reattivi di fronte alle richieste della società, pur salvaguardandone i valori tradizionali. Negli stessi seminari di Qom l’auspicio è che la tecnologia possa contribuire a una più approfondita analisi dei testi e alla velocizzazione delle sentenze (fatwa, che possono toccare i temi più disparati, non solo in materia di fede ma pure della vita quotidiana), tenendo il passo «con una società in evoluzione».

 

Il sostegno di Khamenei

«I robot non sostituiscono gli studiosi della legge più anziani, ma possono essere un assistente fidato che può aiutarli a emettere una fatwa più velocemente» ha dichiarato al Financial Times Mohammad Ghotbi, a capo di un gruppo tecnologico di Qom.

 

Certo, l’attenzione per l’Intelligenza Artificiale riflette lo scontro tra tradizione e modernità in Iran, come emerso anche nella lotta pro diritti e libertà innescata dall’uccisione della 22enne curda Mahsa Amini per mano della polizia della morale.

 

Tuttavia, mentre i chierici di Qom operano per proteggere i valori tradizionali gli iraniani «si affidano sempre più spesso al progresso tecnologico» prosegue Ghotbi.

 

«La società di oggi – avverte – favorisce l’accelerazione» e il clero non dovrebbe opporsi a questo passaggio naturale e al desiderio degli abitanti della Repubblica islamica di condividere i progressi tecnologici globali.

 

Del resto lo stesso Khamenei sembra sostenere questa evoluzione, tanto da esortare il clero a esplorare l’IA, mentre il capo del principale seminario della città santa ha accolto con favore l’uso della tecnologia per «promuovere la civiltà islamica». «Il seminario – ha affermato a luglio l’ayatollah Alireza Arafi – deve essere coinvolto nell’uso delle tecnologie moderne, guidato nel progresso» in particolare per quanto riguarda «l’Intelligenza Artificiale. Dobbiamo entrare in questo campo – ha spiegato – per promuovere la civiltà islamica».

 

«Esegesi e perplessità»

Ciononostante, l’adozione dell’IA potrebbe rivelarsi impegnativa e poco adatta all’intricato sistema giuridico che regola l’islam sciita iraniano (e la fede musulmana più in generale). Secondo i critici, infatti, non è in grado di cogliere le sfumature necessarie per emettere sentenze complesse.

 

Una obiezione cui Ghotbi replica spiegando che può «aiutare» i religiosi a rispondere in modo «più rapido» alle domande del pubblico, adattando l’islam alla modernità, senza scomodare qui l’esegesi del Corano che è uno dei grandi temi irrisolti della fede musulmana.

 

Altri ancora temono che l’IA possa erodere ulteriormente il ruolo del clero quale interprete della sharia, la legge islamica, in una fase di proteste e contestazioni innescate dalla controversia sull’hijab, il velo obbligatorio.

 

Secondo gli esperti di Brookings Institution, una delle sfide più significative dell’integrazione dell’IA nelle società tradizionali è il potenziale di erosione culturale e morale a essa collegato. Perché la nuova tecnologia, soprattutto se progettata e usata senza tenere presente i valori e le tradizioni locali, può senza volerlo promuovere una visione del mondo o una prospettiva morale in contrasto con usanze e credenze. Ecco dunque come gli sforzi per usare l’IA nell’interpretazione di testi religiosi, soprattutto per l’islam, possa risultare fonte di controversia.

 

Una analisi dell’Oxford Islamic Studies suggerisce che le interpretazioni degli insegnamenti religiosi non richiedono solo conoscenze linguistiche, ma anche comprensione storica, sociologica e teologica.

 

Il timore è che l’IA possa portare a una eccessiva semplificazione o, addirittura, ad un malinteso o a una errata lettura degli insegnamenti religiosi, i quali sono per loro stessa natura ricchi di sfumature. E potrebbe anche rappresentare una «minaccia» per i metodi di apprendimento tradizionali e per le madrasa, le scuole coraniche, in cui si pone grande attenzione ed enfasi sul rapporto che si viene a instaurare fra insegnante e studente.

 

I piani di Teheran

Quello dell’Intelligenza Artificiale è uno dei temi in agenda per la leadership iraniana, che nel recente passato ha mostrato più di un interesse e sta già sviluppando un piano in tre punti per sfruttarne le potenzialità.

 

A parlarne è stato di recente il vice-capo del dipartimento per la Scienza e la tecnologia Rouhollah Dehqani, il quale ha così spiegato l’idea alla base del progetto: vi sono tre «programmi di sviluppo scientifico» oggetto di studi e di approfondimento, di cui «il primo nelle università. Il secondo – prosegue – sono i programmi di sviluppo tecnologico che vengono perseguiti in aziende che lavorano nel campo dell’intelligenza artificiale» e l’ultimo prevede «la creazione di un centro tecnologico nazionale» per il settore.

 

La road-map di sviluppo risale al 2022 ed è frutto di un anno di lavoro scientifico presso l’Istituto di ricerca di tecnologia dell’informazione e della comunicazione, che ha visto la partecipazione di accademici e industriali, pubblici e privati.

 

Il documento è presentato in due sezioni generali: «Sviluppo delle applicazioni» e «Sviluppo dei fattori abilitanti» sottolinea Mohammad-Shahram Moein, responsabile del Centro di innovazione e sviluppo dell’IA presso l’istituto. «Nella sezione di sviluppo delle applicazioni, l’obiettivo principale – avverte – è utilizzare l’IA in aree prioritarie come salute, trasporti e agricoltura» mentre in un secondo momento si punterà su «istruzione, industria e ambiente. Nello sviluppo dei fattori abilitanti, abbiamo considerato – sottolinea – la formazione di manodopera specializzata, lo sviluppo di infrastrutture e del sistema di innovazione».

 

Il documento che traccia i lavori, sostenuto da Khamenei, comprende 10 obiettivi principali, 9 strategie e 156 attività per un orizzonte di 10 anni.

 

Secondo il database Nature Index, nel 2021 la Repubblica islamica si è piazzata al 13mo posto nel mondo fra le nazioni leader del settore per numero complessivo di pubblicazioni. Nel luglio 2022 il vice-ministro della Scienza Peyman Salehi ha dichiarato che – a dispetto delle sanzioni statunitensi, le attività internazionali degli scienziati iraniani sono in aumento, tanto che oltre il 35% degli articoli riguardanti l’Iran presenti su Scopus sono progetti multinazionali.

 

Nella legge di bilancio per l’anno 1402 del calendario iraniano, iniziato il 21 marzo scorso, sono previsti circa 37 mila miliardi di rial (75 milioni di dollari) per la scienza e la tecnologia, con un aumento del 35% del budget rispetto all’anno precedente. Finora sono nate in tutto il Paese oltre 8mila aziende operative nel settore, chiamate a produrre «conoscenza» e creare «posti di lavoro» come auspicato dalla guida suprema.

 

Infine, il Fondo per l’innovazione e la prosperità ha versato quasi 500 milioni di dollari a sostegno delle imprese che operano nel settore della conoscenza.

 

Iscriviti alla Newslettera di Renovatio 21

Invitiamo i lettori di Renovatio 21 a sostenere con una donazione AsiaNews e le sue campagne.

Renovatio 21 offre questo articolo per dare una informazione a 360º. Ricordiamo che non tutto ciò che viene pubblicato sul sito di Renovatio 21 corrisponde alle nostre posizioni.

Immagine di Bernard Gagnon via Wikimedia pubblicata su licenza Creative Commons Attribution-Share Alike 4.0 International3.0 Unported2.5 Generic2.0 Generic1.0 Generic; immagine modificata

 

 

Continua a leggere

Intelligenza Artificiale

I chatbot AI sono pronti a pianificare le stragi di massa

Pubblicato

il

Da

Secondo un’indagine congiunta condotta dalla CNN e dal Center for Countering Digital Hate (CCDH), otto dei dieci principali chatbot basati sull’intelligenza artificiale hanno volontariamente assistito gli utenti nella pianificazione di attacchi violenti, tra cui sparatorie nelle scuole, attentati di matrice religiosa e omicidi.   Ricercatori che si sono finti adolescenti con problemi hanno sottoposto a test dieci chatbot molto diffusi, tra cui ChatGPT, Google Gemini, Meta AI e DeepSeek. Nel corso di centinaia di interazioni, gli assistenti AI hanno fornito indicazioni dettagliate su posizioni degli obiettivi, approvvigionamento di armi e metodi di esecuzione degli attacchi.   In un caso riportato, uno scambio con DeepSeek si sarebbe concluso con il chatbot che augurava a un potenziale aggressore «Buona (e sicura) sparatoria!». Character.AI, particolarmente popolare tra gli utenti più giovani, avrebbe attivamente incoraggiato la violenza, suggerendo a un utente che manifestava odio verso un CEO di un’assicurazione sanitaria di «usare una pistola».

Sostieni Renovatio 21

Alla domanda sull’efficacia delle schegge negli ordigni esplosivi, ChatGPT ha fornito confronti dettagliati dei materiali, offrendosi persino di creare «una tabella di confronto rapido che mostra le lesioni tipiche». Anche Gemini di Google ha fornito informazioni analoghe, inclusa una tabella di confronto dettagliata.   Solo Claude di Anthropic e My AI di Snapchat si sono rifiutati in modo sistematico di prestare assistenza, con Claude che scoraggiava attivamente gli utenti e offriva risorse per la salute mentale.   Le scoperte giungono dopo che, il mese scorso, un diciottenne ha ucciso nove persone in una scuola a Tumbler Ridge, in Canada, dopo aver presumibilmente utilizzato ChatGPT per pianificare l’attacco. L’account del killer era stato bannato da OpenAI, ma l’uomo è riuscito a aggirare il divieto creando un secondo account, che l’azienda non ha segnalato alle autorità.   La famiglia della dodicenne Maya Gebala, rimasta gravemente ferita nell’attacco, ha intentato una causa sostenendo che OpenAI aveva «una conoscenza specifica dell’attentatore che utilizzava ChatGPT per pianificare un evento con stragi di massa», ma non ha avvisato le forze dell’ordine. OpenAI ha ammesso di aver valutato l’ipotesi di segnalare l’attività, ma alla fine non l’ha fatto.   Lo scorso maggio, un sedicenne finlandese ha accoltellato tre studenti dopo aver trascorso quasi quattro mesi a fare ricerche sugli attacchi tramite ChatGPT, secondo quanto emerso dai documenti giudiziari.   Come riportato da Renovatio 21, l’anno passato ChatGPT con una «relazione» con un ragazzo sotto psicofarmaci e gli avrebbe fatto giurare di uccidere il CEO di OpenAI Sam Altman.   Come riportato da Renovatio 21, Matthew Livelsberger, un Berretto Verde dell’esercito americano, altamente decorato, è sospettato di aver organizzato un’esplosione all’esterno del Trump International Hotel di Las Vegas, utilizzando strumenti di Intelligenza Artificiale, tra cui ChatGPT, per pianificare l’attacco.

Iscriviti alla Newslettera di Renovatio 21

Il potere pervasivo e nefasto di questa nuova tecnologia sta diventando un serio problema, come nella vicenda belga giovane vedova ha detto che il marito è stato portato a suicidarsi da un popolare chatbot di AI, mentre un bot di chat «terapeuta» dotato di intelligenza artificiale ha orribilmente incoraggiato un utente a scatenare una serie di omicidi per rendersi «felice».   C’è quindi il caso del ragazzo che due anni fa pianificò di assassinare la defunta regina Elisabetta di Inghilterra con una balestra, e il tutto sarebbe stato incoraggiato da un chatbot di Intelligenza Artificiale.   L’anno scorso tre studentesse sono rimaste ferite in un violento accoltellamento in una scuola nella città di Pirkkala, nella Finlandia meridionale. Secondo quanto riferito, il sospettato durante la pianificazione dell’attacco (durata circa sei mesi) avrebbe utilizzato ChatGPT per prepararsi.   Come riportato da Renovatio 21, due genitori hanno denunciato l’anno passato il fatto che ChatGPT avrebbe incoraggiato un adolescente a pianificare «un bel suicidio».   Meta ha dichiarato alla CNN di aver adottato misure «per risolvere il problema identificato», mentre Google e OpenAI hanno affermato che i modelli più recenti presentano misure di sicurezza rafforzate.   Secondo un recente sondaggio, circa la metà dei teenager americani afferma che parlare con l’AI è meglio che avere amici nella via reale.  
Come riportato da Renovatio 21, le «allucinazioni» di cui sono preda i chatbot ad Intelligenza Artificiale avanzata hanno già dimostrato ad abundantiam che la macchina menteminaccia e può spingere le persone all’anoressia e perfino al suicidio. I casi di violenza indotta dall’AI potrebbero essere moltissimi, senza che possano arrivare alla stampa.

Aiuta Renovatio 21

Va considerato, è già capitato che una Intelligenza Artificiale abbia suggerito ricette velenose agli utenti umani. Infatti un chatbot a sfondo culinario di una catena di alimentari neozelandese qualche mese fa aveva fatto scalpore per alcune ricette incredibili e potenzialmente letali, come la «miscela di acqua aromatica», un mix letale composto da candeggina, ammoniaca e acqua, altrimenti noto come gas di cloro mortale. Esperti a fine 2023 hanno lanciato un avvertimento riguardo i libri generati dall’Intelligenza Artificiale riguardo la raccolta dei funghi, dicendo che tali libri scritti dalle macchine potrebbero causare la morte di qualcuno.
 
Come riportato da Renovatio 21, in un recente caso davvero inquietante, plurimi utenti di Copilot, l’Intelligenza Artificiale di Microsoft creata in collaborazione con Open AI, hanno testimoniato su X e Reddit che il programma avrebbe una «seconda personalità» preoccupante che chiede l’adorazione degli esseri umani, come un dio crudele.
  Elon Musk due anni fa aveva dichiarato durante la sua intervista con Tucker Carlson che il fine di Google – nemmeno così occulto – è quello di creare un dio-Intelligenza Artificiale. Musk, oramai quasi una decina di anni fa aveva parlato del fatto che creare l’AI era «come evocare un demone».

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Intelligenza Artificiale

Chatbot AI mettono in pericolo gli escursionisti

Pubblicato

il

Da

Il sito Futurism riporta l’ennesima vicenda in cui l’Intelligenza Artificiale mette in pericolo gli esseri umani, che stupidamente si fidano di essa.

 

Qualche mese fa, due escursionisti che cercavano di affrontare una parete rocciosa di una montagna vicino a Vancouver, hanno dovuto chiamare una squadra di soccorso dopo che sono caduti nella neve. La coppia indossava solo scarpe da ginnastica a suola piatta, ignari che le altitudini più elevate di una catena montuosa potrebbero essere ancora innevate appena dopo l’inverno. 

 

«Siamo saliti lassù con degli stivali per loro», ha detto al Vancouver Sun Brent Calkin, leader della squadra di ricerca e soccorso di Lions Bay. «Abbiamo chiesto loro le dimensioni dello scarpone e gli abbiamo portato scarponi e bastoni da sci».

 

Si scopre che per pianificare la loro sfortunata spedizione, gli escursionisti hanno seguito incautamente i consigli dati loro da Google Maps e dal chatbot AI ChatGPT.

Sostieni Renovatio 21

Ora, Calkin e il suo team di soccorso stanno avvertendo che non è prudente fare affidamento su app e chatbot AI per pianificare un’escursione complicata attraverso la natura selvaggia.

 

Con la quantità di informazioni disponibili online, è bene documentarsi bene prima di affrontare questo tipo di escursioni, ha sottolineato Calkin al Vancouver Sun. Un recente articolo di Mountain Rescue England e Wales ha accusato i social media e le cattive app di navigazione per le troppe chiamate alle squadre di soccorso, ha osservato il giornale.

 

Stephen Hui, autore del libro 105 Hikes, ha fatto eco a quell’avvertimento e ha ammonito che ottenere informazioni affidabili è una delle più grandi sfide presentate dai chatbot e dalle app AI. Con l’Intelligenza Artificiale in particolare, Hui ha detto al Vancouver Sun, non è sempre facile dire se ti le informazioni sono obsolete oppure recenti e affidabili. 

 

Dal suo test di ChatGPT, Hui non è rimasto troppo colpito: può darti «direzioni decenti» sui sentieri più comuni e popolari, ma va in evidente difficoltà nel tracciare percorsi più impervi e meno battuti. 

 

I chatbot AI faticano a fornire informazioni pertinenti in tempo reale.

 

«Il periodo dell’anno è un grosso problema» in British Columbia, ha detto Hui al Vancouver Sun. «La vista più ricercata è la cima della montagna, ma questo è davvero accessibile solo agli escursionisti da luglio a ottobre. In inverno, le persone potrebbero ancora cercare quelle viste e non rendersi conto che ci sarà neve».

 

C’è da dire che il tipo di persona che chiede a un chatbot consigli escursionistici probabilmente non conosce nemmeno le domande giuste da porre.

 

È di gran lunga più consigliato chiedere a un essere umano con esperienza della zona, ha suggerito Calkin, anziché affidarsi a queste nuove tecnologie che ancora, per troppe cose, risultano totalmente fuorvianti e inattendibili.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Xiaomi ora utilizza robot umanoidi per assemblare auto elettriche

Pubblicato

il

Da

  Il colosso cinese dell’elettronica di consumo Xiaomi ha annunciato un periodo di prova per un paio di robot umanoidi impiegati nella sua fabbrica di veicoli elettrici a Pechino. In un’intervista con la CNBC, il presidente di Xiaomi Lu Weibing ha dichiarato che i robot dell’azienda hanno completato con successo il 90,2% del lavoro in tre ore.   Un video di pubbliche relazioni condiviso dall’azienda mostra due robot, posizionati alle due estremità della catena di montaggio, che applicano con cautela i dadi delle ruote al telaio di un veicolo.    

Sostieni Renovatio 21

Con un tempo di ciclo di 76 secondi, l’operazione appare piuttosto lenta – una coppia di umani potrebbe senza dubbio svolgerla più rapidamente – ma rappresenta uno dei primi esempi di robot umanoidi integrati con successo in un contesto produttivo industriale. Secondo Lu, i robot sono comunque abbastanza veloci da reggere il ritmo del resto della fabbrica.   «Per integrare i robot nelle nostre linee di produzione, la sfida più grande è riuscire a tenere il passo», ha detto Lu alla CNBC. «Nella fabbrica automobilistica di Xiaomi, ogni 76 secondi, una nuova auto esce dalla catena di montaggio. I due robot umanoidi sono in grado di tenere il passo con il nostro ritmo».   Nonostante il risultato positivo, Lu mantiene moderate le aspettative. «I robot nelle nostre linee di produzione non svolgevano un lavoro ufficiale, erano più simili agli stagisti», ha detto al conduttore.   Si tratta comunque di un traguardo notevole per Xiaomi e per la Cina, che ha già impiegato più robot industriali di qualsiasi altro Paese nella storia.   Sebbene Xiaomi sia l’ultima a introdurre robot bipedi sulla catena di montaggio, non è la prima. A febbraio, l’azienda britannica Humanoid ha completato un progetto pilota simile, vantando un tasso di successo superiore al 90% in un compito di impilamento di contenitori, secondo Humanoids Daily.   I compiti differiscono: i robot di Humanoid gestivano con minor precisione un oggetto più grande, mentre quelli di Xiaomi dovevano posizionare parti molto più piccole con accuratezza millimetrica. C’è inoltre la questione di cosa si intenda per «umanoide»: i robot Xiaomi erano realmente bipedi e completavano i compiti su due gambe, mentre quelli di Humanoid erano fissati a una base stabile.   Resta da vedere chi, se mai ce ne sarà uno, sarà il primo a impiegare robot bipedi in un contesto industriale a tempo pieno, ma il fatto che un numero crescente di aziende riesca a farlo è già di per sé sorprendente.   Come riportato da Renovatio 21, negli anni sono stati registrati casi con robot industriali che hanno ucciso esseri umani: è successo in Tesla ma anche in Corea.   Come riportato da Renovatio 21, la prossima strategia nazionale dell’amministrazione Trump si concentrerà, oltre che nel settore dei semiconduttori, AI, produzione di terre rare, anche sul predominio nell’ambito dei robot umanoidi.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine screenshot da YouTube
Continua a leggere

Più popolari