Intelligenza Artificiale
Iran, fatwa e Intelligenza Artificiale
Renovatio 21 pubblica questo articolo su gentile concessione di AsiaNews. Le opinioni degli articoli pubblicati non coincidono necessariamente con quelle di Renovatio 21.
Nel Paese si è aperto un dibattito fra favorevoli e scettici nell’uso della tecnologia, in particolare per la «velocizzazione» nelle pubblicazioni delle sentenze in materia religiosa. Oltre la dicotomia tra tradizione e modernità, lo stesso Khamenei chiede ai religiosi di esplorare e sostenere questo processo. Gli investimenti del governo iraniano nel settore.
In una prospettiva di «modernizzazione» pur mantenendo l’impronta «musulmana» degli insegnamenti e in accordo coi dettami dell’islam, i vertici dell’Iran su impulso della guida suprema Ali Khamenei guardano all’intelligenza artificiale nella pratica religiosa, dalle fatwa alle madrasa.
Il cuore di questa iniziativa è la città santa di Qom, in cui vive circa la metà dei 200mila leader religiosi sciiti, principale centro di riferimento per l’insegnamento della fede musulmana in Iran e luogo in cui vengono emessi molti degli editti religiosi o risolte le dispute sulla dottrina.
L’establishment clericale considera l’IA un mezzo per essere più reattivi di fronte alle richieste della società, pur salvaguardandone i valori tradizionali. Negli stessi seminari di Qom l’auspicio è che la tecnologia possa contribuire a una più approfondita analisi dei testi e alla velocizzazione delle sentenze (fatwa, che possono toccare i temi più disparati, non solo in materia di fede ma pure della vita quotidiana), tenendo il passo «con una società in evoluzione».
Il sostegno di Khamenei
«I robot non sostituiscono gli studiosi della legge più anziani, ma possono essere un assistente fidato che può aiutarli a emettere una fatwa più velocemente» ha dichiarato al Financial Times Mohammad Ghotbi, a capo di un gruppo tecnologico di Qom.
Certo, l’attenzione per l’Intelligenza Artificiale riflette lo scontro tra tradizione e modernità in Iran, come emerso anche nella lotta pro diritti e libertà innescata dall’uccisione della 22enne curda Mahsa Amini per mano della polizia della morale.
Tuttavia, mentre i chierici di Qom operano per proteggere i valori tradizionali gli iraniani «si affidano sempre più spesso al progresso tecnologico» prosegue Ghotbi.
«La società di oggi – avverte – favorisce l’accelerazione» e il clero non dovrebbe opporsi a questo passaggio naturale e al desiderio degli abitanti della Repubblica islamica di condividere i progressi tecnologici globali.
Del resto lo stesso Khamenei sembra sostenere questa evoluzione, tanto da esortare il clero a esplorare l’IA, mentre il capo del principale seminario della città santa ha accolto con favore l’uso della tecnologia per «promuovere la civiltà islamica». «Il seminario – ha affermato a luglio l’ayatollah Alireza Arafi – deve essere coinvolto nell’uso delle tecnologie moderne, guidato nel progresso» in particolare per quanto riguarda «l’Intelligenza Artificiale. Dobbiamo entrare in questo campo – ha spiegato – per promuovere la civiltà islamica».
«Esegesi e perplessità»
Ciononostante, l’adozione dell’IA potrebbe rivelarsi impegnativa e poco adatta all’intricato sistema giuridico che regola l’islam sciita iraniano (e la fede musulmana più in generale). Secondo i critici, infatti, non è in grado di cogliere le sfumature necessarie per emettere sentenze complesse.
Una obiezione cui Ghotbi replica spiegando che può «aiutare» i religiosi a rispondere in modo «più rapido» alle domande del pubblico, adattando l’islam alla modernità, senza scomodare qui l’esegesi del Corano che è uno dei grandi temi irrisolti della fede musulmana.
Altri ancora temono che l’IA possa erodere ulteriormente il ruolo del clero quale interprete della sharia, la legge islamica, in una fase di proteste e contestazioni innescate dalla controversia sull’hijab, il velo obbligatorio.
Secondo gli esperti di Brookings Institution, una delle sfide più significative dell’integrazione dell’IA nelle società tradizionali è il potenziale di erosione culturale e morale a essa collegato. Perché la nuova tecnologia, soprattutto se progettata e usata senza tenere presente i valori e le tradizioni locali, può senza volerlo promuovere una visione del mondo o una prospettiva morale in contrasto con usanze e credenze. Ecco dunque come gli sforzi per usare l’IA nell’interpretazione di testi religiosi, soprattutto per l’islam, possa risultare fonte di controversia.
Una analisi dell’Oxford Islamic Studies suggerisce che le interpretazioni degli insegnamenti religiosi non richiedono solo conoscenze linguistiche, ma anche comprensione storica, sociologica e teologica.
Il timore è che l’IA possa portare a una eccessiva semplificazione o, addirittura, ad un malinteso o a una errata lettura degli insegnamenti religiosi, i quali sono per loro stessa natura ricchi di sfumature. E potrebbe anche rappresentare una «minaccia» per i metodi di apprendimento tradizionali e per le madrasa, le scuole coraniche, in cui si pone grande attenzione ed enfasi sul rapporto che si viene a instaurare fra insegnante e studente.
I piani di Teheran
Quello dell’Intelligenza Artificiale è uno dei temi in agenda per la leadership iraniana, che nel recente passato ha mostrato più di un interesse e sta già sviluppando un piano in tre punti per sfruttarne le potenzialità.
A parlarne è stato di recente il vice-capo del dipartimento per la Scienza e la tecnologia Rouhollah Dehqani, il quale ha così spiegato l’idea alla base del progetto: vi sono tre «programmi di sviluppo scientifico» oggetto di studi e di approfondimento, di cui «il primo nelle università. Il secondo – prosegue – sono i programmi di sviluppo tecnologico che vengono perseguiti in aziende che lavorano nel campo dell’intelligenza artificiale» e l’ultimo prevede «la creazione di un centro tecnologico nazionale» per il settore.
La road-map di sviluppo risale al 2022 ed è frutto di un anno di lavoro scientifico presso l’Istituto di ricerca di tecnologia dell’informazione e della comunicazione, che ha visto la partecipazione di accademici e industriali, pubblici e privati.
Il documento è presentato in due sezioni generali: «Sviluppo delle applicazioni» e «Sviluppo dei fattori abilitanti» sottolinea Mohammad-Shahram Moein, responsabile del Centro di innovazione e sviluppo dell’IA presso l’istituto. «Nella sezione di sviluppo delle applicazioni, l’obiettivo principale – avverte – è utilizzare l’IA in aree prioritarie come salute, trasporti e agricoltura» mentre in un secondo momento si punterà su «istruzione, industria e ambiente. Nello sviluppo dei fattori abilitanti, abbiamo considerato – sottolinea – la formazione di manodopera specializzata, lo sviluppo di infrastrutture e del sistema di innovazione».
Il documento che traccia i lavori, sostenuto da Khamenei, comprende 10 obiettivi principali, 9 strategie e 156 attività per un orizzonte di 10 anni.
Secondo il database Nature Index, nel 2021 la Repubblica islamica si è piazzata al 13mo posto nel mondo fra le nazioni leader del settore per numero complessivo di pubblicazioni. Nel luglio 2022 il vice-ministro della Scienza Peyman Salehi ha dichiarato che – a dispetto delle sanzioni statunitensi, le attività internazionali degli scienziati iraniani sono in aumento, tanto che oltre il 35% degli articoli riguardanti l’Iran presenti su Scopus sono progetti multinazionali.
Nella legge di bilancio per l’anno 1402 del calendario iraniano, iniziato il 21 marzo scorso, sono previsti circa 37 mila miliardi di rial (75 milioni di dollari) per la scienza e la tecnologia, con un aumento del 35% del budget rispetto all’anno precedente. Finora sono nate in tutto il Paese oltre 8mila aziende operative nel settore, chiamate a produrre «conoscenza» e creare «posti di lavoro» come auspicato dalla guida suprema.
Infine, il Fondo per l’innovazione e la prosperità ha versato quasi 500 milioni di dollari a sostegno delle imprese che operano nel settore della conoscenza.
Iscriviti alla Newslettera di Renovatio 21
Invitiamo i lettori di Renovatio 21 a sostenere con una donazione AsiaNews e le sue campagne.
Renovatio 21 offre questo articolo per dare una informazione a 360º. Ricordiamo che non tutto ciò che viene pubblicato sul sito di Renovatio 21 corrisponde alle nostre posizioni.
Immagine di Bernard Gagnon via Wikimedia pubblicata su licenza Creative Commons Attribution-Share Alike 4.0 International, 3.0 Unported, 2.5 Generic, 2.0 Generic e 1.0 Generic; immagine modificata
Eutanasia
L’inventore della capsula suicida dice che l’AI rimpiazzerà i dottori per decidere la morte dei pazienti
Iscriviti al canale Telegram ![]()
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Quando i medici vengono sostituiti da un protocollo
Renovatio 21 traduce e pubblica questo articolo del Brownstone Institute.
La mia esperienza in medicina mi permette di distinguere tra vera innovazione e sottile riclassificazione che altera radicalmente la pratica medica pur rimanendo immutata. L’intelligenza artificiale ha recentemente attirato notevole attenzione, inclusa l’affermazione ampiamente diffusa secondo cui l’IA è stata «legalmente autorizzata a esercitare la professione medica» negli Stati Uniti. Interpretata letteralmente, questa affermazione è imprecisa.
Nessun collegio medico ha concesso l’autorizzazione a una macchina. Nessun algoritmo ha prestato giuramento, accettato obblighi fiduciari o assunto la responsabilità personale per i danni ai pazienti. Nessun medico robot apre una clinica, fattura alle compagnie assicurative o si presenta davanti a una giuria per negligenza medica.
Tuttavia, fermarsi a questa osservazione significa trascurare la questione più ampia. I concetti giuridici di responsabilità sono attualmente in fase di ridefinizione, spesso senza che l’opinione pubblica ne sia consapevole.
Sostieni Renovatio 21
È in atto una trasformazione significativa, che giustifica più di un semplice rifiuto riflessivo o di un acritico entusiasmo tecnologico. L’attuale sviluppo non riguarda l’abilitazione dell’Intelligenza Artificiale come medico, ma piuttosto la graduale erosione del confine fondamentale della medicina: il legame intrinseco tra giudizio clinico e responsabilità umana. Il giudizio clinico implica l’assunzione di decisioni informate, adattate alle esigenze e alle circostanze specifiche di ciascun paziente, e richiede empatia, intuizione e una profonda comprensione dell’etica medica.
La responsabilità umana si riferisce alla responsabilità che gli operatori sanitari si assumono per queste decisioni e i loro esiti. Questa erosione non è il risultato di una legislazione drastica o di un dibattito pubblico, ma avviene silenziosamente attraverso programmi pilota, reinterpretazioni normative e un linguaggio che oscura intenzionalmente la responsabilità. Una volta che questo confine si dissolve, la medicina si trasforma in modi difficili da invertire.
La preoccupazione principale non è se l’intelligenza artificiale possa rinnovare le prescrizioni o individuare risultati di laboratorio anomali. La medicina utilizza da tempo strumenti e gli operatori sanitari generalmente accolgono con favore un aiuto che riduca le attività amministrative o migliori il riconoscimento di schemi. Il vero problema è se il giudizio medico – la decisione sulle azioni corrette, sui pazienti e sui rischi – possa essere visto come un risultato generato dal computer, separato dalla responsabilità morale. Storicamente, gli sforzi per separare il giudizio dalla responsabilità hanno spesso causato danni senza assumersene la responsabilità.
Sviluppi recenti chiariscono le origini dell’attuale confusione. In diversi stati, programmi pilota limitati consentono ora ai sistemi basati sull’Intelligenza Artificiale di assistere nel rinnovo delle prescrizioni per patologie croniche stabili, secondo protocolli rigorosamente definiti. A livello federale, la proposta di legge ha valutato se l’Intelligenza Artificiale possa essere considerata un «professionista» per specifici scopi statutari, a condizione che sia adeguatamente regolamentata.
Queste iniziative sono in genere presentate come risposte pragmatiche alla carenza di medici, ai ritardi di accesso e alle inefficienze amministrative. Sebbene nessuna di queste designi esplicitamente l’intelligenza artificiale come medico, nel loro insieme normalizzano la premessa più preoccupante secondo cui le azioni mediche possono essere intraprese senza un decisore umano chiaramente identificabile.
Aiuta Renovatio 21
Nella pratica, questa distinzione è fondamentale. La medicina non è definita dall’esecuzione meccanica di compiti, ma dall’assegnazione di responsabilità quando i risultati sono sfavorevoli. Scrivere una prescrizione è semplice; assumersi la responsabilità delle sue conseguenze – in particolare quando si considerano comorbilità, contesto sociale, valori del paziente o informazioni incomplete – è molto più complesso. Nel corso della mia carriera, questa responsabilità è sempre ricaduta su un essere umano che poteva essere interrogato, sfidato, corretto e ritenuto responsabile. Quando il dott. Smith commette un errore, la famiglia sa chi contattare, garantendo un filo diretto con la responsabilità umana. Nessun algoritmo, a prescindere dalla sua complessità, può svolgere questo ruolo.
Il rischio principale non è tecnologico, ma normativo e filosofico. Questa transizione rappresenta un passaggio dall’etica della virtù al proceduralismo. Quando legislatori e istituzioni ridefiniscono il processo decisionale medico in funzione dei sistemi piuttosto che degli atti personali, il quadro morale della medicina cambia. La responsabilità diventa diffusa, il danno è più difficile da attribuire e la responsabilità si sposta dai medici ai processi, dal giudizio all’aderenza al protocollo. Quando inevitabilmente si verificano errori, la spiegazione prevalente diventa che «il sistema ha seguito linee guida stabilite». Riconoscere questa transizione chiarisce il passaggio dal processo decisionale etico individualizzato all’aderenza procedurale meccanizzata.
Questa preoccupazione non è teorica. L’assistenza sanitaria contemporanea si trova già ad affrontare sfide legate alla scarsa responsabilità. Ho osservato pazienti danneggiati da decisioni basate su algoritmi perdersi tra amministratori, fornitori e modelli opachi, senza una risposta chiara alla domanda fondamentale: chi ha preso questa decisione? L’Intelligenza Artificiale accelera significativamente questo problema. Un algoritmo non può fornire spiegazioni morali, esercitare moderazione basata sulla coscienza, rifiutare azioni per preoccupazioni etiche o ammettere errori a un paziente o a una famiglia.
I sostenitori di una maggiore autonomia dell’IA citano spesso l’efficienza come giustificazione. Le cliniche sono sovraccariche di lavoro, i medici sono in preda al burnout e i pazienti spesso aspettano mesi per cure che dovrebbero durare solo pochi minuti. Queste preoccupazioni sono legittime e qualsiasi medico onesto le riconosce. Tuttavia, l’efficienza da sola non giustifica l’alterazione dei fondamenti etici della medicina. I sistemi ottimizzati per velocità e scalabilità spesso sacrificano sfumature, discrezione e dignità individuale. Storicamente, la medicina ha resistito a questa tendenza sottolineando che la cura è fondamentalmente una relazione piuttosto che una transazione.
L’Intelligenza Artificiale rischia di invertire questa relazione. Quando sono i sistemi, anziché gli individui, a erogare assistenza, il paziente non è più coinvolto in un patto con un medico, ma diventa parte di un flusso di lavoro. Il medico assume il ruolo di supervisore della macchina o, cosa ancora più preoccupante, funge da cuscinetto legale che assorbe la responsabilità per decisioni non prese personalmente. Col tempo, il giudizio clinico cede il passo all’aderenza al protocollo e l’agire morale diminuisce gradualmente.
L’Intelligenza Artificiale introduce anche un problema più sottile e pericoloso: il mascheramento dell’incertezza. La medicina vive nell’ambiguità. Le prove sono probabilistiche. Le linee guida sono provvisorie. I pazienti raramente si presentano come set di dati puliti. I medici sono addestrati non solo ad agire, ma anche a esitare, a riconoscere quando le informazioni sono insufficienti, quando un intervento può causare più danni che benefici o quando la strada giusta è aspettare. Immaginate uno scenario in cui l’Intelligenza Artificiale raccomanda la dimissione, ma il coniuge del paziente appare timoroso, evidenziando la tensione tra il processo decisionale algoritmico e l’intuizione umana. Tale attrito nel mondo reale sottolinea la posta in gioco dell’ambiguità.
I sistemi di Intelligenza Artificiale non sperimentano incertezza; generano output. Quando sono errati, spesso lo fanno con una sicurezza ingiustificata. Questa caratteristica non è un difetto di programmazione, ma una caratteristica intrinseca della modellazione statistica. A differenza dei medici esperti che esprimono apertamente dubbi, i modelli linguistici di grandi dimensioni e i sistemi di apprendimento automatico non sono in grado di riconoscere i propri limiti. Producono risposte plausibili anche quando i dati sono insufficienti. In medicina, la plausibilità senza fondamento può essere rischiosa.
Man mano che questi sistemi vengono integrati tempestivamente nei flussi di lavoro clinici, i loro risultati influenzano sempre di più le decisioni successive. Col tempo, i medici potrebbero iniziare a fidarsi delle raccomandazioni non per la loro validità, ma perché sono diventate standardizzate. Il giudizio si sposta gradualmente dal ragionamento attivo all’accettazione passiva. In tali circostanze, la presenza umana nel ciclo funge da mero strumento di salvaguardia simbolica.
Iscriviti alla Newslettera di Renovatio 21
I sostenitori affermano spesso che l’IA si limiterà a «migliorare» i medici, piuttosto che sostituirli. Tuttavia, questa rassicurazione è labile. Una volta che l’IA dimostra guadagni in termini di efficienza, le pressioni economiche e istituzionali tendono a favorire una maggiore autonomia. Se un sistema può rinnovare le prescrizioni in modo sicuro, potrebbe presto essere autorizzato a iniziarle. Se riesce a diagnosticare accuratamente patologie comuni, la necessità della revisione medica viene messa in discussione. Se supera gli esseri umani in benchmark controllati, la tolleranza alla variabilità umana diminuisce.
Alla luce di queste tendenze, è essenziale implementare misure di salvaguardia specifiche. Ad esempio, audit obbligatori sulle discrepanze sul 5% delle decisioni basate sull’Intelligenza Artificiale potrebbero fungere da controllo concreto, garantendo l’allineamento tra le raccomandazioni dell’Intelligenza Artificiale e il giudizio clinico umano, fornendo al contempo alle autorità di regolamentazione e ai consigli di amministrazione ospedalieri metriche concrete per monitorare l’integrazione dell’Intelligenza Artificiale.
Queste domande non sono poste con cattive intenzioni; emergono naturalmente all’interno di sistemi focalizzati sul contenimento dei costi e sulla scalabilità. Tuttavia, indicano un futuro in cui il giudizio umano diventerà l’eccezione piuttosto che la norma. In un simile scenario, gli individui con risorse continueranno a ricevere cure umane, mentre altri saranno indirizzati attraverso processi automatizzati. La medicina a due livelli non sarà il risultato di un’ideologia, ma di un’ottimizzazione.
Ciò che rende questo momento particolarmente precario è l’assenza di chiare linee di responsabilità. Quando una decisione guidata dall’Intelligenza Artificiale danneggia un paziente, chi è responsabile? È il medico che supervisiona nominalmente il sistema? L’istituzione che lo ha implementato? Il fornitore che ha addestrato il modello? L’ente regolatore che ne ha approvato l’uso? Senza risposte esplicite, la responsabilità svanisce. E quando la responsabilità svanisce, la fiducia segue a ruota.
La medicina si basa fondamentalmente sulla fiducia. I pazienti affidano il loro corpo, le loro paure e spesso le loro vite nelle mani dei medici. Questa fiducia non può essere trasferita a un algoritmo, per quanto sofisticato possa essere. Si basa sulla certezza della presenza di un essere umano, qualcuno capace di ascoltare, adattarsi e assumersi la responsabilità delle proprie azioni.
Rifiutare del tutto l’Intelligenza Artificiale è superfluo. Se utilizzata con giudizio, l’IA può ridurre gli oneri amministrativi, identificare modelli che potrebbero sfuggire al rilevamento umano e supportare il processo decisionale clinico. Può consentire ai medici di dedicare più tempo all’assistenza ai pazienti piuttosto che alle attività amministrative. Tuttavia, realizzare questo futuro richiede un chiaro impegno a mantenere la responsabilità umana al centro della pratica medica.
«Human-in-the-loop» deve significare più di una supervisione simbolica. Dovrebbe richiedere che un individuo specifico sia responsabile di ogni decisione medica, ne comprenda le motivazioni e mantenga sia l’autorità che l’obbligo di ignorare le raccomandazioni algoritmiche. Deve inoltre implicare trasparenza, spiegabilità e consenso informato del paziente, nonché l’impegno a investire nei medici umani anziché sostituirli con l’Intelligenza Artificiale.
Iscriviti al canale Telegram ![]()
Il rischio principale non è l’eccessivo potere dell’Intelligenza Artificiale, ma piuttosto la volontà delle istituzioni di rinunciare alle proprie responsabilità. Nella ricerca di efficienza e innovazione, c’è il rischio che la medicina diventi un campo tecnicamente avanzato e amministrativamente snello, ma privo di sostanza morale.
Mentre pensiamo al futuro, è essenziale chiedersi: che tipo di guaritore immaginiamo al capezzale del paziente nel 2035? Questa domanda richiede un’immaginazione morale collettiva, incoraggiandoci a plasmare un futuro in cui la responsabilità umana e l’assistenza compassionevole rimangano al centro della pratica medica. Mobilitare l’azione collettiva sarà fondamentale per garantire che i progressi nell’Intelligenza Artificiale migliorino, anziché indebolire, questi valori fondamentali.
L’Intelligenza Artificiale non è autorizzata a esercitare la professione medica. Ma la medicina viene silenziosamente riprogettata attorno a sistemi privi di peso morale. Se questo processo continua senza controllo, un giorno potremmo scoprire che il medico non è stato sostituito da una macchina, ma da un protocollo, e che quando si verifica un danno, non c’è più nessuno che possa risponderne.
Questo non sarebbe un progresso. Sarebbe un’abdicazione.
Joseph Varon
Joseph Varon, MD, è medico di terapia intensiva, professore e presidente dell’Independent Medical Alliance. È autore di oltre 980 pubblicazioni peer-reviewed ed è caporedattore del Journal of Independent Medicine.
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Musk fa causa a OpenAI e Microsoft per 134 miliardi di dollari
Sostieni Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Vaccini2 settimane faGemelli di 18 mesi morti dopo la vaccinazione
-



Nucleare2 settimane faSappiamo che l’Europa potrebbe essere presto oggetto di lanci nucleari?
-



Spirito1 settimana faMons. Viganò: «l’Unione Europea va rasa al suolo»
-



Spirito2 settimane faDifendere il patriarcato contro i princìpi infernali della Rivoluzione: omelia di mons. Viganò sulla famiglia come «cosmo divino»
-



Autismo1 settimana faEcco la Barbie autistica: il mondo verso la catastrofe sanitaria (e il Regno Sociale di Satana)
-



Immigrazione1 settimana faEva Vlaardingerbroek bandita dalla Gran Bretagna
-



Spirito7 giorni fa«Sinodalità e vigile attesa»: mons. Viganò sul mito del Concilio Vaticano II «sicuro ed efficace»
-



Immigrazione6 giorni faLe nostre città ridisegnate dagli immigrati











