Connettiti con Renovato 21

Intelligenza Artificiale

A Davos si è discusso di di Intelligenza Artificiale per creare rapidamente nuovi vaccini

Pubblicato

il

Renovatio 21 traduce questo articolo per gentile concessione di Children’s Health Defense. Le opinioni degli articoli pubblicati non coincidono necessariamente con quelle di Renovatio 21.

 

L’incontro annuale del World Economic Forum si è concluso questa settimana con richieste di identità digitali, rapido sviluppo di nuovi vaccini, maggiori collaborazioni con media aziendali come il New York Times e una diffusa accettazione e proliferazione dell’intelligenza artificiale in tutti i settori della società. compresa la sanità e l’istruzione.

 

La minaccia di una nuova pandemia e la cosiddetta «disinformazione». Il futuro della democrazia. L’impatto futuro dell’intelligenza artificiale (AI) nella società. L’«agenda verde».

 

Sono solo alcuni dei temi all’ordine del giorno del meeting annuale del World Economic Forum (WEF) che si è concluso a Davos, in Svizzera.

 

Alcuni dei punti salienti dell’incontro di quest’anno includevano avvertimenti su come una «malattia X» ancora sconosciuta potrebbe causare la prossima pandemia, discussioni su come l’Intelligenza Artificiale potrebbe portare al rapido sviluppo di nuovi vaccini e discorsi su come l’intelligenza artificiale potrebbe cadere vittima di – o filtrare – la cosiddetta «misinformazione» e «disinformazione».

Sostieni Renovatio 21

«Non vogliamo aspettare un anno prima di avere il vaccino»

Gli avvertimenti sono stati accompagnati da prospettive più ottimistiche – dal punto di vista dei partecipanti all’incontro – sul ruolo che l’Intelligenza Artificiale potrebbe svolgere nell’affrontare future pandemie, ad esempio attraverso il rapido sviluppo di nuovi vaccini.

 

Jeremy Hunt, il cancelliere dello Scacchiere del Regno Unito, ha dichiarato durante una tavola rotonda alla quale ha partecipato il CEO di Pfizer Albert Bourla che «quando avremo la prossima pandemia, non vogliamo dover aspettare un anno prima di ottenere il vaccino».

 

«Se l’intelligenza artificiale riuscisse a ridurre il tempo necessario per ottenere il vaccino a un mese, allora si tratterebbe di un enorme passo avanti per l’umanità», ha affermato Hunt.

 

 

Id digitale «molto necessario» per tracciare i non vaccinati

Durante un altro dibattito, la regina Máxima dei Paesi Bassi ha affermato che l’identità digitale è «molto necessaria» per la fornitura di una serie di servizi pubblici – e ha suggerito che può essere utilizzata per tracciare i non vaccinati.

 

L’identità digitale «è molto necessaria per i servizi finanziari, ma non solo. È positivo anche per l’iscrizione scolastica, è positivo anche per la salute – chi ha effettivamente ricevuto o meno la vaccinazione», ha affermato.

 

Iscriviti alla Newslettera di Renovatio 21

Bourla ha approfondito le possibilità che vede per l’intelligenza artificiale nel campo dell’assistenza sanitaria.

 

Rispondendo a una domanda del giornalista della CNN Fareed Zakaria, Bourla ha detto: «il nostro compito è fare scoperte che cambino la vita dei pazienti. Con l’intelligenza artificiale, posso farlo più velocemente e meglio».

 

Un esempio identificato da Bourla è stato il ruolo svolto dall’Intelligenza Artificiale nello sviluppo di Paxlovid, un farmaco orale da prescrizione commercializzato come trattamento per il COVID-19.

 

«È stato sviluppato in quattro mesi», ha detto Bourla, mentre lo sviluppo di un farmaco del genere «di solito richiede quattro anni». Ha detto che l’Intelligenza Artificiale ha contribuito a ridurre significativamente la quantità di tempo necessaria per il processo di «scoperta di farmaci», in cui «si sintetizzi davvero milioni di molecole e poi provi a scoprire al loro interno quale funziona».

 

Ha attribuito a questa svolta il salvataggio di «milioni di vite».

 

«Credo davvero che stiamo per entrare in un rinascimento scientifico nelle scienze della vita grazie a questa coesistenza di progressi nella tecnologia e nella biologia», ha detto Bourla. «L’Intelligenza Artificiale è uno strumento molto potente. Nelle mani di persone cattive [esso] può fare cose cattive per il mondo, ma nelle mani di persone buone [esso] può fare grandi cose per il mondo».

 

Durante la tavola rotonda «Prepararsi per la malattia X», il direttore generale dell’Organizzazione Mondiale della Sanità, Tedros Adhanom Ghebreyesus, ha avvertito che il mondo deve prepararsi per una futura pandemia, che potrebbe essere causata da una «malattia X» ancora sconosciuta.

 

I relatori hanno avvertito che la «Malattia X» – che è inclusa nell’elenco delle «malattie prioritarie» dell’OMS – potrebbe «provocare 20 volte più morti della pandemia di coronavirus».

 

 

Oltre alla «Malattia X», Tedros e altri partecipanti al panel hanno discusso anche della necessità di un «accordo sulla pandemia» e dell’urgenza di vederlo approvato all’Assemblea Mondiale della Sanità di quest’anno, che si terrà tra il 27 maggio e il 1 giugno a Ginevra.

Aiuta Renovatio 21

«Avremo medici digitali, persone digitali»

Durante il panel «La tecnologia in un mondo turbolento», i relatori hanno offerto previsioni su altri modi in cui è probabile che l’intelligenza artificiale venga integrata nella vita delle persone.

 

Marc Benioff, presidente e amministratore delegato di Salesforce, ha affermato che, sebbene «l’Intelligenza Artificiale non sia realmente a un punto in cui stiamo sostituendo gli esseri umani, è davvero a un punto in cui li stiamo potenziando».

 

Ha citato, come esempi ipotetici, la possibilità che i partecipanti al WEF possano chiedere a un’applicazione di intelligenza artificiale come ChatGPT «quali sono alcune buone domande che potrei porre» durante il loro panel, o che i radiologi possano usare l’Intelligenza Artificiale «per aiutare a leggere la mia TAC nella mia risonanza magnetica».

 

«Stiamo per arrivare a quella svolta in cui diremo “wow, è quasi come se fosse una persona digitale”», ha detto Benioff. Tuttavia, riflettendo il tema dell’incontro del WEF di quest’anno – «Ricostruire la fiducia» – ha aggiunto: «quando arriveremo a quel punto, ci chiederemo: “ci fidiamo?”»

 

«Avremo medici digitali, persone digitali, queste persone digitali si uniranno e ci dovrà essere un livello di fiducia», ha detto Benioff.

 

Allo stesso modo, Sam Altman, CEO di OpenAI – che mantiene una partnership con Microsoft – ha affermato che l’intelligenza artificiale aiuterà «il lavoro di tutti… a operare a un livello di astrazione un po’ più elevato».

 

«Avremo tutti accesso a molte più capacità e continueremo a prendere decisioni. Nel corso del tempo potrebbero tendere maggiormente verso la cura, ma prenderemo decisioni su cosa dovrebbe accadere nel mondo», ha affermato.

 

Anche Julie Sweet, presidente e CEO di Accenture, ha espresso ottimismo sul ruolo futuro dell’Intelligenza Artificiale, affermando che l’Intelligenza Artificiale «migliorerà enormemente i servizi sociali».

 

Per costruire «fiducia», Benioff ha chiesto una maggiore regolamentazione, alludendo all’ecosistema dei social media e alla «disinformazione» su tali piattaforme.

 

«Dobbiamo rivolgerci anche a questi regolatori e dire: “ehi, se guardate ai social media negli ultimi dieci anni, è stato uno spettacolo dannatamente schifoso”. È piuttosto brutto. Non lo vogliamo nel nostro settore dell’Intelligenza Artificiale. Vogliamo avere una buona e sana partnership con questi moderatori e con questi regolatori».

Sostieni Renovatio 21

Altman ha suggerito che un modo per sviluppare tali «partnership» è addestrare l’intelligenza artificiale a individuare e identificare informazioni da determinate fonti preferite.

 

«Ciò che vogliamo fare con i proprietari di contenuti, come il New York Times e gli accordi che abbiamo stretto con molti altri editori, e faremo di più nel tempo, è quando un utente dice: “Ehi, ChatGPT, cosa è successo a Davos oggi?”, vorremmo visualizzare contenuti, creare collegamenti, mostrare marchi di luoghi come il New York Times o il Wall Street Journal o qualsiasi altra grande pubblicazione e dire: “Ecco cosa è successo oggi. Ecco queste informazioni in tempo reale”» ha dichiarato.

 

Bourla ha anche chiesto una maggiore regolamentazione dell’intelligenza artificiale, affermando che, pur essendo «certo in questo momento che i benefici superano chiaramente i rischi», ritiene che «abbiamo bisogno di una regolamentazione in questo momento».

 

Hunt, tuttavia, ha affermato che una regolamentazione minima è l’approccio migliore in questo momento.

 

«Penso che dobbiamo essere leggeri perché… è una fase davvero emergente. Puoi uccidere la gallina dalle uova d’oro prima che abbia la possibilità di crescere», ha detto.

 

L’Intelligenza Artificiale potrebbe essere utilizzata per educare gli studenti sulla «disinformazione»

I leader del WEF hanno affrontato anche il ruolo futuro dell’Intelligenza Artificiale nell’istruzione, in particolare durante il panel «L’istruzione incontra l’intelligenza artificiale».

 

 

Secondo Forbes, i relatori, tra cui funzionari governativi della Slovenia e degli Emirati Arabi Uniti, hanno suggerito che l’Intelligenza Artificiale fornirà «nuove opportunità per l’apprendimento e il tutoraggio profondamente personalizzati».

 

Ahmad bin Abdullah Humaid Belhoul Al Falasi, ministro dell’Istruzione degli Emirati Arabi Uniti, ha definito questo «tutoraggio democratico», suggerendo che l’Intelligenza Artificiale fornirebbe un tutoraggio «scalabile» «disponibile a tutti» al di fuori della classe, che integrerà l’insegnamento in classe e che «lascia la parte più difficile – le competenze trasversali – agli insegnanti».

 

Nzinga Qunta, conduttrice della South African Broadcasting Corporation, ha suggerito che tale tutoraggio non sarebbe limitato in termini di età o spazio fisico.

 

I relatori hanno anche rassicurato sul fatto che l’Intelligenza Artificiale non porterà all’eliminazione dei posti di lavoro umani, ma hanno suggerito che le persone non perderanno il lavoro a causa dell’Intelligenza Artificiale «ma a causa di persone che sanno come usare l’Intelligenza Artificiale», ha riferito Forbes.

 

Durante la discussione è stato evidenziato anche il «rischio di cattiva informazione» e i relatori hanno suggerito che il “pensiero critico” può consentire agli studenti di identificare i rischi «pericolosi» di «misinformazione» e «disinformazione».

Iscriviti alla Newslettera di Renovatio 21

La «disinformazione» può portare a «disordini civili»

La «disinformazione» ha infatti avuto un posto di rilievo all’ordine del giorno dell’incontro del WEF di quest’anno. Il Global Risks Report del WEF, pubblicato il 10 gennaio, ha definito la «misinformazione» e la «disinformazione» derivate dall’Intelligenza Artificiale come il rischio principale che il mondo dovrà affrontare nei prossimi due anni e il quinto rischio più alto nel prossimo decennio.

 

Secondo il rapporto, nei prossimi due anni «attori nazionali e stranieri sfrutteranno la disinformazione e la disinformazione per ampliare le divisioni sociali e politiche» nei prossimi due anni, ponendo un rischio per le elezioni in paesi come Stati Uniti, Regno Unito e India e un rischio di «conflitti civili» e «disordini» in tutto il mondo.

 

«Inoltre, le false informazioni e la polarizzazione sociale sono intrinsecamente intrecciate, con il potenziale per amplificarsi a vicenda», secondo Saadia Zahidi, direttore generale del WEF, per cui sono necessari «innovazione e processi decisionali affidabili». Tuttavia, ha affermato che ciò «è possibile solo in un mondo allineato ai fatti».

 

 

«C’è il rischio che vengano eletti i leader sbagliati»

Gli avvertimenti del WEF sulla «minaccia» di «disinformazione» e «disinformazione» sono strettamente in linea con i timori espressi dai partecipanti all’incontro del WEF riguardo al modo in cui l’intelligenza artificiale potrebbe avere un impatto sulla democrazia e sul processo elettorale.

 

Nei giorni scorsi è diventato virale sui social media un video che mostra il cofondatore e presidente del WEF Klaus Schwab mentre discute con Sergey Brin, cofondatore ed ex presidente di Google. Schwab ha suggerito uno scenario ipotetico in cui «non è nemmeno più necessario tenere le elezioni» perché l’intelligenza artificiale «può già prevedere il vincitore» – uno scenario che Brin non ha esplicitamente respinto.

 

Aiuta Renovatio 21

Anche se il video è stato spesso presentato nei post sui social media come proveniente dall’incontro del WEF di quest’anno, in realtà proviene da una discussione tenutasi all’incontro annuale del WEF nel 2017. Tuttavia, anche altre dichiarazioni rilasciate all’incontro di quest’anno hanno fatto riferimento alle elezioni e alla governance.

 

Oggi nel corso di una tavola rotonda sul tema «Rischi globali: cosa c’è nella posta?» Haslinda Amin, principale corrispondente internazionale di Bloomberg News per il Sud-Est asiatico, ha suggerito che «c’è il rischio che vengano eletti i leader sbagliati» nelle elezioni di quest’anno nei Paesi chiave.

 

Rispondendo ad Amin, Douglas L. Peterson, presidente e amministratore delegato di S&P Global, ha affermato che questo «è uno dei rischi principali per quest’anno» e ha aggiunto: «dobbiamo anche assicurarci di rimanere impegnati attraverso le istituzioni globali, come l’ONU, come la NATO».

 

 

E durante il suo discorso speciale alla riunione del WEF, António Guterres, segretario generale delle Nazioni Unite, ha chiesto «meccanismi efficaci di governance globale» come parte di «un nuovo ordine globale multipolare».

Sostieni Renovatio 21

Costruire «l’ordine economico internazionale» necessario per affrontare la «crisi climatica»

Numerosi partecipanti all’incontro del WEF hanno anche messo in guardia sui rischi posti dal cambiamento climatico e hanno colto l’occasione per chiedere più soldi e investimenti per iniziative «verdi».

 

Intervenendo all’inizio di questa settimana alla riunione del WEF, John Kerry, inviato speciale presidenziale degli Stati Uniti per il clima, ha affermato che il 2023 «è stato letteralmente l’anno più dirompente, perturbato dal punto di vista climatico, con maggiori conseguenze climatiche e negativo nella storia umana» e che, di conseguenza, non ci sono non c’è più «spazio per il dibattito o, francamente, per la procrastinazione».

 

 

Per rispondere a questa situazione, i partecipanti all’incontro del WEF hanno affermato che sono necessari più soldi. Ad esempio, Tharman Shanmugaratnam, presidente di Singapore, ha affermato che «i governi dovranno investire molto più di quanto hanno investito prima».

 

E secondo Chrystia Freeland, vice primo ministro canadese, l’intervento del governo è necessario come parte della transizione dal carbonio – un processo che, secondo lei, creerà «più posti di lavoro, più crescita, più produzione».

 

 

Il prezzo da pagare per tali interventi, secondo Christine Lagarde, presidente della Banca Centrale Europea, è «non inferiore a 620 miliardi all’anno per portare effettivamente avanti la transizione verde».

Aiuta Renovatio 21

Quando si è confrontata giovedì per le strade di Davos con il giornalista di True North Media Andrew Lawton, Lagarde ha eluso le domande sul fatto se le valute digitali delle banche centrali, come l’euro digitale introdotto da Lagarde, potessero essere utilizzate per controllare le persone.

 

 

«Non parlo perché sono in un periodo tranquillo», è stata la risposta di Lagarde.

 

In un altro scontro nelle strade di Davos, i giornalisti di Rebel News hanno preso di mira Philipp Hildebrand, vicepresidente di BlackRock, una delle più grandi società di investimento del mondo, ponendogli una serie di domande sul sostegno di BlackRock agli «ESG»: governance ambientale, sociale e aziendale.

 

 

Hildebrand non ha risposto a nessuna delle domande dei giornalisti.

 

 

Jake Sullivan, consigliere per la sicurezza nazionale degli Stati Uniti, ha unito diversi fili, suggerendo martedì durante un discorso speciale che «l’ordine economico internazionale» potrebbe essere costruito o aggiornato «in modo da… affrontare la crisi climatica».

 

Tra i 2.800 partecipanti di quest’anno provenienti da 120 paesi c’erano più di 60 capi di stato e 1.600 leader aziendali.

 

Michael Nevradakis

Ph.D.

 

© 19 gennaio 2024, Children’s Health Defense, Inc. Questo articolo è riprodotto e distribuito con il permesso di Children’s Health Defense, Inc. Vuoi saperne di più dalla Difesa della salute dei bambini? Iscriviti per ricevere gratuitamente notizie e aggiornamenti da Robert F. Kennedy, Jr. e la Difesa della salute dei bambini. La tua donazione ci aiuterà a supportare gli sforzi di CHD.

 

Renovatio 21 offre questa traduzione per dare una informazione a 360º. Ricordiamo che non tutto ciò che viene pubblicato sul sito di Renovatio 21 corrisponde alle nostre posizioni.

 

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21



 

Eutanasia

L’inventore della capsula suicida dice che l’AI rimpiazzerà i dottori per decidere la morte dei pazienti

Pubblicato

il

Da

L’inventore della controversa capsula per il suicidio assistito Sarco, Philip Nitschke, ha dichiarato che in futuro l’Intelligenza Artificiale potrebbe sostituire gli psichiatri nel valutare se chi richiede il suicidio assistito sia mentalmente capace di prendere tale decisione. Lo riporta Euronews.   Il Sarco (abbreviazione di «sarcofago») è una capsula stampata in 3D progettata per permettere a una persona di entrarvi, sdraiarsi e premere un pulsante: il dispositivo abbassa rapidamente i livelli di ossigeno e riempie l’interno con azoto, provocando la morte per ipossia. È stata anche ribattezzata da qualcuno la «Tesla eutanatica».   Nitschke, attivista australiano per il diritto all’eutanasia e creatore del dispositivo, ha sostenuto che l’iAI sarebbe in grado di stabilire chi possiede la «capacità mentale» per porre fine alla propria vita. Intervistato dalla testata, ha affermato che i medici non dovrebbero «andare in giro a concedere o negare il permesso di morire» e che la scelta dovrebbe spettare esclusivamente a chi è «sano di mente».

Iscriviti al canale Telegram

Nei Paesi in cui è legale la morte assistita, sono solitamente gli psichiatri a valutare la capacità decisionale del richiedente, anche se la procedura resta limitata e oggetto di forti controversie. Nitschke ha criticato tale sistema definendolo spesso incoerente.   «Ho visto numerosi casi in cui lo stesso paziente, visitato da tre psichiatri diversi, riceveva quattro valutazioni differenti», ha dichiarato.   L’attivista ha proposto un sistema basato su un’intelligenza artificiale che utilizza un avatar conversazionale: l’utente «si siede e parla dei suoi problemi» con l’avatar, il quale poi decide se la persona è mentalmente idonea a procedere. In caso di esito positivo, il pod Sarco verrebbe sbloccato per una finestra di 24 ore; trascorso tale periodo, la valutazione dovrebbe essere ripetuta. Nitschke ha riferito che le prime versioni del software sono già operative, sebbene non siano state sottoposte a validazione indipendente.   Il primo – e finora unico – utilizzo del Sarco in Svizzera, avvenuto nel settembre 2024, provocò un’ondata di indignazione internazionale. Le autorità elvetiche arrestarono diverse persone, tra cui il CEO dell’associazione pro-suicidio assistito The Last Resort, sostenendo che il dispositivo violava la normativa svizzera, che autorizza il suicidio assistito solo a condizioni estremamente rigorose.

Sostieni Renovatio 21

Come riportato da Renovatio 21, inizialmente vietata nella Confederazione, nel 2024 vi erano stati arresti dopo il primo uso della capsula eutanatica in Isvizzera. Due anni fa era emerso che gli americani avrebbero potuto dedurre dalle tasse i Sarco.   La proposta di Nitschke ha riacceso il dibattito sul ruolo dell’IA nelle decisioni di vita e di morte. Lo scorso anno OpenAI ha modificato ChatGPT dopo che un’analisi interna aveva rilevato che oltre un milione di utenti avevano condiviso pensieri suicidi con il chatbot.   Come riportato da Renovatio 21, diversi psichiatri hanno espresso preoccupazione per il rischio che interazioni prolungate con l’IA possano favorire deliri e paranoia, fenomeno talvolta definito «psicosi da IA». nella prima metà del 2026.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
 
Continua a leggere

Intelligenza Artificiale

Quando i medici vengono sostituiti da un protocollo

Pubblicato

il

Da

Renovatio 21 traduce e pubblica questo articolo del Brownstone Institute.

 

La mia esperienza in medicina mi permette di distinguere tra vera innovazione e sottile riclassificazione che altera radicalmente la pratica medica pur rimanendo immutata. L’intelligenza artificiale ha recentemente attirato notevole attenzione, inclusa l’affermazione ampiamente diffusa secondo cui l’IA è stata «legalmente autorizzata a esercitare la professione medica» negli Stati Uniti. Interpretata letteralmente, questa affermazione è imprecisa.

 

Nessun collegio medico ha concesso l’autorizzazione a una macchina. Nessun algoritmo ha prestato giuramento, accettato obblighi fiduciari o assunto la responsabilità personale per i danni ai pazienti. Nessun medico robot apre una clinica, fattura alle compagnie assicurative o si presenta davanti a una giuria per negligenza medica.

 

Tuttavia, fermarsi a questa osservazione significa trascurare la questione più ampia. I concetti giuridici di responsabilità sono attualmente in fase di ridefinizione, spesso senza che l’opinione pubblica ne sia consapevole.

Sostieni Renovatio 21

È in atto una trasformazione significativa, che giustifica più di un semplice rifiuto riflessivo o di un acritico entusiasmo tecnologico. L’attuale sviluppo non riguarda l’abilitazione dell’Intelligenza Artificiale come medico, ma piuttosto la graduale erosione del confine fondamentale della medicina: il legame intrinseco tra giudizio clinico e responsabilità umana. Il giudizio clinico implica l’assunzione di decisioni informate, adattate alle esigenze e alle circostanze specifiche di ciascun paziente, e richiede empatia, intuizione e una profonda comprensione dell’etica medica.

 

La responsabilità umana si riferisce alla responsabilità che gli operatori sanitari si assumono per queste decisioni e i loro esiti. Questa erosione non è il risultato di una legislazione drastica o di un dibattito pubblico, ma avviene silenziosamente attraverso programmi pilota, reinterpretazioni normative e un linguaggio che oscura intenzionalmente la responsabilità. Una volta che questo confine si dissolve, la medicina si trasforma in modi difficili da invertire.

 

La preoccupazione principale non è se l’intelligenza artificiale possa rinnovare le prescrizioni o individuare risultati di laboratorio anomali. La medicina utilizza da tempo strumenti e gli operatori sanitari generalmente accolgono con favore un aiuto che riduca le attività amministrative o migliori il riconoscimento di schemi. Il vero problema è se il giudizio medico – la decisione sulle azioni corrette, sui pazienti e sui rischi – possa essere visto come un risultato generato dal computer, separato dalla responsabilità morale. Storicamente, gli sforzi per separare il giudizio dalla responsabilità hanno spesso causato danni senza assumersene la responsabilità.

 

Sviluppi recenti chiariscono le origini dell’attuale confusione. In diversi stati, programmi pilota limitati consentono ora ai sistemi basati sull’Intelligenza Artificiale di assistere nel rinnovo delle prescrizioni per patologie croniche stabili, secondo protocolli rigorosamente definiti. A livello federale, la proposta di legge ha valutato se l’Intelligenza Artificiale possa essere considerata un «professionista» per specifici scopi statutari, a condizione che sia adeguatamente regolamentata.

 

Queste iniziative sono in genere presentate come risposte pragmatiche alla carenza di medici, ai ritardi di accesso e alle inefficienze amministrative. Sebbene nessuna di queste designi esplicitamente l’intelligenza artificiale come medico, nel loro insieme normalizzano la premessa più preoccupante secondo cui le azioni mediche possono essere intraprese senza un decisore umano chiaramente identificabile.

Aiuta Renovatio 21

Nella pratica, questa distinzione è fondamentale. La medicina non è definita dall’esecuzione meccanica di compiti, ma dall’assegnazione di responsabilità quando i risultati sono sfavorevoli. Scrivere una prescrizione è semplice; assumersi la responsabilità delle sue conseguenze – in particolare quando si considerano comorbilità, contesto sociale, valori del paziente o informazioni incomplete – è molto più complesso. Nel corso della mia carriera, questa responsabilità è sempre ricaduta su un essere umano che poteva essere interrogato, sfidato, corretto e ritenuto responsabile. Quando il dott. Smith commette un errore, la famiglia sa chi contattare, garantendo un filo diretto con la responsabilità umana. Nessun algoritmo, a prescindere dalla sua complessità, può svolgere questo ruolo.

 

Il rischio principale non è tecnologico, ma normativo e filosofico. Questa transizione rappresenta un passaggio dall’etica della virtù al proceduralismo. Quando legislatori e istituzioni ridefiniscono il processo decisionale medico in funzione dei sistemi piuttosto che degli atti personali, il quadro morale della medicina cambia. La responsabilità diventa diffusa, il danno è più difficile da attribuire e la responsabilità si sposta dai medici ai processi, dal giudizio all’aderenza al protocollo. Quando inevitabilmente si verificano errori, la spiegazione prevalente diventa che «il sistema ha seguito linee guida stabilite». Riconoscere questa transizione chiarisce il passaggio dal processo decisionale etico individualizzato all’aderenza procedurale meccanizzata.

 

Questa preoccupazione non è teorica. L’assistenza sanitaria contemporanea si trova già ad affrontare sfide legate alla scarsa responsabilità. Ho osservato pazienti danneggiati da decisioni basate su algoritmi perdersi tra amministratori, fornitori e modelli opachi, senza una risposta chiara alla domanda fondamentale: chi ha preso questa decisione? L’Intelligenza Artificiale accelera significativamente questo problema. Un algoritmo non può fornire spiegazioni morali, esercitare moderazione basata sulla coscienza, rifiutare azioni per preoccupazioni etiche o ammettere errori a un paziente o a una famiglia.

 

I sostenitori di una maggiore autonomia dell’IA citano spesso l’efficienza come giustificazione. Le cliniche sono sovraccariche di lavoro, i medici sono in preda al burnout e i pazienti spesso aspettano mesi per cure che dovrebbero durare solo pochi minuti. Queste preoccupazioni sono legittime e qualsiasi medico onesto le riconosce. Tuttavia, l’efficienza da sola non giustifica l’alterazione dei fondamenti etici della medicina. I sistemi ottimizzati per velocità e scalabilità spesso sacrificano sfumature, discrezione e dignità individuale. Storicamente, la medicina ha resistito a questa tendenza sottolineando che la cura è fondamentalmente una relazione piuttosto che una transazione.

 

L’Intelligenza Artificiale rischia di invertire questa relazione. Quando sono i sistemi, anziché gli individui, a erogare assistenza, il paziente non è più coinvolto in un patto con un medico, ma diventa parte di un flusso di lavoro. Il medico assume il ruolo di supervisore della macchina o, cosa ancora più preoccupante, funge da cuscinetto legale che assorbe la responsabilità per decisioni non prese personalmente. Col tempo, il giudizio clinico cede il passo all’aderenza al protocollo e l’agire morale diminuisce gradualmente.

 

L’Intelligenza Artificiale introduce anche un problema più sottile e pericoloso: il mascheramento dell’incertezza. La medicina vive nell’ambiguità. Le prove sono probabilistiche. Le linee guida sono provvisorie. I pazienti raramente si presentano come set di dati puliti. I medici sono addestrati non solo ad agire, ma anche a esitare, a riconoscere quando le informazioni sono insufficienti, quando un intervento può causare più danni che benefici o quando la strada giusta è aspettare. Immaginate uno scenario in cui l’Intelligenza Artificiale raccomanda la dimissione, ma il coniuge del paziente appare timoroso, evidenziando la tensione tra il processo decisionale algoritmico e l’intuizione umana. Tale attrito nel mondo reale sottolinea la posta in gioco dell’ambiguità.

 

I sistemi di Intelligenza Artificiale non sperimentano incertezza; generano output. Quando sono errati, spesso lo fanno con una sicurezza ingiustificata. Questa caratteristica non è un difetto di programmazione, ma una caratteristica intrinseca della modellazione statistica. A differenza dei medici esperti che esprimono apertamente dubbi, i modelli linguistici di grandi dimensioni e i sistemi di apprendimento automatico non sono in grado di riconoscere i propri limiti. Producono risposte plausibili anche quando i dati sono insufficienti. In medicina, la plausibilità senza fondamento può essere rischiosa.

 

Man mano che questi sistemi vengono integrati tempestivamente nei flussi di lavoro clinici, i loro risultati influenzano sempre di più le decisioni successive. Col tempo, i medici potrebbero iniziare a fidarsi delle raccomandazioni non per la loro validità, ma perché sono diventate standardizzate. Il giudizio si sposta gradualmente dal ragionamento attivo all’accettazione passiva. In tali circostanze, la presenza umana nel ciclo funge da mero strumento di salvaguardia simbolica.

Iscriviti alla Newslettera di Renovatio 21

I sostenitori affermano spesso che l’IA si limiterà a «migliorare» i medici, piuttosto che sostituirli. Tuttavia, questa rassicurazione è labile. Una volta che l’IA dimostra guadagni in termini di efficienza, le pressioni economiche e istituzionali tendono a favorire una maggiore autonomia. Se un sistema può rinnovare le prescrizioni in modo sicuro, potrebbe presto essere autorizzato a iniziarle. Se riesce a diagnosticare accuratamente patologie comuni, la necessità della revisione medica viene messa in discussione. Se supera gli esseri umani in benchmark controllati, la tolleranza alla variabilità umana diminuisce.

 

Alla luce di queste tendenze, è essenziale implementare misure di salvaguardia specifiche. Ad esempio, audit obbligatori sulle discrepanze sul 5% delle decisioni basate sull’Intelligenza Artificiale potrebbero fungere da controllo concreto, garantendo l’allineamento tra le raccomandazioni dell’Intelligenza Artificiale e il giudizio clinico umano, fornendo al contempo alle autorità di regolamentazione e ai consigli di amministrazione ospedalieri metriche concrete per monitorare l’integrazione dell’Intelligenza Artificiale.

 

Queste domande non sono poste con cattive intenzioni; emergono naturalmente all’interno di sistemi focalizzati sul contenimento dei costi e sulla scalabilità. Tuttavia, indicano un futuro in cui il giudizio umano diventerà l’eccezione piuttosto che la norma. In un simile scenario, gli individui con risorse continueranno a ricevere cure umane, mentre altri saranno indirizzati attraverso processi automatizzati. La medicina a due livelli non sarà il risultato di un’ideologia, ma di un’ottimizzazione.

 

Ciò che rende questo momento particolarmente precario è l’assenza di chiare linee di responsabilità. Quando una decisione guidata dall’Intelligenza Artificiale danneggia un paziente, chi è responsabile? È il medico che supervisiona nominalmente il sistema? L’istituzione che lo ha implementato? Il fornitore che ha addestrato il modello? L’ente regolatore che ne ha approvato l’uso? Senza risposte esplicite, la responsabilità svanisce. E quando la responsabilità svanisce, la fiducia segue a ruota.

 

La medicina si basa fondamentalmente sulla fiducia. I pazienti affidano il loro corpo, le loro paure e spesso le loro vite nelle mani dei medici. Questa fiducia non può essere trasferita a un algoritmo, per quanto sofisticato possa essere. Si basa sulla certezza della presenza di un essere umano, qualcuno capace di ascoltare, adattarsi e assumersi la responsabilità delle proprie azioni.

 

Rifiutare del tutto l’Intelligenza Artificiale è superfluo. Se utilizzata con giudizio, l’IA può ridurre gli oneri amministrativi, identificare modelli che potrebbero sfuggire al rilevamento umano e supportare il processo decisionale clinico. Può consentire ai medici di dedicare più tempo all’assistenza ai pazienti piuttosto che alle attività amministrative. Tuttavia, realizzare questo futuro richiede un chiaro impegno a mantenere la responsabilità umana al centro della pratica medica.

 

«Human-in-the-loop» deve significare più di una supervisione simbolica. Dovrebbe richiedere che un individuo specifico sia responsabile di ogni decisione medica, ne comprenda le motivazioni e mantenga sia l’autorità che l’obbligo di ignorare le raccomandazioni algoritmiche. Deve inoltre implicare trasparenza, spiegabilità e consenso informato del paziente, nonché l’impegno a investire nei medici umani anziché sostituirli con l’Intelligenza Artificiale.

Iscriviti al canale Telegram

Il rischio principale non è l’eccessivo potere dell’Intelligenza Artificiale, ma piuttosto la volontà delle istituzioni di rinunciare alle proprie responsabilità. Nella ricerca di efficienza e innovazione, c’è il rischio che la medicina diventi un campo tecnicamente avanzato e amministrativamente snello, ma privo di sostanza morale.

 

Mentre pensiamo al futuro, è essenziale chiedersi: che tipo di guaritore immaginiamo al capezzale del paziente nel 2035? Questa domanda richiede un’immaginazione morale collettiva, incoraggiandoci a plasmare un futuro in cui la responsabilità umana e l’assistenza compassionevole rimangano al centro della pratica medica. Mobilitare l’azione collettiva sarà fondamentale per garantire che i progressi nell’Intelligenza Artificiale migliorino, anziché indebolire, questi valori fondamentali.

 

L’Intelligenza Artificiale non è autorizzata a esercitare la professione medica. Ma la medicina viene silenziosamente riprogettata attorno a sistemi privi di peso morale. Se questo processo continua senza controllo, un giorno potremmo scoprire che il medico non è stato sostituito da una macchina, ma da un protocollo, e che quando si verifica un danno, non c’è più nessuno che possa risponderne.

 

Questo non sarebbe un progresso. Sarebbe un’abdicazione.

 

Joseph Varon

 

Joseph Varon, MD, è medico di terapia intensiva, professore e presidente dell’Independent Medical Alliance. È autore di oltre 980 pubblicazioni peer-reviewed ed è caporedattore del Journal of Independent Medicine.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

Continua a leggere

Intelligenza Artificiale

Musk fa causa a OpenAI e Microsoft per 134 miliardi di dollari

Pubblicato

il

Da

Elon Musk ha chiesto un risarcimento danni compreso tra 79 e 134 miliardi di dollari a OpenAI e Microsoft, secondo quanto emerge da un documento depositato venerdì in tribunale dal suo avvocato.   Il miliardario statunitense sostiene che la società dietro ChatGPT abbia ottenuto «guadagni illeciti» grazie al suo sostegno iniziale, e che sia stato truffato dei circa 38 milioni di dollari investiti nel 2015 come capitale di avvio. Secondo il filing, Musk avrebbe diritto a una quota significativa dell’attuale valutazione di OpenAI, stimata intorno ai 500 miliardi di dollari.   Il documento stima che OpenAI abbia generato tra 65,5 e 109,4 miliardi di dollari di profitti indebiti a partire dai contributi di Musk, mentre Microsoft – che dal 2019 investe pesantemente nell’azienda e detiene circa il 27% delle azioni della sua entità for-profit – avrebbe beneficiato di guadagni compresi tra 13,3 e 25,1 miliardi di dollari.

Sostieni Renovatio 21

«Senza Elon Musk, non ci sarebbe OpenAI. Ha fornito la maggior parte dei finanziamenti iniziali, ha prestato la sua reputazione e ha insegnato loro tutto ciò che sa su come far crescere un’azienda», ha dichiarato all’agenzia Reuters l’avvocato principale di Musk, Steven Molo, citando le valutazioni di un testimone esperto, l’economista finanziario C. Paul Wazzan, menzionato nel documento.   OpenAI ha respinto le richieste definendole «infondate» e parte di una campagna di «molestie» da parte di Musk. Microsoft non ha rilasciato commenti specifici sulla questione del risarcimento.   Venerdì i due coimputati hanno presentato un atto separato chiedendo al giudice di escludere l’analisi di Wazzan, descritta come «inventata», «non verificabile» e priva di fondamento.   Musk ha contribuito a fondare OpenAI nel 2015, investendo complessivamente circa 45 milioni di dollari (di cui 38 milioni in donazioni seed), ma ha lasciato il board nel 2018 a causa di divergenze strategiche con il CEO Sam Altman. Da allora è diventato uno dei critici più accesi della commercializzazione di OpenAI e della sua stretta alleanza con Microsoft.   Nel febbraio 2025 Altman aveva offerto di acquistare OpenAI per 97,4 miliardi di dollari per contrastare la transizione verso un modello profit; l’offerta fu respinta, e Altman rispose ironicamente suggerendo a Musk di vendere invece la sua piattaforma X per 9,74 miliardi di dollari.   A ottobre OpenAI ha superato SpaceX diventando l’azienda tecnologica privata più valutata al mondo, raggiungendo i 500 miliardi di dollari dopo una vendita di quote da parte di dipendenti attuali ed ex per circa 6,6 miliardi di dollari a un consorzio di investitori. Il processo è previsto per aprile 2026.   Come riportato da Renovatio 21, una precedente querela di Musk contro OpenAI era stata ritirata due anni fa. L’anno scorso l’imprenditore di origini sudafricane si era offerto di acquistare OpenAI.  

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
Immagine di pubblico dominio CC0 via Wikimedia
Continua a leggere

Più popolari