Connettiti con Renovato 21

Intelligenza Artificiale

La Chiesa approfondisce la riflessione sull’Intelligenza Artificiale

Pubblicato

il

Tra avvertimenti episcopali e sessioni di sensibilizzazione organizzate dalla Santa Sede, la vigilanza riguardo all’intelligenza artificiale (IA) e ai rischi che comporta è una delle preoccupazioni della Chiesa per l’anno 2024.

 

I desideri dell’arcivescovo delle Fiji erano alquanto inaspettati. Il presule ha invitato il suo gregge a prendere coscienza delle sfide poste dall’intelligenza artificiale. «Se continuiamo a essere utilizzatori passivi dell’Intelligenza Artificiale, rischiamo di perdere questa creatività che Dio ha inscritto in noi, e questo sarebbe un grande danno per l’umanità», avverte mons. Peter Loy Chong, che concretamente consiglia alle famiglie di «stabilire regole in casa» all’alba del 2024.

 

Una richiesta che rilancia l’appello della Santa Sede nel dicembre 2023, a favore di un trattato internazionale che garantisca lo sviluppo e l’utilizzo etico dell’algoritmo. Un appello urgente quando si ricordano gli ultimi sconvolgimenti che hanno scosso il mondo molto chiuso dell’IA.

Sostieni Renovatio 21

Uno dei suoi principali attori, Sam Altman – l’ideatore di ChatGPT, lanciata nel 2023 – è stato confermato al suo posto dopo un braccio di ferro che lo ha contrapposto a chi, tra i suoi soci, voleva regolamentare l’algoritmo secondo criteri etici. Ma è stata la redditività a prevalere…

 

Sulla questione IA la Chiesa intende dare voce agli organismi internazionali, in particolare grazie alla competenza di padre Paolo Benanti, membro francescano della Commissione per l’IA delle Nazioni Unite. Il religioso è professore di bioetica ed etica tecnologica.

 

I criteri per un’IA etica

In un’intervista pubblicata il 3 gennaio 2024 da Vatican Insider – uno dei canali di informazione non ufficiali del Vaticano – Paolo Benanti discute un certo numero di criteri che dovrebbero essere inclusi in un «algoritmo etico». Secondo lui, l’Intelligenza Artificiale deve dare all’uomo la possibilità di definire le sue priorità e non lasciarsi dettare da ciò che resta una macchina: «il progetto umano deve venire prima e non viceversa», spiega il francescano.

 

Ciò implica una vigilanza vigile: «di fronte a una macchina instancabile dalle risorse inesauribili, con una velocità straordinaria, dobbiamo avere una vigilanza del tutto particolare», stima il teologo che si rallegra che la Chiesa abbia affrontato il problema di petto.

 

A differenza dell’essere umano che si struttura fin dai primi anni di esistenza in base alle sue interazioni con l’ambiente circostante, l’algoritmo non è aperto a progressi di questo tipo, perché è stato plasmato ex novo; anche al fine di evitare il pericolo di questo universo chiuso, dovremmo «imprimere tre valori principali nell’IA», sottolinea padre Benanti.

 

«ChatGPT dà sempre una risposta in modalità certa. Attualmente, se ci fosse una “saggezza” dalla cui acquisizione l’uomo trarrebbe vantaggio, non è tanto quella di poter rispondere in ogni momento e a qualunque cosa, ma quella di chiedersi se la sua risposta è, sì o no, valida, certa. Se potessimo dare alla macchina la capacità di mettere in discussione le sue risposte, avremmo fatto un passo avanti verso un maggiore “rispetto” per la natura umana», ritiene il francescano.

Aiuta Renovatio 21

Il secondo valore che l’esperto della Santa Sede vorrebbe vedere inserito in un modo o nell’altro nell’algoritmo è quello della benevolenza: «vale a dire il fatto di non essere determinato esclusivamente da un tipo di eventi – negativi – registrati in una “storia”».

 

Infine, «la dimensione dell’equità è cruciale» e se non integriamo questi dati nell’intelligenza artificiale, quest’ultima «alimenterà la visione di un mondo frammentato in classi sociali» o comunità.

 

Difficile immaginare che il mercato dell’IA presti attenzione ai moniti della Chiesa, visti gli interessi economici e strategici in gioco.

 

«In pratica – conclude padre Benanti – il rischio per l’uomo nel futuro è quello di rivolgere gli occhi verso il Cloud dove è immagazzinata l’Intelligenza Artificiale, piuttosto che verso il Cielo, e rendere l’algoritmo la divinità del domani».

 

Articolo previamente apparso su FSSPX.news.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21



 

Continua a leggere

Intelligenza Artificiale

Il responsabile della cibersicurezza USA ha fatto trapelare file sensibili su ChatGPT

Pubblicato

il

Da

Il direttore ad interim della principale agenzia statunitense per la cybersecurity ha caricato, la scorsa estate, documenti governativi sensibili su una versione pubblica di ChatGPT, scatenando allarmi automatici di sicurezza e una successiva valutazione dei danni da parte del Dipartimento per la sicurezza interna (DHS). Lo riporta Politico.   Madhu Gottumukkala, che ricopre il ruolo di direttore ad interim della Cybersecurity and Infrastructure Security Agency (CISA), ha sfruttato un’eccezione speciale da lui stesso richiesta per accedere allo strumento di intelligenza artificiale – vietato invece agli altri dipendenti del DHS – e ha inserito documenti contrattuali contrassegnati come «Solo per uso ufficiale». Sebbene non classificati, tali materiali sono considerati sensibili e non destinati alla divulgazione pubblica.   Quattro funzionari del DHS a conoscenza dei fatti hanno riferito che i sistemi di rilevamento della sicurezza informatica della CISA hanno segnalato i caricamenti all’inizio di agosto, dando avvio a un’indagine interna coordinata dal DHS per stimare l’entità del possibile danno.

Sostieni Renovatio 21

Non è ancora noto l’esito di tale revisione. L’episodio assume particolare rilevanza perché i caricamenti su ChatGPT pubblico vengono trasmessi allo sviluppatore OpenAI, esponendo potenzialmente informazioni governative a milioni di utenti della piattaforma. Al contrario, gli strumenti di intelligenza artificiale autorizzati dal DHS sono configurati in modo da impedire qualsiasi fuoriuscita di dati dalle reti federali.   In una nota ufficiale, Marci McCarthy, direttrice degli affari pubblici della CISA, ha dichiarato che a Gottumukkala «è stato concesso il permesso di utilizzare ChatGPT con i controlli del DHS in atto» e che l’utilizzo è stato «a breve termine e limitato».   Gottumukkala guida la CISA in qualità di direttore ad interim da maggio, in attesa della conferma da parte del Senato del candidato designato per la direzione permanente, Sean Plankey.   L’incidente legato a ChatGPT rappresenta l’ultima di una serie di controversie riguardanti sicurezza e leadership che hanno segnato il breve periodo alla guida di Gottumukkala. Lo scorso luglio avrebbe fallito un test del poligrafo di controspionaggio a cui era stato obbligato a sottoporsi per ottenere l’accesso a informazioni altamente sensibili. Durante un’audizione al Congresso la settimana scorsa, Gottumukkala ha respinto di riconoscere tale fallimento, affermando al deputato Bennie Thompson di non «accettare la premessa di tale caratterizzazione».   L’amministrazione del presidente Donaldo Trump ha spinto con forza l’adozione dell’Intelligenza Artificiale in tutti i settori del governo federale. Il mese scorso Trump ha firmato un ordine esecutivo volto a limitare le regolamentazioni statali in materia di intelligenza artificiale, ammonendo che un quadro normativo frammentato potrebbe compromettere la competitività degli Stati Uniti rispetto alla Cina.   Il Pentagono ha presentato una strategia «AI-first» per accelerare l’impiego militare dell’Intelligenza Artificiale; il Segretario alla Difesa Pete Hegseth ha annunciato piani per integrare i principali modelli di Intelligenza Artificiale, tra cui Grok di Elon Musk, all’interno delle reti di difesa.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Eutanasia

L’inventore della capsula suicida dice che l’AI rimpiazzerà i dottori per decidere la morte dei pazienti

Pubblicato

il

Da

L’inventore della controversa capsula per il suicidio assistito Sarco, Philip Nitschke, ha dichiarato che in futuro l’Intelligenza Artificiale potrebbe sostituire gli psichiatri nel valutare se chi richiede il suicidio assistito sia mentalmente capace di prendere tale decisione. Lo riporta Euronews.

 

Il Sarco (abbreviazione di «sarcofago») è una capsula stampata in 3D progettata per permettere a una persona di entrarvi, sdraiarsi e premere un pulsante: il dispositivo abbassa rapidamente i livelli di ossigeno e riempie l’interno con azoto, provocando la morte per ipossia. È stata anche ribattezzata da qualcuno la «Tesla eutanatica».

 

Nitschke, attivista australiano per il diritto all’eutanasia e creatore del dispositivo, ha sostenuto che l’iAI sarebbe in grado di stabilire chi possiede la «capacità mentale» per porre fine alla propria vita. Intervistato dalla testata, ha affermato che i medici non dovrebbero «andare in giro a concedere o negare il permesso di morire» e che la scelta dovrebbe spettare esclusivamente a chi è «sano di mente».

Iscriviti al canale Telegram

Nei Paesi in cui è legale la morte assistita, sono solitamente gli psichiatri a valutare la capacità decisionale del richiedente, anche se la procedura resta limitata e oggetto di forti controversie. Nitschke ha criticato tale sistema definendolo spesso incoerente.

 

«Ho visto numerosi casi in cui lo stesso paziente, visitato da tre psichiatri diversi, riceveva quattro valutazioni differenti», ha dichiarato.

 

L’attivista ha proposto un sistema basato su un’intelligenza artificiale che utilizza un avatar conversazionale: l’utente «si siede e parla dei suoi problemi» con l’avatar, il quale poi decide se la persona è mentalmente idonea a procedere. In caso di esito positivo, il pod Sarco verrebbe sbloccato per una finestra di 24 ore; trascorso tale periodo, la valutazione dovrebbe essere ripetuta. Nitschke ha riferito che le prime versioni del software sono già operative, sebbene non siano state sottoposte a validazione indipendente.

 

Il primo – e finora unico – utilizzo del Sarco in Svizzera, avvenuto nel settembre 2024, provocò un’ondata di indignazione internazionale. Le autorità elvetiche arrestarono diverse persone, tra cui il CEO dell’associazione pro-suicidio assistito The Last Resort, sostenendo che il dispositivo violava la normativa svizzera, che autorizza il suicidio assistito solo a condizioni estremamente rigorose.

Sostieni Renovatio 21

Come riportato da Renovatio 21, inizialmente vietata nella Confederazione, nel 2024 vi erano stati arresti dopo il primo uso della capsula eutanatica in Isvizzera. Due anni fa era emerso che gli americani avrebbero potuto dedurre dalle tasse i Sarco.

 

La proposta di Nitschke ha riacceso il dibattito sul ruolo dell’IA nelle decisioni di vita e di morte. Lo scorso anno OpenAI ha modificato ChatGPT dopo che un’analisi interna aveva rilevato che oltre un milione di utenti avevano condiviso pensieri suicidi con il chatbot.

 

Come riportato da Renovatio 21, diversi psichiatri hanno espresso preoccupazione per il rischio che interazioni prolungate con l’IA possano favorire deliri e paranoia, fenomeno talvolta definito «psicosi da IA».

nella prima metà del 2026.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21


 

 

Continua a leggere

Intelligenza Artificiale

Quando i medici vengono sostituiti da un protocollo

Pubblicato

il

Da

Renovatio 21 traduce e pubblica questo articolo del Brownstone Institute.   La mia esperienza in medicina mi permette di distinguere tra vera innovazione e sottile riclassificazione che altera radicalmente la pratica medica pur rimanendo immutata. L’intelligenza artificiale ha recentemente attirato notevole attenzione, inclusa l’affermazione ampiamente diffusa secondo cui l’IA è stata «legalmente autorizzata a esercitare la professione medica» negli Stati Uniti. Interpretata letteralmente, questa affermazione è imprecisa.   Nessun collegio medico ha concesso l’autorizzazione a una macchina. Nessun algoritmo ha prestato giuramento, accettato obblighi fiduciari o assunto la responsabilità personale per i danni ai pazienti. Nessun medico robot apre una clinica, fattura alle compagnie assicurative o si presenta davanti a una giuria per negligenza medica.   Tuttavia, fermarsi a questa osservazione significa trascurare la questione più ampia. I concetti giuridici di responsabilità sono attualmente in fase di ridefinizione, spesso senza che l’opinione pubblica ne sia consapevole.

Sostieni Renovatio 21

È in atto una trasformazione significativa, che giustifica più di un semplice rifiuto riflessivo o di un acritico entusiasmo tecnologico. L’attuale sviluppo non riguarda l’abilitazione dell’Intelligenza Artificiale come medico, ma piuttosto la graduale erosione del confine fondamentale della medicina: il legame intrinseco tra giudizio clinico e responsabilità umana. Il giudizio clinico implica l’assunzione di decisioni informate, adattate alle esigenze e alle circostanze specifiche di ciascun paziente, e richiede empatia, intuizione e una profonda comprensione dell’etica medica.   La responsabilità umana si riferisce alla responsabilità che gli operatori sanitari si assumono per queste decisioni e i loro esiti. Questa erosione non è il risultato di una legislazione drastica o di un dibattito pubblico, ma avviene silenziosamente attraverso programmi pilota, reinterpretazioni normative e un linguaggio che oscura intenzionalmente la responsabilità. Una volta che questo confine si dissolve, la medicina si trasforma in modi difficili da invertire.   La preoccupazione principale non è se l’intelligenza artificiale possa rinnovare le prescrizioni o individuare risultati di laboratorio anomali. La medicina utilizza da tempo strumenti e gli operatori sanitari generalmente accolgono con favore un aiuto che riduca le attività amministrative o migliori il riconoscimento di schemi. Il vero problema è se il giudizio medico – la decisione sulle azioni corrette, sui pazienti e sui rischi – possa essere visto come un risultato generato dal computer, separato dalla responsabilità morale. Storicamente, gli sforzi per separare il giudizio dalla responsabilità hanno spesso causato danni senza assumersene la responsabilità.   Sviluppi recenti chiariscono le origini dell’attuale confusione. In diversi stati, programmi pilota limitati consentono ora ai sistemi basati sull’Intelligenza Artificiale di assistere nel rinnovo delle prescrizioni per patologie croniche stabili, secondo protocolli rigorosamente definiti. A livello federale, la proposta di legge ha valutato se l’Intelligenza Artificiale possa essere considerata un «professionista» per specifici scopi statutari, a condizione che sia adeguatamente regolamentata.   Queste iniziative sono in genere presentate come risposte pragmatiche alla carenza di medici, ai ritardi di accesso e alle inefficienze amministrative. Sebbene nessuna di queste designi esplicitamente l’intelligenza artificiale come medico, nel loro insieme normalizzano la premessa più preoccupante secondo cui le azioni mediche possono essere intraprese senza un decisore umano chiaramente identificabile.

Aiuta Renovatio 21

Nella pratica, questa distinzione è fondamentale. La medicina non è definita dall’esecuzione meccanica di compiti, ma dall’assegnazione di responsabilità quando i risultati sono sfavorevoli. Scrivere una prescrizione è semplice; assumersi la responsabilità delle sue conseguenze – in particolare quando si considerano comorbilità, contesto sociale, valori del paziente o informazioni incomplete – è molto più complesso. Nel corso della mia carriera, questa responsabilità è sempre ricaduta su un essere umano che poteva essere interrogato, sfidato, corretto e ritenuto responsabile. Quando il dott. Smith commette un errore, la famiglia sa chi contattare, garantendo un filo diretto con la responsabilità umana. Nessun algoritmo, a prescindere dalla sua complessità, può svolgere questo ruolo.   Il rischio principale non è tecnologico, ma normativo e filosofico. Questa transizione rappresenta un passaggio dall’etica della virtù al proceduralismo. Quando legislatori e istituzioni ridefiniscono il processo decisionale medico in funzione dei sistemi piuttosto che degli atti personali, il quadro morale della medicina cambia. La responsabilità diventa diffusa, il danno è più difficile da attribuire e la responsabilità si sposta dai medici ai processi, dal giudizio all’aderenza al protocollo. Quando inevitabilmente si verificano errori, la spiegazione prevalente diventa che «il sistema ha seguito linee guida stabilite». Riconoscere questa transizione chiarisce il passaggio dal processo decisionale etico individualizzato all’aderenza procedurale meccanizzata.   Questa preoccupazione non è teorica. L’assistenza sanitaria contemporanea si trova già ad affrontare sfide legate alla scarsa responsabilità. Ho osservato pazienti danneggiati da decisioni basate su algoritmi perdersi tra amministratori, fornitori e modelli opachi, senza una risposta chiara alla domanda fondamentale: chi ha preso questa decisione? L’Intelligenza Artificiale accelera significativamente questo problema. Un algoritmo non può fornire spiegazioni morali, esercitare moderazione basata sulla coscienza, rifiutare azioni per preoccupazioni etiche o ammettere errori a un paziente o a una famiglia.   I sostenitori di una maggiore autonomia dell’IA citano spesso l’efficienza come giustificazione. Le cliniche sono sovraccariche di lavoro, i medici sono in preda al burnout e i pazienti spesso aspettano mesi per cure che dovrebbero durare solo pochi minuti. Queste preoccupazioni sono legittime e qualsiasi medico onesto le riconosce. Tuttavia, l’efficienza da sola non giustifica l’alterazione dei fondamenti etici della medicina. I sistemi ottimizzati per velocità e scalabilità spesso sacrificano sfumature, discrezione e dignità individuale. Storicamente, la medicina ha resistito a questa tendenza sottolineando che la cura è fondamentalmente una relazione piuttosto che una transazione.   L’Intelligenza Artificiale rischia di invertire questa relazione. Quando sono i sistemi, anziché gli individui, a erogare assistenza, il paziente non è più coinvolto in un patto con un medico, ma diventa parte di un flusso di lavoro. Il medico assume il ruolo di supervisore della macchina o, cosa ancora più preoccupante, funge da cuscinetto legale che assorbe la responsabilità per decisioni non prese personalmente. Col tempo, il giudizio clinico cede il passo all’aderenza al protocollo e l’agire morale diminuisce gradualmente.   L’Intelligenza Artificiale introduce anche un problema più sottile e pericoloso: il mascheramento dell’incertezza. La medicina vive nell’ambiguità. Le prove sono probabilistiche. Le linee guida sono provvisorie. I pazienti raramente si presentano come set di dati puliti. I medici sono addestrati non solo ad agire, ma anche a esitare, a riconoscere quando le informazioni sono insufficienti, quando un intervento può causare più danni che benefici o quando la strada giusta è aspettare. Immaginate uno scenario in cui l’Intelligenza Artificiale raccomanda la dimissione, ma il coniuge del paziente appare timoroso, evidenziando la tensione tra il processo decisionale algoritmico e l’intuizione umana. Tale attrito nel mondo reale sottolinea la posta in gioco dell’ambiguità.   I sistemi di Intelligenza Artificiale non sperimentano incertezza; generano output. Quando sono errati, spesso lo fanno con una sicurezza ingiustificata. Questa caratteristica non è un difetto di programmazione, ma una caratteristica intrinseca della modellazione statistica. A differenza dei medici esperti che esprimono apertamente dubbi, i modelli linguistici di grandi dimensioni e i sistemi di apprendimento automatico non sono in grado di riconoscere i propri limiti. Producono risposte plausibili anche quando i dati sono insufficienti. In medicina, la plausibilità senza fondamento può essere rischiosa.   Man mano che questi sistemi vengono integrati tempestivamente nei flussi di lavoro clinici, i loro risultati influenzano sempre di più le decisioni successive. Col tempo, i medici potrebbero iniziare a fidarsi delle raccomandazioni non per la loro validità, ma perché sono diventate standardizzate. Il giudizio si sposta gradualmente dal ragionamento attivo all’accettazione passiva. In tali circostanze, la presenza umana nel ciclo funge da mero strumento di salvaguardia simbolica.

Iscriviti alla Newslettera di Renovatio 21

I sostenitori affermano spesso che l’IA si limiterà a «migliorare» i medici, piuttosto che sostituirli. Tuttavia, questa rassicurazione è labile. Una volta che l’IA dimostra guadagni in termini di efficienza, le pressioni economiche e istituzionali tendono a favorire una maggiore autonomia. Se un sistema può rinnovare le prescrizioni in modo sicuro, potrebbe presto essere autorizzato a iniziarle. Se riesce a diagnosticare accuratamente patologie comuni, la necessità della revisione medica viene messa in discussione. Se supera gli esseri umani in benchmark controllati, la tolleranza alla variabilità umana diminuisce.   Alla luce di queste tendenze, è essenziale implementare misure di salvaguardia specifiche. Ad esempio, audit obbligatori sulle discrepanze sul 5% delle decisioni basate sull’Intelligenza Artificiale potrebbero fungere da controllo concreto, garantendo l’allineamento tra le raccomandazioni dell’Intelligenza Artificiale e il giudizio clinico umano, fornendo al contempo alle autorità di regolamentazione e ai consigli di amministrazione ospedalieri metriche concrete per monitorare l’integrazione dell’Intelligenza Artificiale.   Queste domande non sono poste con cattive intenzioni; emergono naturalmente all’interno di sistemi focalizzati sul contenimento dei costi e sulla scalabilità. Tuttavia, indicano un futuro in cui il giudizio umano diventerà l’eccezione piuttosto che la norma. In un simile scenario, gli individui con risorse continueranno a ricevere cure umane, mentre altri saranno indirizzati attraverso processi automatizzati. La medicina a due livelli non sarà il risultato di un’ideologia, ma di un’ottimizzazione.   Ciò che rende questo momento particolarmente precario è l’assenza di chiare linee di responsabilità. Quando una decisione guidata dall’Intelligenza Artificiale danneggia un paziente, chi è responsabile? È il medico che supervisiona nominalmente il sistema? L’istituzione che lo ha implementato? Il fornitore che ha addestrato il modello? L’ente regolatore che ne ha approvato l’uso? Senza risposte esplicite, la responsabilità svanisce. E quando la responsabilità svanisce, la fiducia segue a ruota.   La medicina si basa fondamentalmente sulla fiducia. I pazienti affidano il loro corpo, le loro paure e spesso le loro vite nelle mani dei medici. Questa fiducia non può essere trasferita a un algoritmo, per quanto sofisticato possa essere. Si basa sulla certezza della presenza di un essere umano, qualcuno capace di ascoltare, adattarsi e assumersi la responsabilità delle proprie azioni.   Rifiutare del tutto l’Intelligenza Artificiale è superfluo. Se utilizzata con giudizio, l’IA può ridurre gli oneri amministrativi, identificare modelli che potrebbero sfuggire al rilevamento umano e supportare il processo decisionale clinico. Può consentire ai medici di dedicare più tempo all’assistenza ai pazienti piuttosto che alle attività amministrative. Tuttavia, realizzare questo futuro richiede un chiaro impegno a mantenere la responsabilità umana al centro della pratica medica.   «Human-in-the-loop» deve significare più di una supervisione simbolica. Dovrebbe richiedere che un individuo specifico sia responsabile di ogni decisione medica, ne comprenda le motivazioni e mantenga sia l’autorità che l’obbligo di ignorare le raccomandazioni algoritmiche. Deve inoltre implicare trasparenza, spiegabilità e consenso informato del paziente, nonché l’impegno a investire nei medici umani anziché sostituirli con l’Intelligenza Artificiale.

Iscriviti al canale Telegram

Il rischio principale non è l’eccessivo potere dell’Intelligenza Artificiale, ma piuttosto la volontà delle istituzioni di rinunciare alle proprie responsabilità. Nella ricerca di efficienza e innovazione, c’è il rischio che la medicina diventi un campo tecnicamente avanzato e amministrativamente snello, ma privo di sostanza morale.   Mentre pensiamo al futuro, è essenziale chiedersi: che tipo di guaritore immaginiamo al capezzale del paziente nel 2035? Questa domanda richiede un’immaginazione morale collettiva, incoraggiandoci a plasmare un futuro in cui la responsabilità umana e l’assistenza compassionevole rimangano al centro della pratica medica. Mobilitare l’azione collettiva sarà fondamentale per garantire che i progressi nell’Intelligenza Artificiale migliorino, anziché indebolire, questi valori fondamentali.   L’Intelligenza Artificiale non è autorizzata a esercitare la professione medica. Ma la medicina viene silenziosamente riprogettata attorno a sistemi privi di peso morale. Se questo processo continua senza controllo, un giorno potremmo scoprire che il medico non è stato sostituito da una macchina, ma da un protocollo, e che quando si verifica un danno, non c’è più nessuno che possa risponderne.   Questo non sarebbe un progresso. Sarebbe un’abdicazione.   Joseph Varon   Joseph Varon, MD, è medico di terapia intensiva, professore e presidente dell’Independent Medical Alliance. È autore di oltre 980 pubblicazioni peer-reviewed ed è caporedattore del Journal of Independent Medicine.

Iscriviti alla Newslettera di Renovatio 21

SOSTIENI RENOVATIO 21
 
Continua a leggere

Più popolari