Intelligenza Artificiale
Quando i medici vengono sostituiti da un protocollo
Renovatio 21 traduce e pubblica questo articolo del Brownstone Institute.
La mia esperienza in medicina mi permette di distinguere tra vera innovazione e sottile riclassificazione che altera radicalmente la pratica medica pur rimanendo immutata. L’intelligenza artificiale ha recentemente attirato notevole attenzione, inclusa l’affermazione ampiamente diffusa secondo cui l’IA è stata «legalmente autorizzata a esercitare la professione medica» negli Stati Uniti. Interpretata letteralmente, questa affermazione è imprecisa.
Nessun collegio medico ha concesso l’autorizzazione a una macchina. Nessun algoritmo ha prestato giuramento, accettato obblighi fiduciari o assunto la responsabilità personale per i danni ai pazienti. Nessun medico robot apre una clinica, fattura alle compagnie assicurative o si presenta davanti a una giuria per negligenza medica.
Tuttavia, fermarsi a questa osservazione significa trascurare la questione più ampia. I concetti giuridici di responsabilità sono attualmente in fase di ridefinizione, spesso senza che l’opinione pubblica ne sia consapevole.
Sostieni Renovatio 21
È in atto una trasformazione significativa, che giustifica più di un semplice rifiuto riflessivo o di un acritico entusiasmo tecnologico. L’attuale sviluppo non riguarda l’abilitazione dell’Intelligenza Artificiale come medico, ma piuttosto la graduale erosione del confine fondamentale della medicina: il legame intrinseco tra giudizio clinico e responsabilità umana. Il giudizio clinico implica l’assunzione di decisioni informate, adattate alle esigenze e alle circostanze specifiche di ciascun paziente, e richiede empatia, intuizione e una profonda comprensione dell’etica medica.
La responsabilità umana si riferisce alla responsabilità che gli operatori sanitari si assumono per queste decisioni e i loro esiti. Questa erosione non è il risultato di una legislazione drastica o di un dibattito pubblico, ma avviene silenziosamente attraverso programmi pilota, reinterpretazioni normative e un linguaggio che oscura intenzionalmente la responsabilità. Una volta che questo confine si dissolve, la medicina si trasforma in modi difficili da invertire.
La preoccupazione principale non è se l’intelligenza artificiale possa rinnovare le prescrizioni o individuare risultati di laboratorio anomali. La medicina utilizza da tempo strumenti e gli operatori sanitari generalmente accolgono con favore un aiuto che riduca le attività amministrative o migliori il riconoscimento di schemi. Il vero problema è se il giudizio medico – la decisione sulle azioni corrette, sui pazienti e sui rischi – possa essere visto come un risultato generato dal computer, separato dalla responsabilità morale. Storicamente, gli sforzi per separare il giudizio dalla responsabilità hanno spesso causato danni senza assumersene la responsabilità.
Sviluppi recenti chiariscono le origini dell’attuale confusione. In diversi stati, programmi pilota limitati consentono ora ai sistemi basati sull’Intelligenza Artificiale di assistere nel rinnovo delle prescrizioni per patologie croniche stabili, secondo protocolli rigorosamente definiti. A livello federale, la proposta di legge ha valutato se l’Intelligenza Artificiale possa essere considerata un «professionista» per specifici scopi statutari, a condizione che sia adeguatamente regolamentata.
Queste iniziative sono in genere presentate come risposte pragmatiche alla carenza di medici, ai ritardi di accesso e alle inefficienze amministrative. Sebbene nessuna di queste designi esplicitamente l’intelligenza artificiale come medico, nel loro insieme normalizzano la premessa più preoccupante secondo cui le azioni mediche possono essere intraprese senza un decisore umano chiaramente identificabile.
Aiuta Renovatio 21
Nella pratica, questa distinzione è fondamentale. La medicina non è definita dall’esecuzione meccanica di compiti, ma dall’assegnazione di responsabilità quando i risultati sono sfavorevoli. Scrivere una prescrizione è semplice; assumersi la responsabilità delle sue conseguenze – in particolare quando si considerano comorbilità, contesto sociale, valori del paziente o informazioni incomplete – è molto più complesso. Nel corso della mia carriera, questa responsabilità è sempre ricaduta su un essere umano che poteva essere interrogato, sfidato, corretto e ritenuto responsabile. Quando il dott. Smith commette un errore, la famiglia sa chi contattare, garantendo un filo diretto con la responsabilità umana. Nessun algoritmo, a prescindere dalla sua complessità, può svolgere questo ruolo.
Il rischio principale non è tecnologico, ma normativo e filosofico. Questa transizione rappresenta un passaggio dall’etica della virtù al proceduralismo. Quando legislatori e istituzioni ridefiniscono il processo decisionale medico in funzione dei sistemi piuttosto che degli atti personali, il quadro morale della medicina cambia. La responsabilità diventa diffusa, il danno è più difficile da attribuire e la responsabilità si sposta dai medici ai processi, dal giudizio all’aderenza al protocollo. Quando inevitabilmente si verificano errori, la spiegazione prevalente diventa che «il sistema ha seguito linee guida stabilite». Riconoscere questa transizione chiarisce il passaggio dal processo decisionale etico individualizzato all’aderenza procedurale meccanizzata.
Questa preoccupazione non è teorica. L’assistenza sanitaria contemporanea si trova già ad affrontare sfide legate alla scarsa responsabilità. Ho osservato pazienti danneggiati da decisioni basate su algoritmi perdersi tra amministratori, fornitori e modelli opachi, senza una risposta chiara alla domanda fondamentale: chi ha preso questa decisione? L’Intelligenza Artificiale accelera significativamente questo problema. Un algoritmo non può fornire spiegazioni morali, esercitare moderazione basata sulla coscienza, rifiutare azioni per preoccupazioni etiche o ammettere errori a un paziente o a una famiglia.
I sostenitori di una maggiore autonomia dell’IA citano spesso l’efficienza come giustificazione. Le cliniche sono sovraccariche di lavoro, i medici sono in preda al burnout e i pazienti spesso aspettano mesi per cure che dovrebbero durare solo pochi minuti. Queste preoccupazioni sono legittime e qualsiasi medico onesto le riconosce. Tuttavia, l’efficienza da sola non giustifica l’alterazione dei fondamenti etici della medicina. I sistemi ottimizzati per velocità e scalabilità spesso sacrificano sfumature, discrezione e dignità individuale. Storicamente, la medicina ha resistito a questa tendenza sottolineando che la cura è fondamentalmente una relazione piuttosto che una transazione.
L’Intelligenza Artificiale rischia di invertire questa relazione. Quando sono i sistemi, anziché gli individui, a erogare assistenza, il paziente non è più coinvolto in un patto con un medico, ma diventa parte di un flusso di lavoro. Il medico assume il ruolo di supervisore della macchina o, cosa ancora più preoccupante, funge da cuscinetto legale che assorbe la responsabilità per decisioni non prese personalmente. Col tempo, il giudizio clinico cede il passo all’aderenza al protocollo e l’agire morale diminuisce gradualmente.
L’Intelligenza Artificiale introduce anche un problema più sottile e pericoloso: il mascheramento dell’incertezza. La medicina vive nell’ambiguità. Le prove sono probabilistiche. Le linee guida sono provvisorie. I pazienti raramente si presentano come set di dati puliti. I medici sono addestrati non solo ad agire, ma anche a esitare, a riconoscere quando le informazioni sono insufficienti, quando un intervento può causare più danni che benefici o quando la strada giusta è aspettare. Immaginate uno scenario in cui l’Intelligenza Artificiale raccomanda la dimissione, ma il coniuge del paziente appare timoroso, evidenziando la tensione tra il processo decisionale algoritmico e l’intuizione umana. Tale attrito nel mondo reale sottolinea la posta in gioco dell’ambiguità.
I sistemi di Intelligenza Artificiale non sperimentano incertezza; generano output. Quando sono errati, spesso lo fanno con una sicurezza ingiustificata. Questa caratteristica non è un difetto di programmazione, ma una caratteristica intrinseca della modellazione statistica. A differenza dei medici esperti che esprimono apertamente dubbi, i modelli linguistici di grandi dimensioni e i sistemi di apprendimento automatico non sono in grado di riconoscere i propri limiti. Producono risposte plausibili anche quando i dati sono insufficienti. In medicina, la plausibilità senza fondamento può essere rischiosa.
Man mano che questi sistemi vengono integrati tempestivamente nei flussi di lavoro clinici, i loro risultati influenzano sempre di più le decisioni successive. Col tempo, i medici potrebbero iniziare a fidarsi delle raccomandazioni non per la loro validità, ma perché sono diventate standardizzate. Il giudizio si sposta gradualmente dal ragionamento attivo all’accettazione passiva. In tali circostanze, la presenza umana nel ciclo funge da mero strumento di salvaguardia simbolica.
Iscriviti alla Newslettera di Renovatio 21
I sostenitori affermano spesso che l’IA si limiterà a «migliorare» i medici, piuttosto che sostituirli. Tuttavia, questa rassicurazione è labile. Una volta che l’IA dimostra guadagni in termini di efficienza, le pressioni economiche e istituzionali tendono a favorire una maggiore autonomia. Se un sistema può rinnovare le prescrizioni in modo sicuro, potrebbe presto essere autorizzato a iniziarle. Se riesce a diagnosticare accuratamente patologie comuni, la necessità della revisione medica viene messa in discussione. Se supera gli esseri umani in benchmark controllati, la tolleranza alla variabilità umana diminuisce.
Alla luce di queste tendenze, è essenziale implementare misure di salvaguardia specifiche. Ad esempio, audit obbligatori sulle discrepanze sul 5% delle decisioni basate sull’Intelligenza Artificiale potrebbero fungere da controllo concreto, garantendo l’allineamento tra le raccomandazioni dell’Intelligenza Artificiale e il giudizio clinico umano, fornendo al contempo alle autorità di regolamentazione e ai consigli di amministrazione ospedalieri metriche concrete per monitorare l’integrazione dell’Intelligenza Artificiale.
Queste domande non sono poste con cattive intenzioni; emergono naturalmente all’interno di sistemi focalizzati sul contenimento dei costi e sulla scalabilità. Tuttavia, indicano un futuro in cui il giudizio umano diventerà l’eccezione piuttosto che la norma. In un simile scenario, gli individui con risorse continueranno a ricevere cure umane, mentre altri saranno indirizzati attraverso processi automatizzati. La medicina a due livelli non sarà il risultato di un’ideologia, ma di un’ottimizzazione.
Ciò che rende questo momento particolarmente precario è l’assenza di chiare linee di responsabilità. Quando una decisione guidata dall’Intelligenza Artificiale danneggia un paziente, chi è responsabile? È il medico che supervisiona nominalmente il sistema? L’istituzione che lo ha implementato? Il fornitore che ha addestrato il modello? L’ente regolatore che ne ha approvato l’uso? Senza risposte esplicite, la responsabilità svanisce. E quando la responsabilità svanisce, la fiducia segue a ruota.
La medicina si basa fondamentalmente sulla fiducia. I pazienti affidano il loro corpo, le loro paure e spesso le loro vite nelle mani dei medici. Questa fiducia non può essere trasferita a un algoritmo, per quanto sofisticato possa essere. Si basa sulla certezza della presenza di un essere umano, qualcuno capace di ascoltare, adattarsi e assumersi la responsabilità delle proprie azioni.
Rifiutare del tutto l’Intelligenza Artificiale è superfluo. Se utilizzata con giudizio, l’IA può ridurre gli oneri amministrativi, identificare modelli che potrebbero sfuggire al rilevamento umano e supportare il processo decisionale clinico. Può consentire ai medici di dedicare più tempo all’assistenza ai pazienti piuttosto che alle attività amministrative. Tuttavia, realizzare questo futuro richiede un chiaro impegno a mantenere la responsabilità umana al centro della pratica medica.
«Human-in-the-loop» deve significare più di una supervisione simbolica. Dovrebbe richiedere che un individuo specifico sia responsabile di ogni decisione medica, ne comprenda le motivazioni e mantenga sia l’autorità che l’obbligo di ignorare le raccomandazioni algoritmiche. Deve inoltre implicare trasparenza, spiegabilità e consenso informato del paziente, nonché l’impegno a investire nei medici umani anziché sostituirli con l’Intelligenza Artificiale.
Iscriviti al canale Telegram ![]()
Il rischio principale non è l’eccessivo potere dell’Intelligenza Artificiale, ma piuttosto la volontà delle istituzioni di rinunciare alle proprie responsabilità. Nella ricerca di efficienza e innovazione, c’è il rischio che la medicina diventi un campo tecnicamente avanzato e amministrativamente snello, ma privo di sostanza morale.
Mentre pensiamo al futuro, è essenziale chiedersi: che tipo di guaritore immaginiamo al capezzale del paziente nel 2035? Questa domanda richiede un’immaginazione morale collettiva, incoraggiandoci a plasmare un futuro in cui la responsabilità umana e l’assistenza compassionevole rimangano al centro della pratica medica. Mobilitare l’azione collettiva sarà fondamentale per garantire che i progressi nell’Intelligenza Artificiale migliorino, anziché indebolire, questi valori fondamentali.
L’Intelligenza Artificiale non è autorizzata a esercitare la professione medica. Ma la medicina viene silenziosamente riprogettata attorno a sistemi privi di peso morale. Se questo processo continua senza controllo, un giorno potremmo scoprire che il medico non è stato sostituito da una macchina, ma da un protocollo, e che quando si verifica un danno, non c’è più nessuno che possa risponderne.
Questo non sarebbe un progresso. Sarebbe un’abdicazione.
Joseph Varon
Joseph Varon, MD, è medico di terapia intensiva, professore e presidente dell’Independent Medical Alliance. È autore di oltre 980 pubblicazioni peer-reviewed ed è caporedattore del Journal of Independent Medicine.
Iscriviti alla Newslettera di Renovatio 21
Cina
Robot cinese infrange il record mondiale umano nella mezza maratona
China-made “Lightning” robot won first place at the Beijing Robot Marathon!
As a bipedal humanoid robot, it completed the 21 km race in a net time of 48 minutes and 40 seconds—look, it’s getting ready to give an interview. pic.twitter.com/743QIoWVyO — China pulse 🇨🇳 (@Eng_china5) April 19, 2026
Iscriviti al canale Telegram ![]()
This Chinese robot is so fast that the judges couldn’t keep up with it. pic.twitter.com/oVaRwxdwRZ
— China pulse 🇨🇳 (@Eng_china5) April 18, 2026
This Chinese humanoid robot just shattered the world record for a half marathon, finishing in 50 min 26 sec.
This video shows its crash just meters before the finish line where it had to be picked up by a team of humans. The robot is from Honor, the smartphone maker and Huawei… pic.twitter.com/HflDC0rInX — Kyle Chan (@kyleichan) April 19, 2026
Humanoid robots hit the ground running in the Beijing E-Town humanoid robot half-marathon on Sunday, competing in both autonomous navigation and remote-controlled categories. #marathon #Beijing #HumanoidRobot pic.twitter.com/dxacB1BzH2
— China Xinhua News (@XHNews) April 19, 2026
Aiuta Renovatio 21
A robot was torn apart during a half marathon in China
It simply failed to notice an obstacle, crashed into it — and broke into pieces. Still a long way from being a “Terminator.” In the end, it had to be removed from the track, with a team brought in to evacuate what was left… pic.twitter.com/E2BEZtmBnW — NEXTA (@nexta_tv) April 18, 2026
Iscriviti alla Newslettera di Renovatio 21
Circa il 40% degli automo antropomorfi ha funzionato in modo autonomo, affrontando curve, terreni irregolari e folle senza bisogno di controllo remoto. Gli altri automi erano invece gestiti da tecnici, con tempi di completamento adattati alle diverse categorie. La Cina ha designato la robotica umanoide come priorità strategica nazionale e uno dei sei nuovi motori di crescita economica per i prossimi cinque anni, fornendo ingenti sussidi per accelerarne lo sviluppo. Lo stesso sta facendo l’amministrazione Trump. Come riportato da Renovatio 21 la commissione cinese per la pianificazione economica ha avvertito che l’industria cinese della robotica umanoide rischia di incorrere in una bolla speculativa a causa della frenesia degli investimenti e ha esortato a impedire che l’espansione esplosiva del settore travolga il mercato. Mentre in Cina già si organizzano tornei di lotta tra androidi, Xiaomi utilizza macchine umanoide nella sua catena di montaggio. Come riportato da Renovatio 21, la Repubblica Popolare sta investendo in piattaforme abilitate all’AI che spera un giorno condurranno missioni letali, completamente senza input o controllo umano, già per la prossima guerra.2026 Robot marathon fail & fun compilation pic.twitter.com/mmeUbrgtPD
— Eren Chen (@ErenChenAI) April 19, 2026
Iscriviti alla Newslettera di Renovatio 21
Intelligenza Artificiale
Robocani pattugliano le strade della città e parlano con accento da call center indiano
Ad Atlanta, i residenti si ritrovano faccia a faccia con cani robot che pattugliano i parcheggi dei loro condomini, apparentemente controllati da operatori stranieri in carne e ossa tramite i robot.
Un video virale pubblicato su X cattura la reazione spontanea degli abitanti – della popolazione dei negri americani del Sud, a giudicare dall’accento e dalle fraseologie utilizzate – del luogo di fronte a una delle unità meccaniche.
L’operatore ai comandi del robocane risponde in tempo reale e l’accento non lascia dubbi sulla posizione della persona all’altro capo della chiamata: si tratta di qualcuno che con estrema probabilità risponde da un call center indiano.
Atlanta residents react to the new robot dogs patrolling their apartment parking lot
They speak to the dog and there seems to be a live operator talking back
The person speaking very clearly is likely in India based on the accent
There are plenty of videos of these dogs… pic.twitter.com/01h9kxwyNj
— Wall Street Apes (@WallStreetApes) April 12, 2026
Meme of the day! Robots on American streets are being controlled by operators from India
In Atlanta, police officers encountered one of these machines in the evening: the robot dog spoke to them in English with an Indian accent and explained that it was “at work” and monitoring… pic.twitter.com/l98N6hglwk
— NEXTA (@nexta_tv) December 29, 2025
Atlanta just hired a robot guard dog for night duty.
No sleep. No breaks. 24/7 patrol.
Welcome to the future of security.(Source: @BrianRoemmele ) pic.twitter.com/9SaDlOrzoy
— Learn AI Faster (@learnaifaster) November 22, 2025
Robot “dog” patrolling Atlanta, Georgiapic.twitter.com/r5UcFB1MaS
— Massimo (@Rainmaker1973) April 2, 2026
Sostieni Renovatio 21
Alcuni di questi video risalgano all’anno passato, mostrando che il programma robocinico nella grande città della Georgia è risalente.
Secondo quanto asserisce il post su X esistono numerosi video di questi cani che chiamano la polizia per segnalare persone, il che significa che qualcuno seduto in India sta pattugliando le nostre strade e chiamando la polizia per segnalare cittadini americani. Questi cani robotici sono dotati di telecamere a 360°, termocamere, fari, sirene, altoparlanti e sensori. Nonostante ciò, non sono completamente autonomi: in genere, un operatore umano monitora le immagini da remoto».
Un altro automa cinoide è stato visto di recente impartire ordini agli americani ad Atlanta. Anche quando i cittadini obbedivano pacificamente, il robot-dogo emetteva ordini e chiamava la polizia vera e propria, il tutto mentre gli occhi e le orecchie dietro le macchine si trovavano all’estero.
The new robot security dogs in Atlanta are now giving commands to Americans
Even when this woman peacefully immediately complies with the robot security dog, even being very friendly to the robot. It still calls the police on her
What could possibly go wrong here….. pic.twitter.com/DvReKpsq70
— Wall Street Apes (@WallStreetApes) April 1, 2026
Iscriviti al canale Telegram ![]()
Mentre in America vengono utilizzati per la sicurezza dei parcheggi, con le immagini trasmesse da personale straniero, in Cina questa tecnologia viene impiegata in un ambito ben più aggressivo. Pechino ha già schierato robot lupo armati di mitragliatrici e dotati di un «cervello collettivo» per il combattimento urbano coordinato.
Filmati separati mostrano un cane robot armato che conduce esercitazioni di combattimento complete nell’ambito dell’avanzata degli eserciti robotici globali.
Il contrasto non potrebbe essere più evidente. La sicurezza di base dei quartieri americani viene esternalizzata a operatori di call center stranieri che ora possono osservare, ascoltare, registrare e riferire sui cittadini statunitensi 24 ore su 24, 7 giorni su 7. In Cina, la stessa piattaforma di base viene militarizzata per ottenere il dominio sul campo di battaglia.
Questi cani non sono giocattoli. Sono dotati di telecamere a 360 gradi, termocamere e sensori che inviano dati direttamente a chi paga l’operatore. Ciò significa che filmati sensibili di case, veicoli e spostamenti quotidiani di cittadini americani vengono trasmessi in streaming all’estero, potenzialmente archiviati, analizzati o persino condivisi con governi stranieri. E quando i robot decidono di chiamare la polizia, sembra che sia una voce straniera a innescare un’azione delle forze dell’ordine americane contro cittadini americani sul suolo americano.
Come riportato da Renovatio 21, Los Angeles, come Nuova York, hanno fornito le loro forze dell’ordine di robodogghi. Anche la vicina San Francisco ha persino preso in considerazione l’idea di consentire al suo dipartimento di polizia di utilizzare i robot dotati di forza letale in caso di emergenza. Robocani sono utilizzati ai confini con il Messico. Tuttavia vi è polemica: c’è chi ritiene che il loro uso spaventa gli immigrati spingendoli verso sentieri dove poi incontrano la morte.
Un esemplare appartenente all’Università era stato filmato in piazza a Genova, mentre in Umbria esemplari di robocane furono lasciati liberi di scorrazzare nei boschi all’interno di quello che è stato detto era un esperimento scientifico.
Renovatio 21, testata oramai ribattezzabile come «La Gazzetta del robocane» vista la serqua di articoli sull’argomento, aveva parlato della militarizzazione dei robocani negli scorsi anni. Roboquadrupedi militari sono in produzione ovunque – pure in versione «telepatica».
Mesi fa era emersa negli Stati Uniti anche una versione di robocane dotato di lanciafiamme chiamato «Thermonator».
Come visto in immagini scioccanti della primavera 2022, i robocani abbiano pattugliato le strade di Shanghai durante il colossale lockdown della primavera 2022, dove per sorvegliare e punire i 26 milioni di abitanti usarono, oltre agli androidi quadrupedi, anche droni che volevano tra i palazzi ripetendo frasi come «contieni la sete di libertà del tuo spirito».
Intelligenza Artificiale
La casa del CEO di OpenAI colpita da una molotov
Iscriviti alla Newslettera di Renovatio 21
Iscriviti alla Newslettera di Renovatio 21
-



Occulto1 settimana faGli USA sono sotto il controllo di cinque demoni-generali: parla l’esorcista
-



Pensiero1 settimana faPerché Trump attacca il papa?
-



Pensiero1 settimana faPresidenti USA ricattati da Israele: Tucker Carlson risponde a Trump
-



Vaccini7 giorni faElon Musk ha subito danni dal vaccino COVID. Ex dirigente Pfizer ammette: il siero potrebbe aver ucciso migliaia di persone
-



Spirito2 settimane faIl Pentagono minaccia il papato con la cattività di Avignone. Perché la notizia esce ora?
-



Storia2 settimane faVaccini, la storia del movimento anti-obbligo dell’epoca vittoriana
-



Epidemie2 settimane faAvanzamenti della Commissione COVID. Intervista al dottor Giacomini
-



Salute2 settimane faI malori della 15ª settimana 2026












