ARTICOLI In questa sezione, gli articoli si concentreranno su medicina narrativa, medical humanities ed etica della cura. Analizzando studi pubblicati su riviste scientifiche autorevoli, si tenterà di offrire un punto di partenza per un dialogo interdisciplinare che coinvolga tutti i professionisti della salute. L’obiettivo è contribuire alla costruzione di una pratica clinica più completa e personalizzata, che valorizzi sia l’efficacia degli interventi che la dimensione umana dell’esperienza di malattia
di Massimiliano Marinelli 19 dicembre 2025

Il futuro della cura nell’era dell’IA
una riflessione dal JAMA Summit Report
Introduzione
L’intelligenza artificiale (IA) sta trasformando la sanità su una scala senza precedenti. Il recente “JAMA Summit Report on Artificial Intelligence” delinea con autorevolezza i contorni di questa rivoluzione, descrivendola come una duplice sfida: da un lato, un’incredibile opportunità per affrontare problemi radicati da tempo (“long-standing problems in health care”), dall’altro, un insieme di rischi altrettanto significativi (“so are the risks”).
L’obiettivo di questo articolo è esaminare le conclusioni del report attraverso la lente delle Medical Humanities, esplorando le profonde implicazioni che l’IA avrà sulla relazione di cura, sull’etica professionale e sull’esperienza umana della malattia. L’IA promette di ottimizzare il processo, ma la cura è più di un processo; è una co-costruzione di significato. Questa è la linea di faglia che il presente report ci aiuta a esplorare.
Una nuova tassonomia della cura: le categorie degli strumenti di IA
Per comprendere l’impatto dell’IA, il report del JAMA propone una classificazione degli strumenti in quattro categorie principali, ciascuna con le proprie opportunità e criticità.
Strumenti Clinici (Clinical Tools)
Questi strumenti sono progettati per supportare direttamente le decisioni dei professionisti sanitari. Gli esempi includono software per lo screening della retinopatia diabetica o sistemi di allerta per la sepsi. La loro adozione è già capillare in alcuni settori, come l’imaging medico, dove il 90% dei sistemi sanitari statunitensi ne fa uso. Tuttavia, il report evidenzia le preoccupazioni dei clinici riguardo alla loro accuratezza e al rischio di “automation bias“, ovvero la tendenza a fidarsi eccessivamente dei suggerimenti automatici. Questo “automation bias” non è solo un rischio cognitivo, ma una minaccia diretta alla pratica del clinico, che si fonda sulla capacità di interpretare dati ambigui alla luce della storia unica del paziente.
Strumenti Diretti al Consumatore (Direct-to-Consumer – DTC)
Questa categoria comprende le tecnologie utilizzate direttamente dai pazienti, come le app per la salute mentale o gli smartwatch per il rilevamento di aritmie. Con un mercato che conta oltre 350.000 app per la salute, la loro diffusione è enorme. Il problema principale, sollevato dal report, è la quasi totale assenza di dati sui loro reali effetti sulla salute (“Scant data on health effects”) e una supervisione normativa estremamente limitata. Senza una regia seppure digitale, la narrazione della malattia, storicamente ancorata al dialogo clinico, rischia di disperdersi in un arcipelago di dati non contestualizzati, rendendo il medico non più il co-autore della storia di cura, ma un semplice assemblatore di frammenti digitali.
Strumenti per le Operazioni Aziendali (Business Operations Tools)
L’IA viene sempre più utilizzata per ottimizzare l’efficienza dei sistemi sanitari, dalla gestione dei ricavi alla programmazione degli interventi. Un esempio significativo è l’automazione delle richieste di autorizzazione preventiva (“prior authorization requests”). La critica mossa dal report è netta: le conseguenze di questi strumenti sui pazienti sono ancora poco comprese (“not well understood”) e i medici temono che l’ottimizzazione dei processi possa avere effetti negativi non previsti sulla qualità e l’accesso alle cure.
Strumenti Ibridi (Hybrid Tools)
Gli strumenti ibridi svolgono funzioni multiple, sia cliniche che amministrative. L’esempio più emblematico è quello degli “AI scribes“, assistenti virtuali che trascrivono le conversazioni medico-paziente per generare documentazione clinica e fatture. Il report avanza una previsione dirompente: “Every patient-clinician conversation in the US may soon be accompanied by a live interactive AI agent” (Ogni conversazione medico-paziente negli Stati Uniti potrebbe presto essere accompagnata da un agente IA interattivo in tempo reale). Da una prospettiva narrativa, questa affermazione solleva una domanda: come cambia la relazione di cura con una “terza presenza” nella stanza? Se da un lato l’IA può ridurre il carico burocratico, liberando tempo per il medico, dall’altro rischia di interferire con l’ascolto attivo, la sintonizzazione emotiva e la co-costruzione della storia del paziente, elementi essenziali per una cura autentica.
Navigare l’incertezza: valutazione, regolamentazione e uso responsabile
Il report identifica tre sfide principali che ostacolano un’adozione sicura ed efficace dell’IA.

La sfida della valutazione
Valutare l’efficacia di uno strumento di IA è un’operazione estremamente complessa. I suoi effetti dipendono dal contesto specifico, dall’interfaccia uomo-macchina e dalla formazione dell’utente. A causa della rapidità con cui la tecnologia si evolve, i tradizionali studi clinici randomizzati (RCT) sono spesso impraticabili (“impractical”), lasciando un vuoto di conoscenza sull’impatto reale di questi strumenti.
I vuoti normativi
Negli Stati Uniti, come in molte altre parti del mondo, manca un quadro normativo completo. Molte applicazioni, in particolare quelle per il benessere o di supporto amministrativo, sono esenti dalla supervisione di enti come la FDA, come stabilito dal “21st Century Cures Act”. Questa assenza di regole chiare aumenta l’incertezza e il rischio per pazienti e professionisti.
La responsabilità dell’implementazione
La responsabilità della validazione e del monitoraggio ricade spesso sui sistemi sanitari, che però non sono attrezzati per farlo. La dichiarazione dell’ex commissario della FDA Robert Califf, citata nel report, è eloquente: “I do not believe there’s a single health system in the United States that’s capable of validating an AI algorithm” (Non credo che esista un singolo sistema sanitario negli Stati Uniti in grado di validare un algoritmo di IA). Ciò significa che molti strumenti vengono implementati senza un adeguato controllo sulla loro sicurezza ed efficacia nel contesto reale.
L’impatto sulla professione medica: tra efficienza e domande esistenziali
L’introduzione dell’IA non si limiterà a modificare le mansioni quotidiane, ma richiederà anche lo sviluppo di nuove competenze, a partire da una comprensione fondamentale dei suoi meccanismi (“foundational understanding of AI”). Il report mette in guardia contro un’interpretazione semplicistica dei benefici: liberare i medici dai compiti amministrativi potrebbe non risolvere il burnout se quel tempo venisse semplicemente riempito con un maggior numero di pazienti.
Il punto più rilevante per le Medical Humanities riguarda le preoccupazioni di natura esistenziale, come il potenziale disallineamento tra l’ethos umano della cura e la logica operativa dell’IA, tra gli obiettivi del medico e quelli dell’algoritmo. La pratica medica si fonda sul “giudizio in condizioni di incertezza”. L’IA interviene proprio in questo spazio, ma come si integra con l’esperienza, l’intuizione e i valori del clinico? Come sottolinea il report, i professionisti sanitari dovranno comprendere meglio non solo la tecnologia, ma anche i punti di forza e di debolezza del proprio processo decisionale. Si tratta di una nuova forma di autoconsapevolezza professionale che diventa essenziale in un’epoca di cognizione condivisa. A queste preoccupazioni si aggiungono quelle sollevate dai sindacati degli operatori sanitari, che denunciano i rischi di un’IA non sicura e poco regolamentata, ampliando il dibattito dagli ambienti accademici alla pratica quotidiana.
Costruire un ecosistema di fiducia: etica, dati e collaborazione
Per governare questa transizione, il report delinea una roadmap che poggia su quattro pilastri interconnessi. Il primo è la necessità di coinvolgere tutti gli stakeholder nel ciclo di vita totale del prodotto, assicurando che pazienti e clinici siano parte del processo fin dalla progettazione. A questo si lega lo sviluppo di strumenti di valutazione e monitoraggio adeguati, che vadano oltre la semplice sicurezza per misurare l’efficacia reale sugli esiti clinici. Il terzo pilastro è la costruzione di un’infrastruttura di dati e un ambiente di apprendimento robusti, idealmente un sistema di apprendimento federato basato su un’infrastruttura dati rappresentativa a livello nazionale, per generare conoscenza generalizzabile. Infine, nulla di ciò è possibile senza creare la giusta struttura di incentivi, utilizzando le forze di mercato e le leve politiche per allineare gli obiettivi di tutti gli attori verso il bene comune. Queste strategie sono strettamente connesse a questioni etiche cruciali come i diritti sui dati, la privacy e la proprietà (“data rights, privacy, and ownership”), la supervisione etica e la responsabilità legale (“liability”).
Un breve commento

La lettura del JAMA Summit Report ci restituisce l’immagine di una sanità al bivio. Da un lato, l’Intelligenza Artificiale promette di risolvere problemi annosi, ottimizzando processi e raffinando diagnosi con una potenza di calcolo sovrumana; dall’altro, introduce rischi inediti di “automation bias“, frammentazione dei dati e vuoti normativi. Ma al di là delle categorie tecniche – dagli strumenti clinici agli agenti ibridi che “ascoltano” le nostre visite – emerge una questione fondamentale che riguarda l’ontologia stessa della cura.
L’IA rappresenta, in un certo senso, il culmine della parabola iniziata con l’Evidence-Based Medicine (EBM): sposta definitivamente la fonte della “verità decisionale” all’esterno della relazione medico-paziente (Marinelli, 2023). Se l’EBM si affidava alla statistica dei trial, l’IA si affida all’analisi massiva dei Big Data o ai gemelli digitali, producendo esiti che appaiono indubitabili per la loro precisione matematica.
In questo scenario, il rischio non è solo che la macchina sbagli, ma che la sua “verità” diventi così ingombrante da schiacciare la prospettiva del malato. È qui che la Medicina Narrativa cessa di essere una soft skill per diventare una competenza di sopravvivenza professionale.
Se l’algoritmo fornisce la risposta “scientificamente ottima”, solo la competenza narrativa permette di valutare se quella risposta è “esistenzialmente sostenibile” per la persona che abbiamo di fronte. Come abbiamo osservato, non sempre il paziente desidera o è in grado di deliberare autonomamente sulle opzioni cliniche; spesso cerca una scorciatoia decisionale basata sulla fiducia nel curante.
L’integrazione dell’IA, paradossalmente, aumenta il bisogno di questa mediazione umana. Il medico del futuro non dovrà competere con l’IA sull’elaborazione dei dati, ma dovrà eccellere là dove l’algoritmo è cieco: nella costruzione di una autonomia relazionale (Pierosara, 2023). Dovrà garantire che l’utilizzo della tecnologia sia il risultato dell’incontro tra due agende – quella clinica e quella biografica – e non l’imposizione di un output digitale.
In definitiva, se l’IA ci fornirà mappe sempre più dettagliate del territorio biologico, la Medicina Narrativa resterà l’unica bussola in grado di orientarci nel paesaggio dei valori del paziente. Senza di essa, rischiamo di avere cure tecnicamente perfette per pazienti che non si sentono né ascoltati, né curati, ma solo processati.
minimi riferimenti bibliografici
Angus, D. C., Khera, R., Lieu, T., Liu, V., Ahmad, F. S., Anderson, B., Bhavani, S. V., Bindman, A., Brennan, T., Celi, L. A., Chen, F., Cohen, I. G., Denniston, A., Desai, S., Embí, P., Faisal, A., Ferryman, K., Gerhart, J., Gross, M., . . . Bibbins-Domingo, K. (2025). AI, Health, and Health Care Today and Tomorrow: The JAMA Summit Report on Artificial Intelligence. JAMA, 334(18), 1650–1664. https://doi.org/10.1001/jama.2025.18490
Marinelli, M. (2023). Che cos’è la medicina narrativa: Problemi e metodi. Scholè.
Pierosara, S. (2022). Per una autonomia narrativa. Edizioni Studium.