ARTICOLI In questa sezione, gli articoli si concentreranno su medicina narrativa, medical humanities ed etica della cura. Analizzando studi pubblicati su riviste scientifiche autorevoli, si tenterà di offrire un punto di partenza per un dialogo interdisciplinare che coinvolga tutti i professionisti della salute. L’obiettivo è contribuire alla costruzione di una pratica clinica più completa e personalizzata, che valorizzi sia l’efficacia degli interventi che la dimensione umana dell’esperienza di malattia
di Massimiliano Marinelli 5 dicembre 2025

- Medicina Narrativa e Intelligenza Artificiale
Medicina Narrativa e Intelligenza Artificiale
Una breve introduzione al dibattito
Un’introduzione per aprire il dibattito
Nel giro di pochissimi anni l’intelligenza artificiale – soprattutto i Large Language Models (LLM) e le tecnologie di Natural Language Processing (NLP) – è entrata nel cuore dell’ecosistema salute: ricerca, diagnosi, terapia, documentazione clinica, formazione, comunicazione con i pazienti. La medicina narrativa (MN), che di questo ecosistema abita il versante più umanistico e relazionale, non può restare ai margini di questa trasformazione: ne è toccata nel metodo, nel linguaggio e persino nella propria legittimazione epistemologica.
Questo testo propone una cornice per il dibattito che come SIMeN vogliamo attivare:
- delineando le principali linee di tensione tra AI e MN;
- mostrando come in Italia siano già in corso esperienze concrete di “medicina narrativa digitale” e AI;
- offrendo una mappa sintetica di opportunità e rischi, come base di discussione per la comunità dei professionisti sanitari.
1. AI e medicina narrativa: un nuovo campo di tensione
1.1 Il paradosso dell’efficienza e la “dataficazione del vissuto”
Ghenimi, Govender e Moodley hanno parlato di un vero e proprio “paradosso dell’intelligenza artificiale e della medicina basata sulla narrazione”: i sistemi sanitari cercano nell’AI una risposta alla pressione per efficienza, standardizzazione e predizione; la MN, al contrario, insiste sulla singolarità del vissuto, sull’illness script come evento fenomenologico irriducibile.
L’integrazione massiccia di strumenti di ambient listening e trascrizione automatica promette di “liberare il medico dallo schermo”, mentre sistemi come DAX Copilot generano in tempo reale resoconti strutturati della visita. In teoria, più tempo ritrovato per lo sguardo e l’ascolto; in pratica, il rischio è la nascita di un nuovo oggetto: l’“(a)iRecord”, una cartella clinica costruita in gran parte dall’algoritmo, ottimizzata per codifica, fatturazione e aderenza alle linee guida, ma potenzialmente cieca alla densità esistenziale delle storie.
Quando la sofferenza di una madre – per il futuro dei figli, per esempio – viene compressa in una nota psicosociale o in una checkbox, la narrazione viene “dataficata”: trasformata in dato utile al sistema, ma impoverita come fonte di risonanza empatica e di comprensione condivisa. Il rischio, per la MN, è che la parola del paziente venga sì registrata, ma non davvero accolta.
1.2 Dal medico “autore” al medico “editor”: la nuova medicina narrativa
Schwartz e Lanphier osservano che l’uso di LLM nella raccolta e nella scrittura delle storie cliniche spinge il clinico a spostarsi dal ruolo di autore a quello di editor della narrazione generata dalla macchina (Schwartz & Lanphier, 2025).
Questa transizione ha almeno due implicazioni critiche:
- Passività narrativa: testi generati dall’AI sono grammaticalmente impeccabili e clinicamente plausibili. Proprio per questo il rischio è che vengano accettati quasi in blocco, senza quel lavoro critico di verifica, chiarificazione, “ritorno” al paziente che è parte essenziale della competenza narrativa.
- Erosione della competenza: scrivere l’anamnesi non è solo un atto burocratico; è un modo di pensare. Nella tessitura del testo il clinico individua lacune, ambiguità, contraddizioni, mentre si confronta con i non detti. Ma va ricordato che l’anamnesi è solo una parte della più ampia fase di raccolta delle informazioni: oltre alla “cronaca” delle malattie passate, recenti e familiari, una medicina centrata sulla persona richiede di esplorare le preferenze dei pazienti, il loro contesto di vita, le idee che si sono fatte sulla malattia, le preoccupazioni per il futuro, le attese nei confronti delle cure. È in questo spazio dialogico che si costruisce la relazione di cura, si negozia il significato dei sintomi, si comprendono gli ostacoli all’aderenza e si fa davvero posto all’agenda del paziente. Delegare sistematicamente a un LLM la strutturazione di questa fase – limitandosi a controllare e firmare ciò che la macchina ha già messo in forma – significa non solo rischiare una comprensione più superficiale del caso, ma soprattutto precludersi l’occasione stessa di costruire una relazione centrata sulla persona. Il “muscolo” narrativo che si atrofizza non è allora solo la capacità di scrivere bene, ma la capacità di stare dentro un colloquio in cui domande, silenzi, rilanci e riformulazioni sono già, in sé, cura..
Esiste anche un’altra domanda alla quale rispondere: su quali storie, generi testuali, strutture narrative sono stati addestrati questi modelli? Se gli LLM sono nutriti soprattutto di testi clinici standardizzati, rischiano di imporre un suo “normale” narrativo – lineare, biomedicale, anglofono – che omogeneizza e patologizza ogni deviazione: la narrazione circolare, l’esitazione, il silenzio, le forme culturali altre.
1.3 Empatia simulata e ambiguità etica
Studi recenti mostrano che le bozze di risposta generate da LLM nei portali elettronici dei pazienti vengono spesso giudicate più empatiche e più accurate delle risposte umane. Questo dipende dal fatto che l’AI: utilizza più linguaggio soggettivo, mantiene una polarità emotiva tendenzialmente positiva e offre risposte più lunghe e dettagliate. In altre parole, nel momento in cui la “gara” si gioca sul solo contenuto verbale delle risposte scritte, gli attuali LLM hanno vita facile: la costruzione di un linguaggio empatico obbedisce infatti a regole formali – lessicali, sintattiche, retoriche – alle quali si può essere addestrati in modo estremamente efficace. Da questo punto di vista, il duello uomo-macchina è quasi mal posto, come non avrebbe senso oggi organizzare una sfida tra uno scacchista umano e un motore di scacchi: sappiamo già chi vincerebbe sul piano computazionale.
Proprio per questo sarebbe anche ingiusto prendersela con i medici, rimarcando l’ennesima “carenza di empatia” sulla base del confronto tra le loro risposte brevi, scritte spesso in condizioni di sovraccarico, e le risposte fluide, prolisse e impeccabilmente “gentili” dell’AI. Il vero banco di prova dell’empatia non è la procedura talvolta burocratica della messaggistica asincrona, ma la relazione di cura in presenza: lo spazio in cui si sostengono silenzi, si tollera la confusione, si condividono decisioni difficili, si regge lo sguardo dell’altro quando porta notizie che nessuno vorrebbe dare o ricevere.
Qui si apre l’equivoco fondamentale: si confonde l’effetto linguistico dell’empatia con l’atto empatico in senso pieno. L’AI può produrre frasi del tipo “capisco come ti senti”, ma non capisce realmente; può generare una “empatia attiva” di superficie, (Halpern, 2020). in prima persona, che simula una soggettività inesistente e rischia di alimentare una relazione parasociale con un’entità priva di responsabilità morale. Diverso è concepire l’AI come strumento di “empatia passiva”: un sistema in grado di riconoscere segnali di stress o incomprensione nelle parole del paziente, suggerendo al clinico quando rallentare, spiegare meglio, cambiare registro. In questo secondo scenario la macchina non prende il posto del curante, ma ne amplifica l’attenzione; la responsabilità dell’incontro – e dell’empatia come risposta a una vulnerabilità concreta – resta chiaramente umana.
1.4 Verso un modello “centauro”
Dalla letteratura emerge la proposta di un modello ibrido di cura – il “centauro” – in cui competenze umane e capacità computazionali vengono distribuite per natura di compito.
- All’AI: raccolta, trascrizione e aggregazione di grandi volumi di dati, distant reading delle narrazioni, individuazione di pattern e segnali deboli, supporto decisionale probabilistico.(info.primarycare.hms.harvard.edu)
- Al clinico umano: close reading e interpretazione ermeneutica, empatia attiva, giudizio etico, decisione condivisa con il paziente.
In questa ottica, il nodo non è se usare l’AI nella medicina narrativa, ma come redistribuire i ruoli perché il cuore relazionale della cura non venga colonizzato dall’algoritmo.
2. AI e medicina narrativa in Italia: esperienze e sperimentazioni
L’Italia è oggi uno dei laboratori più interessanti in Europa sul fronte dell’integrazione tra narrazione, digitale e AI, grazie anche al lavoro della SIMeN e della PMI innovativa società benefit DNM. In questa sezione richiamo alcune esperienze emblematiche, non per esaurirne la mappa, ma per dare concretezza al dibattito.
2.1 I Progetti
Narr-arti (Fondazione Policlinico Gemelli)
Ideato a partire dallo studio PERGIQUAL (Fabi et al, 2025) che ha validato il modello di analisi delle narrazioni utilizzato per istruire il sistema di Intelligenza Artificiale, il progetto prevede il monitoraggio del diario digitale narrativo di donne con tumore al seno avanzato per supportare la personalizzazione bio-psico-sociale della cura.
Centro di Medicina Narrativa – A.O. Sant’Andrea di Roma promosso da SIMeN.
Medicina narrativa digitale e AI a supporto delle diverse aree terapeutiche. Un centro per passare dalla prestazione ad un percorso di cura, centrato sulla qualità della relazione e l’ascolto strutturato delle esigenze delle persone.
MEDNA_YPE – Epilessia in adolescenza (E.O. Ospedali Galliera)
Le narrazioni digitali, analizzate dall’IA, aiutano il team curante a comprendere l’impatto dell’epilessia sulla qualità di vita dei giovani, sostenendo la transizione e la personalizzazione del percorso di cura.
2.2 Anziani fragili, robotica e AI conversazionale
Seppure non si tratti propriamente di medicina narrativa, ma di un’iniziativa ANTHEM – AdvaNced Technology for Human centEred Medicine, si segnala sul fronte dell’assistenza agli anziani fragili, progetti come Daisi&Ron integrano robotica sociale, AI conversazionale e realtà virtuale per sostenere l’invecchiamento attivo.
Il robot TEO interagisce vocalmente con l’anziano, propone esercizi cognitivi, monitora segnali di declino. integrando e supportando “il personale, raccogliendo inoltre dati utili per l’assistenza e la cura dei soggetti” Anche qui, la sfida è duplice: evitare che la macchina sostituisca le relazioni umane, ma riconoscerne il potenziale nel prevenire isolamento e decadimento.
2.3 Long COVID e distant reading delle narrazioni
L’uso dell’AI è un metodi avanzato di analisi testuale per caratterizzare la narrazione della malattia in Italia.
Scarpino (Scarpino et al., 2022) ha analizzato un totale di 187 testimonianze testuali di Medicina Narrativa (MN) raccolte automaticamente tramite web scraping da due blog italiani: “Sindrome Post COVID-19” e il nostro “R-Esistere”. (R-esistere | SIMeN | Società Italiana di Medicina Narrativa) Le narrazioni sono state classificate come PASC (Post-acute Sequelae of COVID-19, ovvero Long COVID) o non-PASC (testimonianze di professionisti sanitari e riflessioni generali). L’obiettivo era valutare la fattibilità della caratterizzazione delle narrazioni PASC basandosi sugli argomenti discussi.
Per l’analisi, lo studio ha confrontato due diverse tecniche di topic modeling: la tradizionale Latent Dirichlet Allocation (LDA) e l’approccio basato sul transformer BERTopic. L’approccio BERTopic-based ha sovraperformato il modello LDA, raggiungendo un’accuratezza complessiva del 91,97% e raggruppando il 97,26% delle narrazioni PASC nello stesso cluster.
L’intera ricerca ha utilizzato intensivamente l’Intelligenza Artificiale (AI), impiegando metodi di Natural Language Processing (NLP) e Text Mining (TM). Nello specifico, BERTopic sfrutta BERT (Bidirectional Encoder Representations from Transformers), un modello di deep learning molto noto, per generare rappresentazioni embedding dei documenti e identificare i topic latenti. Questo ha permesso di identificare gli argomenti prevalenti nelle narrazioni PASC, come “febbre”, “fatica”, “stanchezza” e “dolore”, indicando problemi comuni che necessitano supporto.
3. Opportunità e rischi: una mappa per il dibattito
A partire dalla letteratura internazionale e dalle esperienze italiane, possiamo organizzare le questioni principali in due insiemi: opportunità e criticità. L’obiettivo non è chiudere la discussione, ma offrire alla comunità SIMeN una griglia per orientare sperimentazioni, policy, formazione.
3.1 Opportunità

- Alleggerire il “peso burocratico” per liberare tempo narrativo
Strumenti di trascrizione e sintesi automatica possono ridurre in modo significativo il tempo dedicato alla documentazione, permettendo ai clinici di reinvestirlo nell’incontro con il paziente (Ghenimi et al., 2024). Se ben configurati, questi sistemi non impoveriscono la storia, ma la rendono più accessibile e condivisibile tra i membri dell’équipe. - Co-creazione ibrida della storia clinica
Modelli in cui l’AI produce una prima bozza e paziente e curante la rivedono insieme trasformano la macchina in co-autore subordinato: si mantiene il tempo del dialogo, si velocizza la scrittura, si diffonde la medicina narrativa oltre le nicchie in cui oggi è praticabile. (Chen, 2024; Ghenimi et al., 2025). - Distant reading e nuove forme di ricerca narrativa
L’analisi computazionale di grandi corpora (blog, forum, diari digitali) permette di:
- riconoscere pattern di sofferenza altrimenti invisibili (come nel Long COVID);
- documentare disuguaglianze, esperienze di stigma, vissuti di abbandono;
- fornire evidenze “forti” a sostegno di istanze etiche e politiche avanzate dalla MN.
- Supporto all’alfabetizzazione sanitaria e alla comunicazione personalizzata
Chatbot e assistenti AI possono adattare il linguaggio alle competenze di health literacy del paziente, spiegando diagnosi e percorsi in modo chiaro e ripetibile, 24/7, senza sostituire il medico ma preparandone e rinforzandone la comunicazione. - Formazione alle competenze relazionali con scenari multimodali
Le Cinematic Clinical Narratives generate da AI – video, audio, avatar di pazienti – offrono ambienti controllati in cui gli studenti possono esercitarsi su colloqui difficili, comunicazione di cattive notizie, conflitti culturali, ricevendo feedback strutturato. Non sostituiscono il paziente reale, ma rappresentano una “palestra di empatia” a basso rischio. - Etica “by design” e governance partecipativa
Autori come Rubeis insistono sulla necessità di integrare sin dall’inizio prospettive di etica della cura e medical humanities nello sviluppo dell’AI medica, evitando ogni deriva tecnosoluzionista (Rubeis, 2024).(SpringerLink) Questo implica il coinvolgimento strutturale di pazienti, clinici e umanisti nei processi di progettazione e valutazione.
3.2 Rischi e criticità

- Riduzione della persona a “caso” o “cluster”
La stessa capacità di aggregare narrazioni in pattern può produrre una nuova forma di spersonalizzazione: il paziente diventa un esempio di “cluster 3 – abbandono e fatigue”, più che un soggetto singolare. - Bias algoritmici e disuguaglianze narrative
I modelli di AI ereditano i bias dei dati con cui sono addestrati. È stato mostrato, per esempio, che alcuni algoritmi individuano meno efficacemente segni di depressione nei testi di persone nere rispetto a quelli di persone bianche. In ambito narrativo, questo si traduce nel rischio di una medicina che “sente” meglio certe voci e quasi non registra le altre. Il digital divide non è solo tecnologico, ma narrativo: chi ha meno accesso a strumenti digitali o usa codici linguistici non standard rischia di scomparire dagli “sguardi” dell’AI. - Empatia simulata e antropomorfizzazione dell’AI
L’uso di formule in prima persona (“capisco il tuo dolore”) crea l’illusione di un interlocutore sensibile, mentre in realtà siamo davanti a un sistema statistico. Il rischio, soprattutto per persone isolate o fragili, è sostituire progressivamente relazioni umane complesse con la validazione costante e non giudicante del bot (Halpern; Schwartz & Lanphier, 2025). - Perdita di competenza narrativa e giudizio critico
Se l’AI scrive anamnesi, riassunti, lettere e individua pattern nei testi, quale spazio rimane per allenare la narrative competence dei clinici? L’erosione di questa competenza non è secondaria: significa formare professionisti bravissimi a leggere report automatici, ma meno capaci di abitare un racconto di malattia vivo, contraddittorio, non lineare. - Opacità, responsabilità e consenso informato
Molti sistemi NLP sono “scatole nere”: producono output che nemmeno i loro sviluppatori sanno spiegare nel dettaglio. Questo entra in conflitto con il principio di decisione condivisa: come costruire consenso informato se né medico né paziente comprendono pienamente la logica che ha portato a un certo suggerimento? L’AI Act europeo, classificando l’AI sanitaria come “alto rischio”, tenta di rispondere richiedendo trasparenza e supervisione umana, ma la sfida tecnica e culturale resta aperta. - Sostituzione del contatto umano nei momenti sbagliati
Infine, uno dei pericoli più concreti: utilizzare chatbot, avatar e interfacce automatizzate proprio nei passaggi in cui la medicina narrativa ci ha insegnato che serve la massima presenza umana (diagnosi gravi, transizioni di cura, fine vita). Non ogni fase del percorso può essere “automatizzata” senza perdita di senso etico.
3.3 Un’agenda di domande per la comunità SIMeN
Invece di chiederci in astratto se AI e MN siano compatibili, può essere più fecondo articolare alcune domande operative per il lavoro dei prossimi anni:
- Criteri di accettabilità: in quali ambiti della cura siamo disposti a delegare all’AI parti significative del lavoro narrativo, e quali vogliamo considerare non delegabili?
- Formazione ibrida: come integrare, nei curricula dei professionisti, competenza narrativa e AI literacy, evitando sia l’entusiasmo acritico sia la resistenza difensiva?
- Partecipazione dei pazienti: in che modo i pazienti – individuali e come comunità – possono avere voce nella progettazione di sistemi che leggono e trasformano le loro storie?
- Ruolo della SIMeN: quali linee guida, raccomandazioni, osservatori etici può promuovere la nostra società per accompagnare i centri clinici che sperimentano l’AI in chiave narrativa, evitando sia il “far west” tecnologico, sia lo stallo?
Conclusione
AI e medicina narrativa non sono destinate, per natura, a essere nemiche. Proprio perché la medicina contemporanea è sempre più dipendente da infrastrutture algoritmiche, le competenze della MN – ascolto, interpretazione, etica della cura – diventano ancora più importanti
La questione decisiva, per noi, non è se l’AI “sappia raccontare”, ma se l’uso che ne facciamo rafforza o indebolisce la capacità di onorare le storie di malattia. Se l’AI ci aiuta a vedere meglio e prima ciò che il paziente vive, senza prendere il nostro posto nel rispondervi, allora può essere una potente alleata. Se invece finisce per sostituire la presenza, per addestrare medici alla passività narrativa, per accentuare disuguaglianze, allora la MN ha il dovere di opporsi.
Questo articolo vuole essere l’inizio di un confronto pubblico all’interno della SIMeN. Nei prossimi contributi entreremo più in profondità su temi specifici – empatia simulata, algoritmi e disuguaglianze, formazione, governance – con l’obiettivo non di trovare una sintesi rassicurante, ma di costruire insieme una alleanza critica tra AI e medicina narrativa, all’altezza delle persone che si affidano a noi.
minimi riferimenti bibliografici
Chen, A. (2024). Artificial intelligence in patient narrative interventions: Opportunities, obstacles, and a path forward. BMJ Medical Humanities Blog.
Fabi, A., Cercato, M. C., Rossi, A., Bianchini, P., D’Oria, M., Palazzo, A., Carbognin, L., Frescura, V., Scambia, G., Giannarelli, D., Di Maio, M., & Cenci, C. (2025). Digital integration of narrative medicine and patient-reported outcome measures to improve understanding of quality of life in metastatic breast cancer: The PERGIQUAL study. The Oncologist. Advance online publication. https://doi.org/10.1093/oncolo/oyaf367
Ghenimi, N., Govender, R., & Moodley, K. (2024, December 5). Integrating AI with narrative-based medicine: Enhancing patient-centered care in primary practice. Perspectives in Primary Care, Harvard Medical School Center for Primary Care.(info.primarycare.hms.harvard.edu)
Ghenimi, N., Govender, R., & Moodley, K. (2025). The paradox of artificial intelligence (AI) and narrative-based medicine: Challenges and potential for enhanced patient care. AI & Society. Advance online publication. https://doi.org/10.1007/s00146-025-02418-3 (SpringerLink)
Rubeis, G. (2024). Ethics of medical AI. Springer. https://doi.org/10.1007/978-3-031-55744-6 (SpringerLink)
Scarpino, I., Zucco, C., Vallelunga, R., Luzza, F., & Cannataro, M. (2022). Investigating topic modeling techniques to extract meaningful insights in Italian Long COVID narration. BioTech, 11(3), 41. https://doi.org/10.3390/biotech11030041 (PubMed)
Schwartz, D., & Lanphier, E. (2025). The new narrative medicine: Ethical implications of artificial intelligence on healthcare narratives. Monash Bioethics Review. Advance online publication. https://doi.org/10.1007/s40592-025-00256-z (SpringerLink)
sitografia
https://fondazioneanthem.it/2025/09/15/daisiron/ ultima visita 04/12/2025

Un articolo preciso e dettagliato, che offre molti spunti di riflessione.
Grazie dottoressa, si tratta di un semplice invito ad un dibattitto su un tema che tocca e toccherà ognuno di noi.