ARTICOLI In questa sezione, gli articoli si concentreranno su medicina narrativa, medical humanities ed etica della cura. Analizzando studi pubblicati su riviste scientifiche autorevoli, si tenterà di offrire un punto di partenza per un dialogo interdisciplinare che coinvolga tutti i professionisti della salute. L’obiettivo è contribuire alla costruzione di una pratica clinica più completa e personalizzata, che valorizzi sia l’efficacia degli interventi che la dimensione umana dell’esperienza di malattia
di Massimiliano Marinelli 19 dicembre 2025
ChatGPT nella Formazione Medica
da Cheng, Y., & Zhu, L. (2025). A review of ChatGPT in medical education: exploring advantages and limitations. International Journal of Surgery, 111, 4586–4602.
1. Introduzione: un nuovo orizzonte per la formazione medica?
Cheng e Zhu hanno recentemente pubblicato una review sull’uso di ChatGPT, il primo e più famoso chatbot di intelligenza artificiale nella educazione medica, esplorando i vantaggi e i limiti. Dopo una panoramica sulla review, un breve commento critico. Come al solito e tutte le volte che è possibile, troverete nelle note bibliografiche i riferimenti per scaricare l’articolo originale.
Dalla sua introduzione nel novembre 2022, ChatGPT si è rapidamente affermato come uno strumento di intelligenza artificiale generativa capace di offrire nuove opportunità, ma anche di sollevare sfide significative. Nel campo della formazione medica, dove le competenze non si limitano alla sola perizia clinica ma abbracciano anche la sensibilità etica e la capacità di comunicare efficacemente con i pazienti, l’impatto di questa tecnologia merita un’analisi attenta. L’educazione di un medico non è solo trasmissione di nozioni, ma coltivazione di giudizio, empatia e responsabilità. Questo articolo esplora le potenzialità pedagogiche di ChatGPT, per poi approfondire le implicazioni cliniche, etiche ed esistenziali che emergono dal suo utilizzo, in linea con l’approccio riflessivo delle Medical Humanities.
2. Le potenzialità pedagogiche: un tutor digitale per medici e studenti
Sebbene le promesse di efficienza e personalizzazione offerte da ChatGPT siano innegabili, è fondamentale analizzarle con uno sguardo critico, consapevoli che ogni strumento tecnologico modifica non solo il “come” apprendiamo, ma anche il “chi” diventiamo come professionisti della cura.
2.1. Per i formatori: ottimizzare l’insegnamento
Per i docenti, lo strumento si rivela un alleato prezioso per rendere la didattica più efficiente e mirata. Offre anzitutto un accesso rapido alle informazioni, condensando vasti volumi di dati da pubblicazioni scientifiche e note cliniche in sintesi immediate. Funge inoltre da assistente didattico, generando in pochi istanti materiale come esercizi, quiz, scenari clinici simulati e domande a scelta multipla (MCQ), riducendo drasticamente i tempi di preparazione. Infine, garantisce un feedback personalizzato e una riduzione del carico di lavoro, automatizzando in parte i processi di valutazione e fornendo riscontri immediati agli studenti, liberando così tempo prezioso che i docenti possono dedicare al mentoring e all’interazione umana diretta.
2.2. per gli studenti: personalizzare l’apprendimento
Anche per gli studenti di medicina, le applicazioni possono trasformare positivamente l’esperienza formativa. Come supporto all’apprendimento, ChatGPT assiste nella preparazione degli esami, fornendo riassunti e domande di pratica; il suo successo nel superare esami di abilitazione in diversi paesi, come gli Stati Uniti (USMLE) e l’Italia, ne testimonia la competenza nozionistica, sebbene vada sottolineato che la sua performance risulta spesso mediocre o persino inferiore a quella degli studenti umani. Nello sviluppo di abilità cliniche, permette di esercitarsi in simulazioni complesse — come la gestione di un caso clinico o la comunicazione con un paziente claustrofobico — in un ambiente sicuro e controllato. Si presta inoltre a un’efficace integrazione con metodologie didattiche innovative come il Problem-Based Learning (PBL) e il Team-Based Learning (TBL), offrendo supporto in tempo reale durante le attività di gruppo.
Questa efficienza, sebbene allettante, apre a interrogativi su cosa rischiamo di perdere quando l’apprendimento viene delegato, in parte, a un algoritmo. È qui che l’orizzonte si sposta dal pedagogico al clinico ed etico.

3. l’orizzonte clinico ed etico: le sfide dell’algoritmo nella cura
Nonostante le notevoli potenzialità, secondo gli autori, l’adozione di ChatGPT nella pratica medica e formativa presenta limiti invalicabili e rischi che richiedono una profonda riflessione critica.
3.1. il rischio dell’informazione: accuratezza e trasparenza
L’affidabilità delle informazioni generate è la preoccupazione principale. ChatGPT ha una tendenza documentata a fornire risposte errate, obsolete o completamente fabbricate (le cosiddette “allucinazioni”). Questo è aggravato dal fatto che i suoi dati di addestramento hanno un limite temporale (ad esempio, settembre 2021 per il modello GPT-4), rendendolo inadeguato a un campo in rapida evoluzione come la medicina. Inoltre, una delle criticità più gravi è la mancanza di riferimenti verificabili: lo strumento può generare citazioni errate o inesistenti, un problema inaccettabile in un contesto dove la tracciabilità e l’affidabilità delle fonti sono un imperativo etico e scientifico.
3.2. integrità accademica e privacy del paziente
L’utilizzo di ChatGPT solleva questioni etiche dirette che non possono essere ignorate. Il rischio di plagio e disonestà accademica è concreto, data la capacità del modello di eludere i più comuni software di rilevamento come Turnitin. Sul fronte della privacy, le preoccupazioni sono altrettanto serie: le conversazioni possono essere utilizzate da OpenAI per addestrare ulteriormente i modelli, e sussiste il pericolo di una divulgazione involontaria di informazioni sensibili sui pazienti qualora vengano inserite nel sistema. Infine, il problema del data bias è importante: le risposte del modello possono riflettere pregiudizi culturali, risultando “più allineate con la cultura occidentale” e minando potenzialmente l’equità nella cura per pazienti di diversa provenienza.
3.3. la dimensione mancante: empatia e pensiero critico
I limiti più profondi di ChatGPT risiederebbero nella sua natura puramente algoritmica, incapace di cogliere la complessità dell’esperienza umana. Un’eccessiva dipendenza dallo strumento rischia di atrofizzare lo sviluppo del ragionamento clinico, trasformando gli studenti in “passivi destinatari di informazioni”. Ma la lacuna più radicale che gli autori evidenziano è l’assenza della dimensione emotiva. ChatGPT non è in grado di comprendere o trasmettere le emozioni umane, un aspetto fondamentale e insostituibile della relazione di cura. La narrazione del paziente non è un semplice set di dati da processare, ma un complesso arazzo di esperienze, valori e segnali non verbali a cui un algoritmo è cieco.
Questa cecità introduce il rischio di un “paternalismo algoritmico“, una forma ancora più insidiosa del suo corrispettivo umano perché invisibile, basata su medie statistiche e capace di presentare raccomandazioni “oggettive” che ignorano il contesto di vita e i valori unici del paziente. Come sottolinea la ricerca, la saggezza del paziente (“Patient wisdom”) deve essere integrata nell’intelligenza artificiale per evitare che l’algoritmo imponga assunti predefiniti, annullando la soggettività della persona malata.
Un breve commento critico

La lettura della review di Cheng e Zhu ci consegna una fotografia accurata ma, paradossalmente, già “storica”. Nel dibattito sull’Intelligenza Artificiale assistiamo infatti a due ordini di velocità: quello lento e rigoroso della validazione accademica e quello esponenziale dell’evoluzione tecnologica. Mentre la letteratura discute ancora di limiti come il “knowledge cutoff” o le allucinazioni frequenti, la realtà degli algoritmi (oggi capaci di consultare fonti in tempo reale e ridurre l’errore) ha spesso già superato o, comunque, mitigato il problema.
Focalizzarsi su ciò che l’IA non sa fare è una strategia perdente, perché l’elenco dei limiti si assottiglia ogni giorno. La vera sfida per la Medicina Narrativa non è tecnologica, ma relazionale. Il pericolo più insidioso non è un algoritmo che sbaglia, ma un algoritmo che “funziona” troppo bene: un sistema capace di simulare un linguaggio empatico, di persuadere con coerenza logica e di offrire al paziente soluzioni scientificamente ineccepibili ma esistenzialmente insostenibili.
È qui che emerge l’urgenza di una nuova competenza professionale: il medico non più solo come clinico, ma come mediatore di senso. Se l’IA tende a rapportarsi direttamente con il paziente (sollevando il rischio di una solitudine decisionale di fronte alla macchina), il curante deve intervenire con due nuove competenze fondamentali:
- Comunicare l’IA: Non limitarsi a usare lo strumento, ma saperne spiegare le logiche, i bias e il funzionamento al paziente, demistificando l’oracolo digitale.
- Health AI Literacy: Educare il paziente a “leggere” l’output dell’IA, distinguendo tra la precisione statistica del curing e la verità umana del caring.
In definitiva, l’IA non ci chiede di competere sulla velocità di calcolo, ma di rallentare per presidiare lo spazio della relazione. Se l’algoritmo fornisce il testo della cura, spetta ancora e sempre all’uomo garantire il contesto, trasformando un output freddo, per quanto preciso, in una storia di cura abitabile.
minimi riferimenti bibliografici
Cheng, Y., & Zhu, L. (2025). A review of ChatGPT in medical education: exploring advantages and limitations. International Journal of Surgery, 111, 4586–4602. http://dx.doi.org/10.1097/JS9.0000000000002505
