ARTICOLI In questa sezione, gli articoli si concentreranno su medicina narrativa, medical humanities ed etica della cura. Analizzando studi pubblicati su riviste scientifiche autorevoli, si tenterà di offrire un punto di partenza per un dialogo interdisciplinare che coinvolga tutti i professionisti della salute. L’obiettivo è contribuire alla costruzione di una pratica clinica più completa e personalizzata, che valorizzi sia l’efficacia degli interventi che la dimensione umana dell’esperienza di malattia
di Massimiliano Marinelli 19 dicembre 2025
La percezione sociale del medico che usa l’Intelligenza Artificiale
da Reis, M., Reis, F., & Kunde, W. (2025). Public perception of physicians who use artificial intelligence. JAMA Network Open, 8(7), e2521643
1. Introduzione
L’integrazione dell’Intelligenza Artificiale (IA) in medicina è un fenomeno di crescente rilevanza, destinato a trasformare diagnosi, terapie e gestione sanitaria. Se da un lato le potenzialità sono immense, dall’altro emergono interrogativi sull’impatto che questa trasformazione avrà sulla componente più umana della cura. Una domanda, in particolare, si pone con urgenza: come l’uso dell’IA da parte di un medico influisce sulla percezione pubblica del professionista stesso?
Uno studio recente di Reis et al. (2025) affronta direttamente questo quesito, offrendo dati che meritano un’attenta riflessione da parte della comunità della medicina narrativa, per la quale la relazione di cura rappresenta il fulcro irrinunciabile di ogni atto medico.
2. Lo studio di riferimento: una lente sulla percezione pubblica
L’articolo “Public Perception of Physicians Who Use Artificial Intelligence”, pubblicato su JAMA Network Open, analizza con metodologia rigorosa le reazioni del pubblico di fronte a un medico che dichiara di utilizzare sistemi di intelligenza artificiale.
2.1. Metodologia e obiettivo della ricerca
Lo studio è stato condotto tramite un’indagine online su un campione di 1276 adulti statunitensi. I partecipanti sono stati assegnati casualmente a una delle quattro condizioni sperimentali, ciascuna basata sulla visualizzazione di un annuncio fittizio per un medico di famiglia:
- Un annuncio di controllo, senza alcuna menzione dell’IA.
- Un annuncio in cui si specificava l’uso dell’IA per scopi amministrativi.
- Un annuncio in cui si specificava l’uso dell’IA per scopi diagnostici.
- Un annuncio in cui si specificava l’uso dell’IA per scopi terapeutici.
L’obiettivo era valutare come questa informazione influenzasse la percezione del medico in termini di competenza, fiducia, empatia e la conseguente volontà di fissare un appuntamento con lui.
2.2. Risultati chiave: un calo generalizzato della fiducia
I risultati dello studio sono netti e indicano una reazione prevalentemente negativa. Rispetto al medico del gruppo di controllo, i professionisti associati all’uso dell’IA sono stati percepiti in modo significativamente peggiore su tutti i fronti.
- Competenza percepita: I medici che utilizzano l’IA sono stati giudicati significativamente meno competenti.
- Fiducia e Affidabilità: La semplice menzione dell’uso dell’IA ha portato i partecipanti a considerare i medici come significativamente meno affidabili.
- Empatia percepita: I medici sono stati percepiti come significativamente meno empatici quando associati all’uso di qualsiasi tipo di IA.
- Intenzione Comportamentale: I partecipanti hanno mostrato una volontà significativamente inferiore di prenotare una visita con i medici che utilizzavano l’IA.
Un dato ulteriore di grande interesse è che lo studio non ha rilevato differenze significative tra i diversi tipi di utilizzo dell’IA (amministrativo, diagnostico o terapeutico). La reazione negativa sembra essere generalizzata e legata al concetto stesso di IA nella pratica medica, indipendentemente dalla sua specifica applicazione.

3. Un commento critico

I dati di Reis et al. ci consegnano una fotografia nitida ma statica del presente: oggi, dichiarare l’uso dell’IA crea una frattura nella fiducia. I pazienti percepiscono l’algoritmo come un “Altro” che rischia di decidere per il medico, e non con lui. Tuttavia, una lettura critica e narrativa ci impone di andare oltre questa reazione istintiva per analizzare le dinamiche profonde della relazione di cura.
3.1 Il paradosso dell’algoritmo invisibile
È necessario demistificare la percezione dell’IA come una novità assoluta che rompe un presunto idillio umanistico. In realtà, il medico si affida da decenni a fonti decisionali esterne: protocolli rigidi, trial clinici e algoritmi diagnostici (si pensi alla ricostruzione delle immagini di una TAC) sono già il pane quotidiano della medicina occidentale. Il problema rilevato dallo studio, dunque, non è tecnico ma narrativo: non riguarda l’uso della tecnologia, ma la percezione di una perdita di agenzia. Il paziente teme che il medico, delegando alla macchina, smetta di essere il garante ultimo della sua salute.
3.2 Dal “Dottor Google” al “Prof. ChatGPT”: prepararsi al ribaltamento
Sarebbe un errore strategico basare la nostra pratica futura solo sulla diffidenza rilevata oggi. La percezione pubblica è in rapida evoluzione: i pazienti più esperti stanno già passando dall’interrogare Google al consultare ChatGPT. Dobbiamo prepararci a uno scenario futuro in cui l‘asimmetria conoscitiva sarà incolmabile: non c’è gara tra la memoria di un singolo medico e i database di un’IA addestrata su milioni di casi. Potrebbe arrivare un giorno in cui sarà l’IA ad essere considerata la fonte più autorevole e il medico “solo umano” a essere svalutato. In quel contesto, tacere l’uso dell’IA non sarà più una difesa, ma una colpa.
3.3 Mediazione dell’IA: genesi del medico potenziato dall’IA
Per superare la diffidenza e ricostruire la fiducia, dobbiamo abbandonare la percezione di una separazione tra “il medico” e “la macchina”. Mediare non significa porsi come barriera tra il paziente e il computer, ma vivere l’Intelligenza Artificiale come parte integrante della propria identità professionale. Non esistono più due entità separate in competizione, ma un’unica figura evoluta: un medico “arricchito”, in cui l’ethos umanitario — quella postura interiore e motivazionale che ci spinge ad aver cura dell’altro — guida e governa una conoscenza scientifica e un’abilità tecnica esponenzialmente potenziate dall’IA.
Questo “potenziamento” richiede una riflessione su tre livelli:
- L’IA come “Alter Ego” (non solo uno strumento): Dobbiamo riconoscere che l’IA non è una semplice tecnologia che si somma all’esistente (come fu per lo stetoscopio o la TAC). Essa agisce come un alter ego professionale: una fonte di conoscenza attiva e dialogica, capace di generare ipotesi e ragionamenti. Il medico non si limita a “usare” l’IA, ma interagisce con essa in una dialettica continua.
- La Mediazione Interiore (governare l’alter ego): La prima competenza del medico potenziato è la capacità di gestire questo rapporto senza esserne sopraffatto. Significa mantenere un ragionamento clinico saldo che non cede alla tentazione di affidarsi ciecamente all’output della macchina (automation bias), ma che evita anche l’errore opposto: guidare l’IA affinché confermi solo ciò che vogliamo sentirci dire (IA condiscendente). Il medico potenziato interroga l’IA, la sfida e ne integra le risposte, rimanendo l’unico titolare del giudizio finale.
- La Mediazione Interpersonale (costruire senso): Nel rapporto con il malato, l’alleanza tra medico e IA deve essere ricondotta a una logica di senso. L’IA eccelle nell’elaborare dati, ma è cieca di fronte al significato. Qui la mediazione diventa arte clinica: l’agenda del paziente e la sua narrazione biografica devono essere, fin dall’inizio, la bussola che orienta l’interrogazione dell’algoritmo. In questo scenario, anche la Health AI Literacy del paziente diventa importante: il medico non teme il paziente che si informa tramite IA, ma lo aiuta a contestualizzare quei risultati, prevenendo usi distorti (“additivi”) e trasformando l’informazione grezza in consapevolezza di cura.
In definitiva, il medico potenziato dall’IA è colui che trova in sé stesso le motivazioni dell’aver cura (l’ethos), ma riconosce nell’IA non un “altro da sé” minaccioso, bensì un alleato formidabile per realizzare quella cura con una precisione e una profondità prima impensabili.
minimi riferimenti bibliografici
Birkhäuer, J., Gaab, J., Kossowsky, J., Hasler, S., Krummenacher, P., Werner, C., & Heike, G. (2017). Trust in the health care professional and health outcome: a meta-analysis. PLoS One, 12(2), e0170988. https://doi.org/10.1371/journal.pone.0170988
Fanous, A., Steffner, K., & Daneshjou, R. (2024). Patient attitudes toward the AI doctor. Nature Medicine, 30(11), 3057-3058. https://doi.org/10.1038/s41591-024-03272-4
Khullar, D., Casalino, L. P., Qian, Y., Lu, Y., Krumholz, H. M., & Aneja, S. (2022). Perspectives of patients about artificial intelligence in health care. JAMA Network Open, 5(5), e2210309. https://doi.org/10.1001/jamanetworkopen.2022.10309
Li, R., Kumar, A., & Chen, J. H. (2023). How chatbots and large language model artificial intelligence systems will reshape modern medicine: fountain of creativity or Pandora’s box? JAMA Internal Medicine, 183(6), 596-597. https://doi.org/10.1001/jamainternmed.2023.1835
Longoni, C., Bonezzi, A. K., & Morewedge, C. K. (2019). Resistance to medical artificial intelligence. Journal of Consumer Research, 46(4), 629-650. https://doi.org/10.1093/jcr/ucz013
Reis, M., Reis, F., & Kunde, W. (2025). Public perception of physicians who use artificial intelligence. JAMA Network Open, 8(7), e2521643. https://doi.org/10.1001/jamanetworkopen.2025.21643
