L’intelligenza artificiale promette di rivoluzionare il mondo della sanità, ma con quali effetti, e quali rischi?
L’Intelligenza Artificiale si sta diffondendo sempre più nella nostra Società. Tutti la utilizziamo, anche se inconsapevolmente; pensiamo ad esempio ai vari servizi come “Alexa” di Amazon o “Siri” di Apple ma anche ai siti di streaming o ai navigatori satellitari. Alcuni giornali italiani già oggi pubblicano articoli generati con l’intelligenza artificiale.
Si prevede che l’integrazione delle tecnologie basate sull’intelligenza artificiale nella pratica medica possa produrre a breve cambiamenti sostanziali in molti settori della medicina e dell’assistenza sanitaria. È notizia di qualche giorno fa che negli Stati Uniti per la prima volta una diagnosi di ChatGPT (uno dei software più noti di intelligenza artificiale generativa) ha risolto il problema di salute di un bambino dopo tre anni di inutili consulti specialistici.[1]
Ma cos’è l’intelligenza artificiale? In sintesi, l’intelligenza artificiale (IA) è un settore dell’informatica che sviluppa algoritmi per imitare le funzioni cognitive umane come l’apprendimento, il ragionamento e la risoluzione dei problemi.[2] La base dell’IA sono gli algoritmi, che vengono tradotti in codice informatico per la trasformazione dei dati in conclusioni, informazioni o altri risultati.
Vantaggi
Ma quali sono le potenzialità dell’applicazione dell’Intelligenza artificiale in sanità? Facciamo alcuni esempi.
Il campo nel quale si sono fatti più progressi in termini di utilizzo dell’IA come supporto per i medici è quello diagnostico. Uno dei punti di forza dell’IA è la capacità di leggere le immagini radiologiche per supportare (senza sostituire) il radiologo. Gli algoritmi possono analizzare immagini come radiografie, risonanze magnetiche e TAC con una precisione straordinaria, aiutando i radiologi nella rilevazione precoce delle malattie e nella diagnosi, individuando anomalie che sarebbero potute sfuggire all’occhio umano.[3]
Altra area di applicazione è quella legata ai sistemi di predizione, in grado di identificare possibili patologie prima ancora che queste si manifestino. Individuare segnali precoci di una malattia permette al medico di indicare precocemente un percorso di cura mirato. Gli algoritmi di intelligenza artificiale possono monitorare continuamente i dati di un paziente, inclusi i segni vitali, i risultati di laboratorio e i sintomi riferiti dal paziente, per identificare eventuali potenziali segnali di allarme. Ad esempio, i modelli predittivi basati sull’intelligenza artificiale nella valutazione del rischio di malattie cardiovascolari hanno mostrato prestazioni migliori rispetto ai modelli basati sul rischio probabilistico usati in precedenza.[4]
I programmi di IA già oggi stanno accelerando enormemente i risultati della ricerca scientifica.[5] Per esempio, è stato possibile approntare efficacemente e in tempi brevi i vaccini contro il Covid-19 proprio grazie all’IA.[6]
Gli algoritmi di intelligenza artificiale possono esaminare continuamente fattori quali la demografia della popolazione, la prevalenza delle malattie e la distribuzione geografica, aiutando ad identificare i pazienti a rischio più elevato di andare incontro a determinate condizioni patologiche, aiutando nella prevenzione o nel trattamento.[7]
Se utilizzata in modo sicuro e appropriato, l’IA potrebbe espandere in modo esponenziale la medicina basata sull’evidenza per migliorare i risultati sanitari. L’intelligenza artificiale può aiutare a identificare i dati provenienti dagli studi clinici più recenti per lo sviluppo in tempo reale di linee guida basate sull’evidenza.[8]
In futuro, l’identificazione degli eventi avversi nelle cartelle cliniche elettroniche sarà probabilmente effettuata sfruttando l’intelligenza artificiale, considerando la necessaria integrazione, che già si prevede, tra questa tecnologia e i dati sanitari dei pazienti.
In materia di rischio clinico, solo nel 2023 circa 163.000 persone potrebbero essere morte in Europa a causa di errori medici. Il 30% degli errori medici sono stati causati da errori di comunicazione. L’intelligenza artificiale è ideale per migliorare la comunicazione tra gli operatori sanitari fornendo le informazioni giuste alle persone giuste al momento giusto, prevenendo errori, salvando vite umane e migliorando gli esiti clinici.[9]
Quali rischi?
Come per qualsiasi innovazione, le nuove opportunità comportano anche nuovi rischi, che devono essere mitigati per ridurre al minimo i danni. Sono state espresse preoccupazioni riguardo alle implicazioni etiche e legali legate all’introduzione dell’intelligenza artificiale in sanità come, per esempio: potenziali errori e danni ai pazienti; rischio di parzialità e aumento delle disuguaglianze sanitarie; mancanza di trasparenza e fiducia; difficoltà nell’identificare le fonti degli errori e relative responsabilità; vulnerabilità agli attacchi informatici; violazioni della privacy dei pazienti.[10] Soprattutto il tema della responsabilità è quello più delicato; per esempio, chi sarà responsabile di un sistema che “autoapprende” e si evolve nel tempo? Appare infatti complesso individuare il soggetto al quale sia imputabile il nesso causale e l’elemento soggettivo colposo rispetto all’eventuale danno prodotto, a fronte dell’utilizzo di un sistema, nel caso del machine learning, “che non si limita solo ad applicare le regole dei software e i parametri preimpostati ma, al contrario, elabora nuovi criteri di interferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico”.[11]
Sono documentati casi di strumenti di intelligenza artificiale che hanno fallito nel rispondere ai quesiti loro posti. Infatti, nonostante i continui progressi queste tecnologie non sono ancora infallibili e potrebbero potenzialmente comportare problemi di sicurezza, indipendentemente dal comportamento umano, come ad esempio diagnosi mancate su persone malate (falsi negativi) o, al contrario, patologie inesistenti su persone sane (falsi positivi).[12]. Ma esiste anche il rischio di un uso non corretto da parte degli stessi utilizzatori, come medici e altri operatori sanitari. L’uso scorretto degli strumenti di intelligenza artificiale potrebbe comportare una valutazione medica e un processo decisionale errati e, di conseguenza, un potenziale danno per il paziente. Infatti l’uso degli strumenti di intelligenza artificiale richiede che il personale abbia le competenze adeguate per esprimere giudizi sull’utilità delle informazioni generate dalla soluzione di intelligenza artificiale.[13] Per aumentare l’adozione e ridurre al minimo gli errori, i futuri professionisti dovranno essere adeguatamente formati all’uso di queste nuove tecnologie già a partire dalla formazione universitaria.[14, 15]
L’utilizzo delle evidenze scientifiche per l’elaborazione di linee guida, che costituisce per certi versi una scorciatoia e una velocizzazione, non esime dall’accurata verifica delle fonti, in ossequio ai principi basilari del metodo scientifico.
Alla luce delle conoscenze attuali l’OMS, nonostante i grandi progressi compiuti negli ultimi anni, ritiene che siano necessarie ancora ulteriori ricerche prima dell’introduzione concreta ed effettiva delle tecnologie basate sull’IA nella pratica clinica.[16] Anche in Italia, secondo il Ministero della salute, “la validazione scientifica dei sistemi di IA in medicina è condizione assolutamente indispensabile per il loro impiego in un contesto assistenziale”.[17]
A maggio 2024 il Parlamento Europeo ha approvato uno specifico regolamento sull’intelligenza artificiale (AI Act) per la regolamentazione di tale delicata materia.[18]
In un altro articolo abbiamo parlato della blockchain in sanità (link).
Siamo anche su Facebook (qui). Puoi condividere questo articolo attraverso i pulsanti che trovi in basso.
BIBLIOGRAFIA
[1] Ottaviani C. “Il piccolo Alex visitato da 17 medici in 3 anni ma solo ChatGPT riesce a fare la diagnosi”. Articolo pubblicato sul sito de La Repubblica il 14-09-2023
[2] McCarthy J, Minsky M, Rochester N, Shannon C. “A proposal for the Dartmouth summer research project on artificial intelligence”. AI Magazine. 2006;27(4):12
[3] Wang X., et al. “ChestX-ray8: hospital-scale chest X-ray database and benchmarks on weakly-supervised classification and localization of common thorax diseases”. 2017
[4] Jamthikar AD, Gupta D, Saba L. et al. “Artificial intelligence framework for predictive cardiovascular and stroke risk assessment models: A narrative review of integrated approaches using carotid ultrasound”, Comput Biol Med.;126:104043, 2020
[5] Fiorini N, Leaman R, Lipman DJ, Lu Z. “How user intelligence is improving”. PubMed. Nat Biotechnol. 2018a
[6] Buscemi P., Del Riccio M. “Intelligenza artificiale e salute”. Articolo pubblicato sul sito Saluteinternazionale il 30 Ottobre 2023
[7] Alowais, S.A., Alghamdi, S.S., Alsuhebany, N. et al. “Revolutionizing healthcare: the role of artificial intelligence in clinical practice”. BMC Med Educ 23, 689 (2023)
[8] Ibidem
[9] OECD. “AI in health. Huge potential, huge risks” (2024). Pag. 3
[10] European Parliamentary Research Service (EPRS). “Artificial intelligence in healthcare. Applications, risks, and ethical and societal impacts”. Bruxelles, June 2022 (link)
[11] Consiglio di Stato con la sentenza 4-25 novembre 2021, n. 7891
[12] European Parliamentary Research Service (EPRS). “Artificial intelligence in healthcare. Applications, risks, and ethical and societal impacts”. Bruxelles, June 2022. Pag. 15
[13] OECD “Collective action for responsible ai in health. OECD artificial intelligence papers”. January 2024 No. 10. Pag. 21
[14] Comitato Nazionale per la Bioetica. “Intelligenza artificiale e medicina: aspetti etici“. 2020. Pag. 15
[15] European Parliamentary Research Service (EPRS). “Artificial intelligence in healthcare. Applications, risks, and ethical and societal impacts”. Bruxelles, June 2022. Pag. 18
[16] World Health Organization. “Ethics and governance of artificial intelligence for health: WHO guidance”. Geneva, 2021 (link)
[17] Ministero della salute. “I sistemi di intelligenza artificiale come strumento di supporto alla diagnostica”. Novembre 2021. Pag. 24
[18] “AI Act approvato, quali novità nel regolamento Ue sull’Intelligenza artificiale? La risposta in dieci punti“. Sito web La Repubblica, 25-05-2024