Pubblicato il

Responsabilità sanitaria e intelligenza artificiale: quale relazione?

L’introduzione dell’intelligenza artificiale in medicina solleva importanti questioni relative alla responsabilità degli operatori sanitari in caso di errore o danni al paziente. Chi ne risponde in questi casi?

 

Le tecnologie basate sull’intelligenza artificiale promettono di rivoluzionare il mondo della medicina. Infatti questa tecnologia all’avanguardia si sta sempre più integrando nelle pratiche cliniche, dalla diagnostica fino alla terapia. 

Ma cosa si intende per intelligenza artificiale? In sostanza, l’intelligenza artificiale (d’ora in avanti IA) è un settore dell’informatica che sviluppa algoritmi che imitano le funzioni intellettive umane, come l’apprendimento, il ragionamento e la risoluzione dei problemi.[1]

In materia di rischio sanitario, le nuove tecnologie come la telemedicina o l’intelligenza artificiale sono assimilabili, dal punto di vista della responsabilità professionale, alle prestazioni mediche e sanitarie “tradizionali”. Tuttavia, riguardo alla sicurezza delle cure non possediamo ancora sufficiente esperienza sui possibili errori e sugli eventi avversi conseguenti che potrebbero derivare dall’impiego di queste nuove tecnologie.[2]

In tema di responsabilità professionale, i professionisti sanitari nell’esecuzione delle prestazioni devono attenersi, al fine di non incorrere in eventuali problemi di natura legale, al rispetto delle linee guida o buone pratiche cosi come richiesto dalla legge 24/2017 (più nota come “legge Gelli”), la legge che disciplina la responsabilità professionale degli operatori sanitari e la sicurezza delle cure.[3]

L’adozione dell’IA nel settore sanitario porterà a situazioni in cui il potere decisionale presto o tardi sarà, almeno parzialmente, trasferito agli algoritmi di IA.

Dal punto di vista della legge Gelli, le indicazioni che provengono da un sistema di IA dovrebbero essere considerate quali raccomandazioni previste dalle linee guida, ai sensi dell’art. 5 della stessa legge. In questo senso la risposta della macchina deve essere la migliore combinazione possibile tra evidenze scientifiche e informazioni ricavate dal paziente.[4]

Questi sistemi operano spesso come una “black box” (scatola nera) cioè con modalità che spesso restano oscure agli stessi esperti, rendendo difficile comprendere i passaggi logici che portano a una diagnosi o a un indirizzo terapeutico. Come può il medico o un altro sanitario effettuare quel controllo critico di elementi quali la correttezza metodologica e l’autorevolezza della fonte, cosi come richiede la legge Gelli? L’utilizzo dell’IA, che costituisce per certi versi una scorciatoia e una velocizzazione, non esime dall’accurata verifica delle fonti, in ossequio ai principi basilari del metodo scientifico. Un primo problema riguarda, quindi, la regolamentazione dei processi di addestramento delle macchine e il loro continuo aggiornamento, che deve essere a monte dell’utilizzo del sanitario.

Altra questione. A differenza dei vecchi sistemi di “Clinical decision support systems” (in italiano sistemi di supporto alle decisioni cliniche), come per esempio quelli utilizzati nei Pronto Soccorso o dai medici di famiglia per la prevenzione degli errori in terapia farmacologica,[5] dove la fonte di conoscenza del dispositivo è costituita da un insieme predefinito di regole e informazioni messe a disposizione o formulate appositamente per istruire il sistema, il sistema basato su forme di intelligenza artificiale machine learning (ML) “non si limita solo ad applicare le regole dei software e i parametri preimpostati ma, al contrario (..) assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico”.[6]  In questi chi sarà responsabile di un sistema che “autoapprende” e si evolve nel tempo? Appare infatti complesso, in questo caso, individuare il soggetto al quale sia imputabile il nesso causale e l’elemento soggettivo colposo rispetto all’eventuale danno prodotto, a fronte di una decisione presa dall’algoritmo. Si potrebbe discutere che la responsabilità compete allo sviluppatore dell’algoritmo, ma la decisione clinica è del sanitario.

Queste problematiche (e altre) non hanno ancora trovato una soluzione univoca e costituiscono una delle sfide da affrontare per il prossimo futuro.

 

 

In un altro articolo abbiamo parlato dei rischi e potenzialità dell’Intelligenza Artificiale in sanità (link).

Siamo anche su Facebook (qui). Puoi condividere questo articolo attraverso i pulsanti che trovi in basso.

 

BIBLIOGRAFIA

[1] McCarthy J, Minsky M, Rochester N, Shannon C. “A proposal for the Dartmouth summer research project on artificial intelligence”. AI Magazine. 2006;27(4):12

[2] European Parliamentary Research Service (EPRS). “Artificial intelligence in healthcare. Applications, risks, and ethical and societal impacts”. Bruxelles, June 2022 (link)

[3] Legge 24/2017. “Disposizioni in materia di sicurezza delle cure e della persona assistita, nonché in materia di responsabilità professionale degli esercenti le professioni sanitarie”. Art. 6

[4] Grasso A. “Diagnosi algoritmica errata e responsabilità medica”, in Rivista di diritto civile, n. 2/2023. Pag. 342

[5] Kukielka E, Jones R. Medication Safety in the Emergency Department: A Study of Serious Medication Errors Reported by 101 Hospitals From 2011 to 2020. Patient Safety. 2022;4(1):49-59

[6] Consiglio di Stato, sez. III, sentenza n. 7891 del 25 novembre 2021

 

Creative Commons License