Pubblicato il

Responsabilità sanitaria e intelligenza artificiale: quali rischi?

L’introduzione dell’intelligenza artificiale in medicina solleva importanti questioni relative alla responsabilità sanitaria in caso di errore o danni al paziente. Chi ne risponde in questi casi?

 

Le tecnologie basate sull’intelligenza artificiale promettono di rivoluzionare il mondo della medicina. Questa tecnologia all’avanguardia si sta sempre più integrando nelle pratiche cliniche, dalla diagnostica medica alla personalizzazione dei trattamenti, emergendo come un pilastro fondamentale della sanità digitale. 

Ma cosa si intende per intelligenza artificiale? In sostanza, l’intelligenza artificiale (d’ora in avanti IA) è un settore dell’informatica che sviluppa algoritmi per imitare le funzioni intellettive umane, come l’apprendimento, il ragionamento e la risoluzione dei problemi.[1]

In materia del rischio sanitario, le nuove tecnologie come la telemedicina o l’intelligenza artificiale sono assimilabili, dal punto di vista della responsabilità professionale alle prestazioni mediche e sanitarie “tradizionali”. Tuttavia, riguardo alla sicurezza delle cure non possediamo ancora sufficiente esperienza sui possibili errori e sugli eventi avversi conseguenti che potrebbero derivare dall’impiego delle nuove tecnologie.[2]

In tema di responsabilità professionale i professionisti sanitari nell’esecuzione delle prestazioni devono attenersi, al fine di non incorrere in eventuali conseguenze legali, al rispetto delle linee guida o buone pratiche cosi come richiesto dalla legge 24/2017 (più nota come “legge Gelli”).[3]

L’adozione dell’IA nel settore sanitario porterà a situazioni in cui il potere decisionale presto o tardi sarà, almeno parzialmente, trasferito agli algoritmi di IA.

Questi sistemi operano però spesso come una “black box” (scatola nera) cioè con modalità che spesso restano oscure agli stessi esperti, rendendo difficile comprendere i passaggi logici che portano a una diagnosi o a un indirizzo terapeutico.

Dal punto di vista della legge Gelli, le indicazioni che provengono da un sistema di IA dovrebbero essere considerate quali raccomandazioni previste dalle linee guida, ai sensi dell’art. 5 della stessa legge.[4]

Ma chi sarà responsabile di un sistema che “autoapprende” e si evolve nel tempo? Appare infatti complesso individuare il soggetto al quale sia imputabile il nesso causale e l’elemento soggettivo colposo rispetto all’eventuale danno prodotto, a fronte dell’utilizzo di un sistema, nel caso del machine learning, “che non si limita solo ad applicare le regole dei software e i parametri preimpostati ma, al contrario (..) assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico”.[5]

Si potrebbe discutere che la responsabilità compete allo sviluppatore dell’algoritmo, ma la decisione clinica è del medico o comunque del sanitario (ricordiamo che la responsabilità professionale riguarda tutti gli operatori sanitari e non solo i medici).

L’utilizzo dell’IA, che costituisce per certi versi una scorciatoia e una velocizzazione, non esime dall’accurata verifica delle fonti, in ossequio ai principi basilari del metodo scientifico. Un primo problema riguarda, quindi, la regolamentazione dei processi di addestramento delle macchine e il loro continuo aggiornamento[6] e la valutazione e validazione preliminare di queste tecnologie, in considerazione delle loro implicazioni assistenziali, economiche, sociali ed etiche.

Questo problema non ha ancora trovato una soluzione univoca e sarà uno dei temi da definire nel prossimo futuro.

Alla luce di questi e altri interrogativi l’Organizzazione mondiale della sanità, nonostante i grandi progressi compiuti negli ultimi anni, ritiene che siano necessarie ancora ulteriori ricerche e sviluppi prima dell’introduzione concreta ed effettiva delle tecnologie basate sull’IA nella pratica clinica.[7]

 

 

In un altro articolo abbiamo parlato dei rischi e potenzialità dell’Intelligenza Artificiale in sanità (link).

Siamo anche su Facebook (qui). Puoi condividere questo articolo attraverso i pulsanti che trovi in basso.

 

BIBLIOGRAFIA

[1] McCarthy J, Minsky M, Rochester N, Shannon C. “A proposal for the Dartmouth summer research project on artificial intelligence”. AI Magazine. 2006;27(4):12

[2] European Parliamentary Research Service (EPRS). “Artificial intelligence in healthcare. Applications, risks, and ethical and societal impacts”. Bruxelles, June 2022 (link)

[3] Legge 24/2017. “Disposizioni in materia di sicurezza delle cure e della persona assistita, nonché in materia di responsabilità professionale degli esercenti le professioni sanitarie”. Art. 6

[4] Pennini A., Barbieri G. “Intelligenza artificiale (IA) nei processi di cura: riflessioni organizzative e giuridiche”. Articolo pubblicato sul sito QuotidianoSanità il 06-05-2025

[5] Consiglio di Stato, sez. III, sentenza n. 7891 del 25 novembre 2021

[6] Frittelli T. “Responsabilità professionale ed Intelligenza artificiale” Articolo pubblicato sul sito QuotidianoSanità il 02-09-2024

[7] World Health Organization. “Ethics and governance of artificial intelligence for health: WHO guidance”. Geneva, 2021 (link)

 

Creative Commons License