Vai menu di sezione

EPRS – Artificial intelligence in healthcare: studio sulle applicazioni, i rischi e le implicazioni etico-sociali dell’intelligenza artificiale in sanità
Anno 2022

Il servizio ricerca del Parlamento europeo (EPRS) ha pubblicato un documento che analizza gli ambiti di applicazione dell’intelligenza artificiale (AI) in sanità, ne individua i principali rischi clinici, etici e sociali e propone alcune misure e policy per minimizzarli.

Il documento definisce anzitutto alcuni concetti chiave – tra cui quello di intelligenza artificiale – e presenta le principali sfide cui sono sottoposti i sistemi sanitari europei. Successivamente illustra possibili applicazioni dell’AI in quattro diversi ambiti: (1) la pratica clinica; (2) la ricerca biomedica; (3) la sanità pubblica e (4) il management sanitario.

La terza sezione è dedicata ai rischi e alle misure per mitigarli. Il documento si concentra su:

  1. I danni causati da errori del sistema di AI al paziente: alcuni fattori come disturbi o inesattezze degli input o dei parametri clinici utilizzati, data shift e variazioni inattese nel contesto clinico d’uso possono determinare output errati come falsi negativi, falsi positivi, diagnosi imprecise o l’attribuzione di un’errata priorità tra interventi, da cui discendono gravi conseguenze mediche per il paziente. Per arginare questi rischi si raccomanda di effettuare studi clinici multicentrici per individuare fragilità del sistema, di sviluppare sistemi capaci di migliorare con il tempo e di utilizzarli solo come supporto, in modo che vi sia sempre il controllo di un professionista sanitario.
  2. L’uso scorretto degli strumenti medici di AI da parte dei professionisti sanitari o dei pazienti, che potrebbe essere determinato da un loro scarso coinvolgimento nello sviluppo dei sistemi di AI, da una mancanza di training o di consapevolezza nonché dalla facilità di accedere ad app e soluzioni online implementate con l’AI. Alcune possibili soluzioni includono sviluppare sistemi incentrati sull’utente, offrire programmi di educazione dei medici e della cittadinanza e migliorare la regolamentazione e l’informazione su queste tecnologie.
  3. Il rischio di bias e di perpetuare o amplificare discriminazioni già esistenti in medicina e che si basano su sesso, genere, età, etnia, provenienza geografica, fattori socioeconomici. In proposito si suggerisce di effettuare il training dei sistemi con dataset bilanciati e rappresentativi, di adottare un approccio interdisciplinare che includa sociologi e di promuovere l’inclusione e la diversità all’interno dei team che sviluppano AI medica.
  4. La mancanza di trasparenza, fattore che incide negativamente sulla fiducia verso i sistemi, sulla capacità di comprenderne e valutarne gli output così come di individuarne gli errori, sull’implementazione effettiva nella pratica clinica. Si raccomanda quindi di creare un “passaporto dell’AI” che documenti tutte le informazioni sul modello, di rendere gli algoritmi tracciabili e monitorabili, di prevedere la tracciabilità e la spiegabilità come prerequisiti per la certificazione e di coinvolgere medici e utilizzatori nel design di strumenti che abbiano una spiegabilità clinica.
  5. I problemi per la privacy e la sicurezza, in quanto vi è il rischio che i dati personali di cittadini e pazienti vengano indebitamente condivisi e/o riutilizzati. A ciò si aggiunge il pericolo di furti di identità, frodi e cyberattacchi. Bisogna pertanto lavorare sulla consapevolezza dei cittadini, elaborare regole giuridiche in materia di responsabilità, e migliorare la cybersicurezza dei sistemi AI.
  6. Le lacune della disciplina della responsabilità, visto che al momento non vi sono leggi che offrano indicazioni chiare circa il modo in cui ripartire la responsabilità tra i molteplici attori coinvolti nell’uso dell’AI medica (professionisti sanitari, ospedali, sviluppatori, ecc.). Si devono quindi implementare procedimenti per identificare il ruolo dei diversi attori in caso di eventi dannosi, elaborare e applicare quadri regolatori unitari e stabilire dell’agenzie regolatorie dedicate all’AI medica.
  7. Le barriere che limitano l’utilizzo dell’AI nella pratica clinica, come la limitata qualità dei dati e delle strutture, la scarsa interoperabilità di sistemi AI e cartelle cliniche elettroniche, i timori circa l’alterazione del rapporto medico-paziente. Possibili soluzioni includono elaborare standard sulla qualità e interoperabilità dei dati all’interno dell’Unione europea, stabilire nuove linee guida e modelli di cura che considerino l’utilizzo dell’AI nella pratica medica, definire standard e procedure operative per integrare queste tecnologie all’interno flusso di lavoro clinico. 

La quarta sezione si propone una procedura di valutazione e gestione dei rischi (risk assesment & management) di sistemi di AI medica. Uno step essenziale è elaborare una metodologia per classificare i rischi a seconda del loro livello e tipologia. Per ogni classe di rischio andranno poi definiti test e regole da applicare per mitigare i potenziali effetti dannosi, così come proposto all’interno dell’AI Act. Il documento incoraggia gli sviluppatori ad utilizzare la check-list ALTAI e FUTURE-AI per identificare il livello di rischio del loro sistema. Le check-list contengono una serie di domande riguardo l’affidabilità, la protezione dei dati, la spiegabilità, l’equità, l’universalità, la tracciabilità, l’utilizzabilità e la robustezza del sistema. Oltre all’autovalutazione dei produttori il documento ribadisce la necessità di condurre una valutazione clinica delle soluzioni AI. Questa deve comprendere: l’elaborazione di definizioni standardizzate delle attività cliniche così da permettere il confronto oggettivo di più sistemi; la definizione di quali elementi vadano valutati come parte della performance al di là dell’accuratezza; la suddivisione del processo valutativo in diverse fasi; la promozione di una valutazione indipendente ad opera di parti terze e l’impiego di linee guida standardizzate per riportare i risultati della valutazione.

L’ultima parte del documento suggerisce sette policy da attuare per rendere l’AI medica affidabile:

  1. Sviluppare regolamenti e policy specifiche per il settore sanitario, dal momento che l’AI Act e i Regolamenti europei sui dispositivi medici sono insufficienti a fronteggiare i rischi specifici dell’AI medica;
  2. Coinvolgere gli stakeholder e incoraggiare la co-creazione dei sistemi di AI;
  3. Introdurre un “passaporto dell’AI” che renda tracciabili i dispositivi di AI medica e che contenga informazioni sul modello, la destinazione d’uso, i dati utilizzati per il training, le procedure di validazione seguite, le indicazioni d’uso e di manutenzione;
  4. Elaborare un quadro regolatorio uniforme in materia di responsabilità;
  5. Istituire programmi di formazione in materia di AI per medici e cittadini;
  6. Promuovere la ricerca in materia di AI affidabile ed etica;
  7. Progettare una strategia per ridurre le disuguaglianze in punto di AI medica all’interno dell’Unione europea (“AI divide”), anche al fine di evitare che differenze nello sviluppo e implementazione dell’AI vadano ad esacerbare le disuguaglianze sanitarie già riscontrabili tra gli Stati membri.

Il testo del documento è disponibile al seguente link e nel box download.

Laura Piva
Pubblicato il: Mercoledì, 01 Giugno 2022 - Ultima modifica: Martedì, 28 Novembre 2023
torna all'inizio