Vai menu di sezione

OECD – “AI in Health. Huge potential, huge risks”: azioni per implementare gli OECD AI principles in sanità
Anno 2024

L’OECD ha fornito indicazioni su come implementare, all’interno dei contesti sanitari, i principi in materia di intelligenza artificiale sviluppati dalla stessa Organizzazione nel 2019.

In questo dossier l’OECD illustra le principali opportunità che l'AI offre in sanità e i suoi rischi, i quali comprendono sia quelli derivanti dall’utilizzo dell’AI sia dal suo non utilizzo. In aggiunta, ulteriori e peculiari rischi possono sorgere dall’incapacità di implementare i principi in materia di AI sviluppati dell’OECD nel 2019 e oggi adottati da un consistente numero di Stati. Infatti, la loro mancata traduzione in azioni concrete può portare a esacerbare le disuguaglianze nell’accesso ai servizi digitali e sanitari, a violazioni della privacy, al rallentamento della ricerca scientifica e a generare sfiducia nella colletività.

Di conseguenza, gli Stati devono agire con urgenza e coordinazione per implementare i principi elaborati. Questo documento si concentra sui seguenti cinque principi: (1) accountability; (2) umanocentricità ed equità; (3) crescita inclusiva, sviluppo sostenibile e benessere (4) trasparenza e spiegabilità; (5) robustezza, protezione e sicurezza.

Per ognuno di essi, l’OECD espone gli specifici rischi conseguenti alla loro mancata attuazione in sanità e individua le azioni che, allo stato attuale, sono state intraprese per implementarli e le loro rispettive lacune. Inoltre, indica le azioni future da compiere atte a colmare i gap e a realizzare i seguenti obiettivi:

  1. Garantire una governance effettiva e trasparente nell’adozione, nell’uso e nell’evoluzione dell'AI (accountability). Senza un meccanismo di sorveglianza c’è il rischio che l’AI sia sviluppata o implementata in modi che nuociono ai pazienti e ai sistemi sanitari. Alcuni Stati hanno istituito autorità di sorveglianza, ma molti non hanno un approccio focalizzato sull’uso dell’AI nel settore sanitario. Questo comporta la mancanza di dati circa l’effettiva implementazione dell’AI in tale settore, i suoi benefici, la frequenza e la tipologia di incidenti. In molte realtà nazionali mancano, inoltre, indicazioni su chi possa essere il soggetto responsabile in caso di danni. Le possibili azioni future da adottare sono: monitorare, a livello nazionale e transnazionale, la progressione dell'adozione dell'AI in campo sanitario, i suoi benefici e i suoi danni; rendere pubblici tali dati; definire requisiti e responsabilità per gli attori pubblici e privati che sviluppano e implementano le soluzioni di AI in ambito sanitario.
  2. Rendere la forza lavoro del settore sanitario in grado di usare l’AI (umanocentricità ed equità). Quando AI e uomo lavorano insieme produttività e qualità dei risultati possono aumentare. Al tempo stesso, l’AI modificherà il modo di lavorare dei sanitari, ma la maggior parte di loro non possiede le competenze per affrontare e sfruttare le potenzialità di questo cambiamento. Bisogna quindi migliorare la formazione degli operatori della salute e il loro coinvolgimento nella creazione dei sistemi AI, stabilendo programmi che incoraggino l’adozione e l’uso responsabile di soluzioni AI nella pratica clinica.
  3. Rendere accessibili le soluzioni di AI in sanità (crescita inclusiva, sviluppo sostenibile e benessere). Gli investimenti iniziali nel settore della salute digitale hanno condotto a una frammentazione delle policy, dei dati e delle soluzioni di intelligenza artificiale. C’è dunque il rischio che ad alcune fasce della popolazione non venga garantito un equo accesso ai benefici dell’AI per questioni legate alla loro cultura, genere, condizione economica e/o appartenenza geografica. Ciononostante, vi sono poche misurazioni sistemiche del fenomeno, il che lo rende difficilmente comprensibile. Una delle possibili soluzioni consiste nello sviluppare strumenti per analizzare l’impatto dell’AI sulla salute, tenendo conto delle variabili geografiche, di genere e di altri fattori rilevanti.  In aggiunta, bisognerebbe armonizzare politiche, dati e infrastrutture tecnichecosì da consentire l'adozione di soluzioni di AI su larga scala, all’interno delle realtà nazionali e, ove appropriato, al di là delle frontiere.
  4. Assicurare la rappresentatività dei dati e la trasparenza e spiegabilità degli algoritmi (trasparenza e spiegabilità). Nonostante questi principi siano ritenuti essenziali per mitigare il rischio di esiti incorretti e dannosi (e il conseguente aumento della sfiducia verso questa tecnologia), servono maggiori indicazioni a livello nazionale e internazionale su quali informazioni debbano essere fornite sui sistemi AI usati in sanità. Serve inoltre stabilire dei metodi per certificare e regolare tali sistemi.
  5. Bilanciare la protezione dei dati personali con il miglioramento della salute (robustezza, protezione e sicurezza). Vi sono diversi tipi di rischi che possono derivare dai dati e, in particolare, dal loro uso, dal loro mancato utilizzo o dal loro uso improprio. Tra essi si annoverano violazioni della privacy, cyberattacchi, discriminazioni e l'incapacità di fornire un'assistenza efficace agli individui. Nell'era dell'intelligenza artificiale, la protezione dei dati personali – che nella maggior parte dei Paesi è garantita da apposite leggi – entra in tensione con lo sviluppo di soluzioni AI in campo sanitario. Bisogna dunque tenere presente che, ove i sistemi sanitari utilizzino l’AI per migliorare i risultati sanitari individuali e collettivi e per proteggere la salute pubblica, esisteranno sempre dei rischi per la privacy. Al fine di mitigarli, bisogna modernizzare e armonizzare i codici di condotta dell’AI che si occupano dei rischi dell’uso e del non uso dei dati e operazionalizzarli. È altresì essenziale rafforzare la cooperazione transfrontaliera e intersettoriale per combattere i cyberattacchi.

In conclusione, l’OECD incoraggia Stati e rappresentanti di diverse industrie a cooperare per raggiungere questi obiettivi, offrendosi di contribuire a: (1) valutare e misurare le opportunità e i rischi dell’AI per la salute; (2) supportare gli Stati nel delineare e implementare politiche sanitarie e codici di condotta per realizzare un’AI responsabile; (3) soppesare lo sviluppo delle policy, promuovere la condivisione delle conoscenze e tenere traccia degli incidenti e delle buone pratiche di AI.

Il testo del documento è disponibile al seguente link e nel box download

Laura Piva
Pubblicato il: Mercoledì, 14 Febbraio 2024 - Ultima modifica: Mercoledì, 06 Marzo 2024
torna all'inizio