L’8 dicembre 2022 l’Agenzia dell’Unione europea per i diritti fondamentali (FRA) ha pubblicato un rapporto sull’utilizzo di strumenti di intelligenza artificiale e come questi possano generare decisioni discriminatorie. Il rapporto si concentra su due casi d'uso principali per dimostrare che, sebbene l'IA offra grandi opportunità, può violare diritti fondamentali come la privacy e l'uguaglianza se non adeguatamente regolamentata.
UE – Agenzia dell’Unione europea per i diritti fondamentali - Bias in Algorithms: un rapporto sui rischi di bias negli strumenti di intelligenza artificiale
Anno 2022
La FRA ha evidenziato che i bias sono già presenti nella mente umana, perciò una macchina (sviluppata e utilizzata da esseri umani) potrebbe incorporarli ed esacerbarli durante il suo utilizzo. La FRA spiega in questo rapporto che un risultato discriminante può essere causato quando il bias si fonda sull’utilizzo di un dato personale e porta a un trattamento sfavorevole per la persona. Tuttavia, spesso i bias si basano su dati di proxy (dati che apparentemente sono neutri, ma che sono collegati strettamente a un dato personale) il che può portare comunque a un risultato discriminante.
Un caso analizzato dalla FRA è il feedback loop nei casi di polizia predittiva. Questo ciclo si verifica quando le previsioni di un sistema influenzano la realtà, che a sua volta genera i nuovi dati usati per aggiornare il sistema stesso. La FRA evidenzia come un rischio del feedback loop avvenga quando la polizia viene inviata ripetutamente negli stessi quartieri basandosi su dati storici distorti, con la conseguenza di rilevare più crimini in quella zona e confermare erroneamente il pregiudizio iniziale dell'algoritmo.
Il secondo caso analizzato è l’utilizzo di algoritmi nelle piattaforme social per moderarne i contenuti. Attraverso uno studio della FRA si è dimostrato come termini neutri quali "ebreo" o "musulmano" possono far sì che una frase venga classificata erroneamente come offensiva. Inoltre, la FRA ha evidenziato come nelle lingue con generi grammaticali, come l'italiano e il tedesco, l'algoritmo mostri pregiudizi significativi. Per quanto gli strumenti per la lingua inglese siano più avanzati, per le altre lingue ufficiali dell’Unione la scarsità di dati porta a prestazioni peggiori e maggiori bias negli algoritmi.
Il rapporto sottolinea che non esiste una "soluzione rapida", ma è necessario un approccio basato sui diritti umani. Il documento approva le soluzioni individuate da proposte come l'AI Act e il Digital Services Act per garantire trasparenza e responsabilità in relazione all’utilizzo di questi nuovi strumenti. Inoltre, la FRA appoggia completamente i princìpi di supervisione umana e di trasparenza che sono presenti all’intento dell’AI Act.
Il documento può essere consultato a questo link e nel box del download.