Vai menu di sezione

UE - Assessing High-risk Artificial Intelligence – Fundamental Rights Risks: sistemi di intelligenza artificiale ad alto rischio e rischi per i diritti fondamentali
Anno 2025

Il 4 dicembre 2025 l’Agenzia dell’UE per i diritti fondamentali (FRA) ha pubblicato un report sui rischi per i diritti fondamentali connessi all’intelligenza artificiale.

Il documento si divide in tre capitoli principali:

  • Definizione e classificazione in base al rischio dei sistemi di IA;
  • Valutazione del rispetto dei diritti fondamentali da parte dei sistemi di IA ad alto rischio;
  • Modalità di valutazione dei rischi per i diritti fondamentali causati da sistemi di IA ad alto rischio

Il primo capitolo analizza la definizione di IA, i criteri per classificare i sistemi come ad alto rischio, diversi casi d’uso e come fornitori e utilizzatori valutano i propri sistemi. In conclusione, si sottolinea che la classificazione dei sistemi di IA come ad alto rischio è complessa e incerta, dipende da definizioni ambigue e autovalutazioni; senza linee guida chiare e una supervisione indipendente, sistemi potenzialmente dannosi rischiano di eludere le tutele fornite dall’AI Act.

Il secondo capitolo analizza gli obblighi previsti dall’AI Act in merito alla valutazione dei rischi per i diritti fondamentali insiti nei sistemi di IA ad alto rischio, che in larga parte entreranno in vigore a partire dal 2 agosto 2026.

Dalle pratiche attuali emerge che le valutazioni risultano spesso frammentarie e poco sistematiche, focalizzandosi prevalentemente su protezione dei dati, aspetti tecnici e profili di discriminazione, a scapito di molti altri diritti rilevanti. In ambiti come asilo, istruzione, lavoro, forze dell’ordine e accesso ai benefici pubblici, l’uso dell’IA può invece avere un impatto diretto e significativo su diversi diritti fondamentali.

Le misure di mitigazione adottate sono frammentarie e spesso inadeguate: si evidenzia che non è sufficiente garantire il controllo umano sui sistemi utilizzati, ma servono interventi più strutturati. Il capitolo conclude che servono valutazioni di impatto sui diritti fondamentali (Fundamental Rights Impact Assessment, FRIA) più complete, linee guida chiare e maggiore consapevolezza per garantire una reale tutela dei diritti fondamentali.

Il terzo capitolo delinea le misure necessarie per un’effettiva valutazione dei rischi per i diritti fondamentali nei sistemi di IA ad alto rischio, alla luce delle previsioni dell’AI Act.

Dalle interviste effettuate emerge che provider e deployer faticano a capire come applicare concretamente le nuove regole e attendono linee guida operative. In particolare, chiedono strumenti pratici (come template o questionari FRIA), formazione e indicazioni chiare su bias, uso dei dati sensibili e rapporto con la protezione dei dati.

Il capitolo conclude che, senza una guida semplice e concreta, la tutela dei diritti fondamentali rischia di restare formale; con strumenti adeguati, invece, l’AI Act può migliorare sia la protezione dei diritti sia la qualità dei sistemi di IA.

In conclusione, il rapporto evidenzia che l’AI Act può garantire la protezione dei diritti fondamentali e promuovere innovazione, ma servono linee guida pratiche, formazione e vigilanza esterna. Fornitori e utilizzatori spesso faticano a valutare i rischi reali, ma per farlo servono più risorse e competenze tecniche. È inoltre essenziale il contributo di studi indipendenti prodotti dal mondo accademico e della ricerca sugli effetti dell’IA sui diritti fondamentali

Alla luce di queste considerazioni, l’Agenzia propone le seguenti raccomandazioni:

  1. La definizione di sistema di IA prevista dall’articolo 3 dell’AI Act dovrebbe essere interpretata in modo ampio, includendo anche sistemi meno complessi; al contrario, una definizione restrittiva rischia di creare scappatoie legali che consentono di evitare l’applicazione dell’AI Act;
  2. Il filtro selettivo dei sistemi ad alto rischio di cui all’articolo 6 (3) dell’AI Act deve essere interpretato in modo restrittivo;
  3. La Commissione e le autorità nazionali devono monitorare attentamente l’applicazione del filtro, soprattutto nei settori sensibili, e, se necessario, modificare l’articolo 6 (3) per evitare che un’interpretazione troppo ampia riduca la tutela dei diritti fondamentali;
  4. Le linee guida per le valutazioni di impatto sui diritti fondamentali (FRIA) dovrebbero coprire i principali diritti fondamentali, considerare altri diritti rilevanti e fornire esempi pratici di impatto nei diversi settori ad alto rischio;
  5. La Commissione e gli Stati membri devono guidare l’attuazione dell’AI Act senza ridurre la tutela dei diritti fondamentali;
  6. La Commissione e gli Stati membri devono investire in ricerca e test per prevenire rischi sui diritti fondamentali e ridurre i bias nei sistemi ad alto rischio;
  7. L’autovalutazione deve essere supportata da una supervisione indipendente e ben dotata di risorse e competenze sui diritti fondamentali.

Il documento può essere consultato a questo link e nel box download.

Elena Frassinelli
Pubblicato il: Giovedì, 04 Dicembre 2025 - Ultima modifica: Venerdì, 06 Marzo 2026
torna all'inizio