L'AI Act è una proposta di Regolamento introdotta nell'aprile 2021 dalla Commissione europea. Il suo obiettivo è quello di creare un quadro normativo orizzontale armonizzato per lo sviluppo, l'introduzione nel mercato dell'Unione europea e l'utilizzo di prodotti e servizi di intelligenza artificiale (AI), con particolare attenzione alla gestione dei rischi per salute, sicurezza e diritti fondamentali.
Unione Europea - Proposta di Regolamento sull'Intelligenza Artificiale (AI Act)
21 aprile 2021
L’AI Act classifica i sistemi di intelligenza artificiale in base al loro livello di rischio (inaccettabile, alto, basso o minimo). In particolare, i sistemi di AI sono classificati dal Regolamento nelle seguenti categorie:
- Le pratiche proibite che pongono rischi inaccettabili (Titolo II) sono esplicitamente vietate nel mercato interno dell'UE. Tra queste rientrano i sistemi di AI utilizzati dalle autorità pubbliche (o per loro conto) per determinare un punteggio sociale e i sistemi di identificazione biometrica remota "in tempo reale" in spazi pubblicamente accessibili per scopi di attività di contrasto (con alcune eccezioni);
- I sistemi di AI ad alto rischio (Titolo III) sono consentiti solo dopo essere stati sottoposti ad una valutazione di conformità da parte dello stesso fornitore del sistema di AI o da un organismo notificato terzo (articolo 43) in relazione a requisiti specifici, dettagliati al Capitolo 2. In particolare, i sistemi ad alto rischio richiedono l’adozione di un sistema di gestione dei rischi (articolo 9) che, in modo iterativo, identifichi, valuti e gestisca (tramite eliminazione o mitigazione) possibili rischi che possono essere rilevati anche nel monitoraggio successivo all’immissione nel mercato. Inoltre, i fornitori di tali sistemi dovranno redigere e tenere aggiornata la documentazione tecnica (articolo 11) e la registrazione dei log (articolo 12), oltre che progettare e sviluppare i sistemi in modo tale che mantengano livelli adeguati di accuratezza, robustezza e cybersicurezza durante tutto il loro ciclo di vita (articolo 15). Altri requisiti rilevanti riguardano la supervisione umana (articolo 14) e la trasparenza dei sistemi (articolo 13), che devono essere progettati e sviluppati in modo da garantire (assieme ad istruzioni per l’uso chiare, accessibili e complete) una adeguata interpretazione dell’output e utilizzo del sistema;
- I sistemi di AI che presentano un rischio basso (Titolo IV) sono soggetti a obblighi di trasparenza in relazione alla circostanza che l’interlocutore di una persona fisica sia una AI, che un contenuto (che potrebbe apparire falsamente veritiero o autentico) sia stato generato o manipolato da una AI o che una persona fisica sia esposta a un sistema di riconoscimento delle emozioni o di categorizzazione biometrica (articolo 52); e
- I sistemi di AI (Titolo IX) che presentano solo un rischio minimo sono sviluppati e utilizzati nell'UE senza ulteriori obblighi legali, ma i fornitori di tali sistemi sono incoraggiati ad applicare volontariamente codici di condotta.
Inoltre, il Titolo V introduce misure a sostegno dell'innovazione, con particolare attenzione alla creazione di sandbox regolamentari per lo sviluppo e la sperimentazione di sistemi innovativi di AI. Nelle sandbox si istituisce un ambiente controllato per sottoporre a prova per un periodo limitato tecnologie innovative sotto la supervisione delle autorità competenti e sulla base di un piano concordato con le stesse.
L’AI Act prevede la nomina di autorità competenti da parte degli Stati membri e la creazione di un comitato europeo per l'intelligenza artificiale che supervisioneranno l'applicazione e l'attuazione del regolamento.
La mancata osservanza dell’AI Act porterà alla comminazione di sanzioni amministrative pecuniarie.
Sia il Consiglio dell’Unione europea che il Parlamento europeo hanno proposto diversi emendamenti alla proposta della Commissione: infatti, nel dicembre 2022 il Consiglio ha concordato il cd. General Approach degli Stati Membri dell'UE (ovvero un accordo politico di massima per indicare al Parlamento il proprio orientamento), mentre il Parlamento europeo ha approvato il testo del Regolamento in prima lettura nel giugno 2023.
Le due istituzioni hanno quindi iniziato le negoziazioni con la Commissione europea (cd. trilogo) al fine di dare forma alla versione finale del Regolamento.
Le proposte di emendamento riguardano, in modo particolare, la definizione dei sistemi di AI e l’inclusione di una regolamentazione per i cd. General Purpose AI (tra i quali rientrerebbe anche Chat GPT). Il Parlamento ha proposto inoltre l’ampliamento delle pratiche proibite, il potenziamento del ruolo degli organismi di supervisione e la previsione di una valutazione d'impatto sui diritti fondamentali.
Il testo della proposta di regolamento è disponibile al seguente link e nel box download