Vai menu di sezione

Canada – Voluntary Code of Conduct on the Responsible Development and Management of Advanced Generative AI Systems
Anno 2023

Il Ministero dell’Innovazione, della Scienza e dell’Industria canadese ha elaborato e introdotto il codice di condotta volontario per lo sviluppo e la gestione volontaria dei sistemi avanzati di AI generativa (Voluntary Code of Conduct on the Responsible Development and Management of Advanced Generative AI Systems), con l’obiettivo di mitigare i rischi posti da questa tecnologia.

Il codice è stato al momento sottoscritto da quattordici imprese che, su base volontaria, si sono impegnate ad adottare specifiche misure volte a prevenire i rischi dell’AI generativa, anticipando in questo modo l’entrata in vigore dell’Artificial Intelligence and Data Act.

I valori che le società firmatarie si obbligano a perseguire sono:

  1. accountability
  2. sicurezza
  3. giustizia e imparzialità
  4. trasparenza
  5. controllo umano
  6. validità e robustezza

Per raggiungere ognuno di questi scopi vengono delineate alcune azioni che sviluppatori e/o gestori dei sistemi dovranno intraprendere, tra cui:

  • sviluppare e gestire i sistemi di AI generativa in modo responsabile e adottare un sistema di gestione dei rischi (accountability);
  • condividere informazioni e buone pratiche di risk-management con altre società (accountability);
  • elaborare procedure per valutarne e mitigare i rischi dei sistemi di AI generativa (sicurezza);
  • garantire un controllo sulla qualità dei dati e sulla presenza di bias all’interno dei dataset utilizzati per il training dei sistemi (giustizia e imparzialità);
  • implementare diverse tecniche per testare i sistemi, in modo da misurare e ridurre il rischio di output distorti (giustizia e imparzialità);
  • fornire informazioni sul sistema e assicurare che questo si presenti come un’intelligenza artificiale quando può essere scambiato per un essere umano (trasparenza);
  • monitorare il funzionamento del sistema e intervenire per risolvere eventuali incidenti, che dovranno essere riportati in un’apposita banca dati (controllo umano);
  • assicurare che i sistemi siano stati testati per diverse funzioni e in molteplici contesti prima di approvarli (validità e robustezza);
  • implementare misure adeguate in tema di cybersicurezza (validità e robustezza). 

Alcune misure sono specificamente rivolte a sviluppatori e gestori di sistemi di AI generativa disponibili per l’uso pubblico, come la realizzazione della revisione del sistema da parte di un soggetto terzo prima di consentirne l’immissione in commercio e diverse obbligazioni in materia di trasparenza. Tra queste ultime si evidenzia l’obbligo di pubblicare informazioni su capacità e limiti del sistema, di sviluppare e implementare metodi affidabili e gratuiti per individuare i contenuti generati dal sistema e di rendere disponibile una descrizione del tipo di dati usati per il training.

Nonostante le misure siano rivolte a sistemi di AI generativa, molte indicazioni potranno essere implementate anche da imprese che producono sistemi “ad alto rischio”.

Le imprese firmatarie si impegnano anche a sostenere la creazione, in Canada, di un ecosistema di intelligenza artificiale solido e responsabile, contribuendo allo sviluppo e all’applicazione di standard, condividendo informazioni e buone pratiche e collaborando con mondo della ricerca e istituzioni anche al fine di accrescere la consapevolezza pubblica in tema di AI.

Il testo del codice di condotta è disponibile al seguente link e nel box download.

Laura Piva
Pubblicato il: Mercoledì, 27 Settembre 2023 - Ultima modifica: Giovedì, 02 Novembre 2023
torna all'inizio