Passer au contenu principal
Bulletin

Cadre de gestion des risques liés à l’intelligence artificielle publié par le NIST

Fasken
Temps de lecture 11 minutes
S'inscrire
Partager

Aperçu

Bulletin Technologies, médias et télécommunications

Le 26 janvier 2023, le National Institute of Standards and Technology (le « NIST ») du département du Commerce des États-Unis a publié la version 1.0 du très attendu cadre de gestion des risques liés à l’intelligence artificielle (le « CGRIA »), une ressource importante que les organisations peuvent utiliser lors de la conception, le développement, le déploiement ou l’utilisation de systèmes d’intelligence artificielle (l’« IA »). Alors que le projet de loi C-27 édictant la Loi sur l’intelligence artificielle et les données (la « LIAD »), émanant du gouvernement du Canada, fait son chemin au Parlement (comme nous l’avons abordé dans un précédent bulletin), le CGRIA du NIST est susceptible de devenir un outil influent pour évaluer, gérer et atténuer les risques dans un contexte où les organisations cherchent à utiliser les systèmes d’IA de manière responsable.

Structure du cadre de gestion des risques liés à l’IA

Le CGRIA est divisé en deux parties :

  • La partie 1 (« Renseignements fondamentaux ») présente les risques, les effets et les préjudices relatifs à l’IA, et met en évidence sept « caractéristiques des systèmes d’IA dignes de confiance » : i) validité et fiabilité; ii) sécurité; iii) sûreté et résilience; iv) responsabilité et transparence; v) explicabilité et interprétabilité; (vi) protection améliorée de la vie privée; et (vii) équité – avec gestion des biais négatifs.
  • La partie 2 (« Noyau et profils ») présente les composantes essentielles du CGRIA, lesquelles comprennent quatre fonctions (gouvernance, mappage, mesure, gestion), de même que les catégories relevant de ces fonctions et destinées à aider les organisations à gérer concrètement les risques liés aux systèmes d’IA.

Évaluation des risques liés à l’IA et fiabilité (Partie 1 – Définir le risque)

La partie 1 identifie le public cible du CGRIA comme « les acteurs de l’IA [...] qui réalisent ou gèrent la conception, le développement, le déploiement, l’évaluation et l’acquisition des systèmes d’IA et qui soutiennent les efforts de gestion des risques liés à l’IA. » Le CGRIA définit le terme « risque » comme étant « la mesure composite de la probabilité qu’un événement survienne et de l’ampleur ou du degré des conséquences de l’événement correspondant ». Le NIST décrit la « fiabilité » des systèmes d’IA améliorés comme la solution aux risques négatifs liés à l’IA.

La partie 1 énonce les sept caractéristiques qui peuvent être utilisées pour évaluer la fiabilité d’un système d’IA :

  1. Validité et fiabilité : « La validité s’entend de la confirmation par des preuves tangibles que les exigences liées à une utilisation ou application précise prévue ont été satisfaites [...] La fiabilité [est] la capacité d’un élément à fonctionner comme requis, sans défaillance, pendant un intervalle de temps donné, dans des conditions données. »
  2. Sécurité : Les systèmes d’IA doivent être sécuritaires et ne doivent « pas, selon des conditions définies, conduire à une situation dans laquelle la vie ou la santé des personnes ainsi que les biens ou l’environnement sont en danger [...]. Différents types de risques pour la sécurité peuvent nécessiter des approches de gestion des risques liés à l’IA adaptées en fonction du contexte et de la gravité des risques potentiels. Les risques pour la sécurité qui présentent un risque potentiel de blessures graves ou de décès doivent être classés par ordre de priorité et faire l’objet d’un processus de gestion des risques très complet ».
  3. Sûreté et résilience : Un système d’IA est résilient s’il peut « résister à des événements indésirables inattendus ou à des changements imprévus dans son environnement ou lors de son utilisation, ou s’il peut maintenir ses fonctions et sa structure malgré les changements internes et externes, et se dégrader de façon sécuritaire et harmonieuse lorsque cela est nécessaire [...] La résilience et la sûreté sont des concepts connexes, mais distincts [...] Bien que la résilience soit la capacité du système de reprendre ses activités normales après un événement indésirable inattendu, la sûreté comprend la résilience, mais également des protocoles visant à éviter les attaques, à protéger les systèmes d’IA contre ces dernières, à y réagir ou à s’en remettre ».
  4. Responsabilité et transparence : « Une IA fiable dépend de la responsabilisation, [laquelle] présuppose la transparence. La transparence reflète la mesure dans laquelle les renseignements concernant un système d’IA et ses extrants sont disponibles pour les personnes qui interagissent avec un tel système, qu’elles soient au courant ou non qu’elles le font [...] En plus de favoriser une meilleure compréhension, la transparence permet d’accroître la confiance dans le système d’IA. »
  5. Explicabilité et interprétabilité : « L’explicabilité désigne une représentation des mécanismes qui sous-tendent le fonctionnement des systèmes d’IA, tandis que l’interprétabilité réfère à la signification des extrants des systèmes d’IA dans le contexte de leurs fonctions prévues. »
  6. Protection améliorée de la vie privée : « La protection de la vie privée réfère généralement aux normes et aux pratiques qui contribuent à protéger l’autonomie, l’identité et la dignité humaines. Ces normes et pratiques visent normalement à éviter toute intrusion, à limiter la surveillance ou à permettre aux individus de consentir à la divulgation ou au contrôle de certains aspects de leur identité (p. ex., corps, données personnelles, réputation) [...] Les valeurs liées à la vie privée comme l’anonymat, la confidentialité et le contrôle devraient généralement guider les choix en matière de conception, de développement et de déploiement des systèmes d’IA. »
  7. Équité – avec gestion des biais négatifs : « L’équité en matière d’intelligence artificielle comprend des préoccupations en matière d’égalité et d’équité en s’attaquant à des questions comme les biais négatifs et la discrimination [...] Si les préjugés ne constituent pas toujours un phénomène négatif, les systèmes d’IA peuvent potentiellement accroître la vitesse et la portée des biais et perpétuer et étendre les préjudices causés aux individus, aux groupes, aux communautés, aux organisations et à la société. »

Gestion des risques liés à l’IA (2e partie – Noyau et profils)

La partie 2 présente une vision de la manière dont les composantes essentielles du CGRIA peut aider les organisations à gérer les risques de façon responsable dans le cadre de leurs activités. Le « noyau » comprend quatre « fonctions » distinctes.

  • Gouvernance : La gouvernance est décrite comme une fonction transversale présente dans la gestion des risques liés à l’IA. Comme dans toute organisation, une gouvernance solide et efficace « peut favoriser et améliorer les pratiques et les normes internes pour faciliter la culture de gestion des risques au sein de l’organisation. Les dirigeants peuvent établir les politiques générales qui orientent la mission, les objectifs, les valeurs, la culture et la tolérance au risque d’une organisation ».
  • Mappage : Le mappage offre une méthode de contextualisation et d’identification des risques associés aux systèmes d’IA, permettant de retracer les interdépendances entre les différentes activités et entre les acteurs de l’IA concernés afin d’anticiper de manière fiable les effets des systèmes d’IA.
  • Mesure : Mesurer [les risques identifiés et leurs effets] permet aux organisations de faire le suivi et l’analyse des risques liés à l’IA et d’évaluer la fiabilité du système à l’aide d’indicateurs qualitatifs et quantitatifs.
  • Gestion : La gestion des risques découle des autres fonctions et implique l’allocation de ressources aux risques mappés et mesurés sur une base régulière et de la manière définie par la fonction de gouvernance.

Implications pour la LIAD et la réglementation canadienne régissant l’IA

En tant que produit découlant directement de la National Artificial Intelligence Initiative Act de 2020 (États-Unis), le CGRIA représente une étape importante dans la promotion de la stratégie et du leadership en matière d’IA aux États-Unis, et il a des implications plus vastes pour d’autres territoires qui explorent actuellement la gouvernance de l’intelligence artificielle. Comme nous en avons discuté dans notre précédent bulletin, la législation sur l’IA de l’Union européenne établit des règles harmonisées visant à réglementer le développement, la commercialisation et l’utilisation de l’IA, ce qui aura des répercussions à l’échelle mondiale pour l’industrie de l’IA si la proposition de règlement est adoptée. Au Canada, la LIAD n’a pas encore force de loi et pourrait être modifiée dans le cadre du processus législatif, mais ses normes proposées reflètent globalement celles du CGRIA ainsi que les nouveaux cadres réglementaires en matière d’IA envisagés dans les principales économies du monde, comme l’Union européenne.

Le CGRIA offre des lignes directrices pouvant influer sur l’élaboration de cadres réglementaires en matière d’IA et aider les concepteurs, les développeurs et les utilisateurs de systèmes d’IA à opérationnaliser l’atténuation des risques avant d’être assujettis à des lois réglementant l’IA. Les organisations qui utilisent des systèmes d’IA devraient consulter le CGRIA pour évaluer son applicabilité et son utilité, à la lumière des projets de loi qui visent à réglementer l’IA, tant au Canada qu’ailleurs dans le monde. Par exemple, de nombreuses entités du secteur public au Canada (en particulier les entités du gouvernement fédéral) exigent que leurs entrepreneurs et sous-traitants respectent les normes du NIST, et les organisations concernées par les systèmes d’IA qui concluent des contrats ou des sous-contrats avec ces entités doivent prendre en compte le CGRIA.

Bien que le CGRIA constitue un cadre volontaire, le NIST est généralement considéré comme une organisation influente dans le développement de normes technologiques à l’échelle mondiale, et il pourrait donc devenir une référence largement consultée lors de la conception, du développement et du déploiement des systèmes d’IA. 

Contactez les auteurs

Pour plus de renseignements et pour obtenir de l’aide lors de l’élaboration de votre programme de gouvernance et de gestion des risques liés à l’IA, veuillez communiquer avec notre groupe Technologies de l’information et notre groupe Protection des renseignements confidentiels, vie privée et cybersécurité.

Contactez les auteurs

Auteurs

  • Christopher Ferguson, Associé, Toronto, ON, +1 416 865 4425, cferguson@fasken.com
  • Paul Burbank, Avocat, Toronto, ON | Ottawa, ON, +1 416 865 4427, pburbank@fasken.com
  • Aniket Bhatt, Avocat, Toronto, ON | Ottawa, ON, +1 416 868 7871, abhatt@fasken.com

    Abonnement

    Recevez des mises à jour de notre équipe

    S'inscrire