Passer au contenu principal
Bulletin

La réglementation sur l’intelligence artificielle au Canada et à l’étranger : comparaison entre le projet de loi C-27 édictant la LIAD et la législation sur l’IA de l’Union européenne

Fasken
Temps de lecture 36 minutes
S'inscrire
Partager

Aperçu

Bulletin vie privée

Les lois régissant la technologie ont toujours porté principalement sur la réglementation de la protection des renseignements personnels et des communications numériques. Cependant, les gouvernements et les autorités de réglementation du monde entier tournent de plus en plus leur attention vers les systèmes d’intelligence artificielle (IA). Alors que l’IA joue un rôle de plus en plus influent dans diverses industries, certains signes portent à croire que les énoncés de droit non contraignants et les cadres éthiques existants sur l’IA pourraient bientôt être suivis de cadres juridiques contraignants.[1]

En effet, le 16 juin 2022, le gouvernement canadien a déposé le projet de loi C-27, la Loi de 2022 sur la mise en œuvre de la Charte du numérique. Le projet de loi C-27 propose d’édicter, entre autres, la Loi sur l’intelligence artificielle et les données (la « LIAD »). Bien que des efforts aient déjà été déployés pour réglementer la prise de décisions automatisée dans le cadre de la réforme fédérale de la protection des renseignements personnels, les modifications apportées à la LIAD représentent le premier pas du Canada vers la réglementation des systèmes d’IA en dehors de la législation sur la protection des renseignements personnels.[2]

Si elle est adoptée, la LIAD réglementerait la conception, le développement et l’utilisation des systèmes d’IA dans le secteur privé relativement au commerce interprovincial et international, et viserait à atténuer les risques de préjudice et de partialité dans l’utilisation des systèmes d’IA à « incidence élevée ». La LIAD prévoit des exigences concrètes pour les systèmes d’IA, de même que des pénalités et de nouvelles infractions d’ordre pénal pour certains comportements illicites ou frauduleux en ce qui concerne ces systèmes.

Comparaison entre la LIAD et la législation sur l’IA de l’Union européenne

Avant l’arrivée de la LIAD, en avril 2021, la Commission européenne a présenté un projet de règlement sur l’intelligence artificielle établissant des règles harmonisées concernant l’intelligence artificielle (la « législation sur l’IA de l’UE », souvent désignée par son nom anglais AI Act). L’objectif? Établir une législation harmonisée pour la conception, la commercialisation et l’utilisation de l’IA et imposer des critères fondés sur les risques pour les systèmes d’IA et leurs opérateurs, en plus de prévoir des restrictions au sujet de certaines pratiques d’IA considérées néfastes.

Généralement, la LIAD et la législation sur l’IA de l’UE visent toutes deux à atténuer les risques de partialité et de dommages causés par l’IA, tout en maintenant un certain équilibre entre la législation et le besoin de voir évoluer l’innovation technologique. Dans un effort pour être « prêt pour l’avenir » et de suivre le rythme des progrès en matière d’IA, la LIAD et la législation sur l’IA de l’UE définissent l’« intelligence artificielle » d’une manière neutre sur le plan technologique. Cependant, la LIAD s’appuie sur une approche davantage fondée sur des principes, tandis que la législation sur l’IA de l’UE est plus contraignante dans sa classification des systèmes d’IA à haut risque et des pratiques d’IA néfastes, de même qu’à propos du contrôle de leur conception et de leur déploiement. En outre, une grande partie de la substance et des détails de la LIAD restent à définir dans de futurs règlements, notamment la définition clé des systèmes d’IA à « risque élevé », auxquels la plupart des obligations liées à la LIAD sont rattachées.

Le tableau ci-dessous présente certaines des principales similitudes et différences entre les versions actuelles de la LIAD et de la législation sur l’IA de l’UE.

 Définitions clés
 LIAD Législation sur l’IA de l’UE 

« Système d’intelligence artificielle » désigne un système technologique qui, de manière autonome ou partiellement autonome, traite des données liées à l’activité humaine par l’utilisation d’algorithmes génétiques, de réseaux neuronaux, d’apprentissage machine ou d’autres techniques pour générer du contenu, faire des prédictions ou des recommandations ou prendre des décisions.

« Système de renseignements artificiels » désigne un logiciel qui est développé au moyen d’une ou plusieurs des techniques et approches énumérées dans la loi (p. ex., approches d’apprentissage machine, approches logiques et fondées sur le savoir et approches statistiques) et qui peut, pour un ensemble donné d’objectifs, générer des résultats comme des contenus, des prédictions, des hypothèses, des recommandations ou des décisions influençant les environnements avec lesquels il interagit.

« Système à incidence élevée » désigne un système d’intelligence artificielle qui satisfait aux critères d’un système à incidence élevée établis par la réglementation à venir.

« Système à risque élevé » désigne :

  • un système d’IA destiné à être utilisé comme élément de sécurité d’un produit réglementé déterminé, ou qui est lui-même un produit réglementé déterminé (p. ex., machines, jouets ou équipements radio), et qui est soumis à des approbations réglementaires avant d’être mis en marché;
  • des systèmes d’IA déterminés qui présentent un risque élevé de préjudice à la santé et à la sécurité ou aux droits fondamentaux des personnes (p. ex., des systèmes d’identification biométrique ou pour la gestion et l’exploitation d’infrastructures essentielles).
« Préjudice » désigne un (a) préjudice physique ou psychologique subi par un individu, (b) un dommage à ses biens ou (c) une perte économique subie par un individu.

« Incident grave » désigne tout incident qui entraîne directement ou indirectement, ou est susceptible d’avoir entraîné, ou encore est susceptible d’entraîner :

  • la mort d’une personne ou des dommages graves à sa santé, à ses biens ou à son environnement;
  • une perturbation grave et irréversible de la gestion et de l’exploitation d’infrastructures essentielles.
 Application
 LIAD Législation sur l’IA de l’UE 

La LIAD vise les « personnes » (notamment les fiducies, les sociétés de personnes, les coentreprises, les associations non dotées de la personnalité morale et toute autre entité juridique) qui exercent l’une des « activités réglementées » suivantes dans le cadre du commerce international ou interprovincial :

  • a) le traitement ou la mise à disposition pour utilisation de toute donnée relative aux activités humaines dans le but de concevoir, de développer ou d’utiliser un système d’IA;
  • b) la conception, le développement ou la mise à disposition d’un système d’IA ou la gestion de ses opérations.

La législation sur l’IA de l’UE s’applique aux :

  • « Fournisseurs » (notamment une personne physique ou morale, une autorité publique, une agence ou un autre organisme) de systèmes d’IA qui mettent sur le marché ou mettent en service de tels systèmes, que ces prestataires soient établis dans l’Union européenne ou dans un pays tiers;
  • utilisateurs de systèmes d’IA situés dans l’UE;
  • fournisseurs et utilisateurs de systèmes d’IA situés dans un pays tiers, lorsque les résultats générés par le système sont utilisés dans l’Union.
La législation sur l’IA de l’UE s’applique, que le système d’IA soit gratuit ou payant (bien que le système d’IA doive être mis en service dans le cadre d’une activité commerciale).

La LIAD ne s’applique pas :

  • aux institutions fédérales, au sens de l’article 3 de la Loi sur la protection des renseignements personnels fédérale;
  • aux produits, services ou activités qui relèvent de la compétence ou de l’autorité d’organismes fédéraux de sécurité déterminés, comme le ministre de la Défense nationale et le directeur du Service canadien du renseignement de sécurité.

La législation sur l’IA de l’UE ne s’applique pas :

  • aux systèmes d’IA mis au point ou utilisés exclusivement à des fins militaires;
  • aux autorités publiques étrangères ou aux organisations internationales qui utilisent des systèmes d’IA dans le cadre d’accords internationaux pour l’application de la loi et pour la coopération judiciaire avec l’UE ou les États membres de l’UE.
 Interdictions
 LIAD Législation sur l’IA de l’UE 

La LIAD ne prévoit pas d’interdiction pure et simple des systèmes d’IA présentant un niveau de risque inacceptable.

Toutefois, elle prévoit comme une infraction le fait de :

  • posséder ou utiliser des renseignements personnels aux fins de la création d’un système d’IA, si les renseignements personnels n’ont pas été obtenus légalement;
  • utiliser un système d’intelligence artificielle sachant qu’il pourrait vraisemblablement causer un préjudice – physique ou psychologique – sérieux à un individu, ou un dommage considérable à ses biens (ou ne se souciant pas de savoir si tel sera le cas), si un tel préjudice est subi;
  • rendre disponible un tel système avec l’intention de frauder le public et de causer une perte économique considérable à un individu, si une telle perte est subie.

La législation sur l’IA de l’UE interdit certaines pratiques en matière d’IA, de même que certains types de systèmes d’IA, notamment :

  • les systèmes visant à altérer le comportement d’un individu et qui sont susceptibles de lui causer des dommages physiques ou psychologiques en utilisant des techniques de manipulation subliminale ou des techniques exploitant ses vulnérabilités individuelles en fonction de son âge ou de ses capacités physiques ou mentales;
  • les systèmes de notation sociale utilisés par les autorités publiques, ou en leur nom, qui conduisent à un traitement injustifié, disproportionné ou dissocié, préjudiciable ou défavorable, de certaines personnes ou de certains groupes;
  • l’utilisation de systèmes d’IA pour l’identification biométrique « en temps réel » des individus dans des espaces accessibles au public à des fins d’application de la loi.[3]
 Utilisation des données
 LIAD Législation sur l’IA de l’UE 

Les personnes qui mettent à disposition des données anonymisées devant être utilisées dans des systèmes d’IA doivent établir des mesures (conformément à la réglementation future), concernant :

  • la manière dont ces données sont anonymisées;
  • l’utilisation ou la gestion des données anonymisées.

Les systèmes à risque élevé qui utilisent des jeux de données pour la formation, la validation et les essais doivent être soumis à des pratiques appropriées en matière de gouvernance et de gestion des données qui prennent en considération :

  • les choix relatifs à la conception, la collecte et l’utilisation des données;
  • la formulation d’hypothèses;
  • les évaluations de la disponibilité des données;
  • l’examen des biais éventuels et l’identification de toute lacune ou insuffisance possible des données.

Les jeux de données doivent :

  • être pertinents, exempts d’erreurs et complets;
  • tenir compte des caractéristiques ou éléments du cadre géographique, comportemental ou fonctionnel spécifique dans lequel le système d’IA est destiné à être utilisé;
  • inclure des catégories spéciales de données à caractère personnel uniquement si des mesures de protection appropriées sont en place.
 Exigences relatives aux systèmes d’IA
 LIAD Législation sur l’IA de l’UE 
Évaluation. Les personnes responsables d’un système d’IA doivent évaluer s’il s’agit d’un système à incidence élevée (conformément à la réglementation future).

Évaluation. La législation sur l’IA de l’UE préconise une approche graduelle :

  • les systèmes d’IA présentant un « risque inacceptable » sont interdits;
  • les systèmes d’IA présentant un risque élevé sont autorisés, sous réserve d’une évaluation de la conformité et d’exigences de conformité, y compris un système de certification;
  • les systèmes d’IA présentant des « risques liés à la transparence » sont autorisés, sous réserve des obligations de transparence;
  • les systèmes d’IA présentant « un risque minimal ou nul » sont autorisés sans restriction.
Gestion des risques. Les personnes responsables des « systèmes à incidence élevée » doivent :
  • établir des mesures (conformément à la réglementation future) pour cerner, évaluer et atténuer les risques de préjudice ou de résultats biaisés susceptibles de résulter de l’utilisation du système;
  • établir des mesures (conformément à la réglementation future) pour contrôler le respect de ces mesures d’atténuation.
Gestion des risques. Les systèmes à risque élevé doivent :
  • subir une procédure d’évaluation de la conformité et être enregistré avec une « déclaration de conformité » avant d’être mis en service;
  • inclure un système de gestion des risques permettant de cerner et d’évaluer les risques tout au long du cycle de vie du système;
  • disposer de fonctionnalités de journalisation automatique des événements;
  • être suffisamment transparents pour permettre aux utilisateurs d’interpréter et d’utiliser de manière appropriée les résultats du système;
  • être accompagnés d’instructions d’utilisation concises et claires qui incluent les informations pertinentes énoncées dans la législation sur l’IA de l’UE;
  • permettre une surveillance humaine efficace pour prévenir ou réduire au minimum les risques pour la santé, la sécurité ou les droits fondamentaux des individus;
  • atteindre un niveau approprié de fiabilité et de cybersécurité.

Transparence. Les personnes responsables des « systèmes à incidence élevée » doivent publier sur un site Web public une description en langage clair du système d’IA qui explique :

  • la manière dont le système est destiné à être utilisé;
  • les types de contenu qu’il est censé produire et les décisions, recommandations ou prédictions qu’il entend prendre;
  • les mesures d’atténuation établies à l’égard du système;
  • toute autre information requise au regard de la réglementation future. 

Transparence. Les systèmes d’IA qui interagissent avec les individus et présentent des risques liés à la transparence, comme ceux qui intègrent des systèmes de reconnaissance des émotions ou qui présentent des risques d’usurpation d’identité ou de fraude, sont soumis à des obligations de transparence supplémentaires.

Peu importe que le système soit considéré ou non comme un système à risque élevé, les utilisateurs doivent être avisés :

  • qu’ils interagissent avec un système d’IA, à moins que cela ne soit évident en raison des circonstances et du contexte d’utilisation;
  • qu’ils sont exposés à un système de reconnaissance des émotions, à un système de catégorisation biométrique, ou à un hypertrucage (c.-à-d., à des images ou des contenus audio ou vidéo générés ou manipulés par l’IA).
 Exigences en matière de tenue de dossiers et de rapports
 LIAD  Législation sur l’IA de l’UE

Les personnes responsables d’un système d’IA doivent tenir des registres (conformément à la réglementation future), lesquels décrivent :

  • les mesures qui ont été mises en place pour cibler, évaluer et atténuer les risques de préjudice ou de résultats biaisés qui pourraient découler de l’utilisation du système d’IA;
  • les motifs qui justifient l’évaluation qui a été faite du système comme étant ou non un système d’IA à l’incidence élevée.

Les systèmes d’IA à haut risque doivent :

  • inclure une documentation technique établie avant la mise en marché ou la mise en service; cette documentation doit, entre autres, démontrer la conformité du système à haut risque aux exigences énoncées dans la législation sur l’IA de l’UE;
  • être conçus et développés de manière à permettre l’enregistrement automatique des événements en cours de fonctionnement, conformément aux normes reconnues ou aux dispositions communes (des exigences plus contraignantes s’appliquent aux systèmes à risque élevé qui permettent l’identification et la catégorisation biométriques).
  • Les fournisseurs de systèmes d’IA à haut risque doivent :

  • élaborer un système de gestion de la qualité pour en assurer la conformité;
  • mettre en place un système de surveillance post-commercialisation pour contrôler les performances et la conformité des systèmes d’IA à haut risque tout au long de leur cycle de vie.
 Exigences en matière de déclaration
 LIAD  Législation sur l’IA de l’UE
Les personnes responsables d’un système d’IA à incidence élevée doivent informer le ministre de l’Industrie aussitôt que possible si l’utilisation du système entraîne ou est susceptible d’entraîner un préjudice important. Les fournisseurs de systèmes d’IA à haut risque doivent signaler tout incident grave ou tout dysfonctionnement qui constitue une violation de la législation sur l’IA de l’UE ou des obligations prévues par la législation de l’UE pour la protection des droits fondamentaux des individus.
 Autorité de contrôle et de surveillance
 LIAD Législation sur l’IA de l’UE 

Le ministre de l’Industrie peut désigner un cadre du ministère comme Commissaire à l’intelligence artificielle et aux données, lequel est chargé de l’appuyer dans l’exécution et le contrôle d’application de la LIAD. Le ministre peut déléguer au commissaire les attributions qui lui sont conférées sous le régime de la LIAD.

Le ministre de l’Industrie a les pouvoirs généraux suivants :

  • Sensibilisation du public. Sensibiliser le public à la LIAD et établir des recommandations ou des lignes directrices concernant le respect de celle-ci;
  • Collecte des registres. Ordonner la production des registres ou données qu’une personne est tenue de conserver en vertu de la LIAD (c.-à-d. sur l’évaluation du système, la gestion des risques, les mesures de surveillance et l’anonymisation des données).
  • Vérification. Ordonner une vérification relativement à une infraction possible à la LIAD et ordonner, le cas échéant, des mesures correctives ou préventives conformément aux constatations du rapport de vérification.
  • Cessation. Ordonner qu’une personne responsable d’un système à incidence élevée cesse de l’utiliser ou de le rendre disponible s’il y a des motifs raisonnables de croire que son utilisation entraîne un risque grave de préjudice imminent.

Le Conseil européen sur l’intelligence artificielle aidera la Commission européenne à formuler des orientations et à superviser l’application de la législation sur l’IA de l’UE. Chaque État membre désigne ou établit une autorité nationale de surveillance.

La Commission a les pouvoirs généraux suivants :

  • tenir à jour une base de données accessible au public sur les systèmes à haut risque;
  • superviser le processus d’évaluation de la conformité pour les systèmes à haut risque;
  • superviser les activités de surveillance du marché.
 Sanctions et infractions
 LIAD  Législation sur l’IA de l’UE

Les personnes qui commettent une « violation » de la LIAD ou de ses règlements peuvent être passibles de sanctions administratives pécuniaires, dont les détails seront établis en fonction de la réglementation future. Les sanctions administratives pécuniaires visent à promouvoir le respect de la LIAD.

Les infractions aux exigences de gouvernance et de transparence de la LIAD peuvent entraîner des amendes :

  • allant jusqu’à 10 M$ ou un montant égal à 3 % des recettes globales, ou, lorsque l’infraction est punissable par procédure sommaire, allant jusqu’à 5 M$ ou un montant égal à 2 % des recettes globales;
  • dans le cas des individus, un montant dont le montant est fixé par le tribunal, jusqu’à concurrence de 50 000 $.

Les personnes qui commettent des infractions criminelles plus graves (p. ex., en contrevenant aux interdictions susmentionnées ou en faisant obstruction, ou en fournissant des renseignements faux ou trompeurs pendant une vérification ou une enquête) peuvent être passibles :

  • d’une amende maximale de 25 M$ ou équivalant à 5 % des recettes globales;
  • d’une amende dont le montant est fixé par le tribunal, dans le cas des individus. 

Les sanctions prévues par la législation sur l’IA de l’UE comprennent :

  • un montant allant jusqu’à 6 % du chiffre d’affaires annuel global, ou 30 000 EUR dans le cas d’un individu, pour s’être livré à des pratiques interdites ou pour ne pas avoir respecté les exigences en matière de gouvernance des données;
  • un montant allant jusqu’à 4 % du chiffre d’affaires annuel global, soit 20 000 EUR dans le cas d’un individu, pour toute autre violation de la loi;
  • des amendes supplémentaires applicables aux institutions, organismes et organismes de l’UE.
Chaque État membre peut prévoir des sanctions supplémentaires en cas d’infraction à la législation sur l’IA de l’UE.

Principales comparaisons entre la LIAD et la législation sur l’IA de l’UE

Définition de l’IA

Bien que les deux lois définissent les systèmes d’IA de façon relativement large, la définition donnée dans la LIAD est plus précise. La LIAD ne vise que les technologies qui traitent les données de manière autonome ou partiellement autonome, tandis que la législation sur l’IA de l’UE ne fait mention d’aucun degré d’autonomie. Cette distinction observée dans la LIAD est sans doute une divergence bienvenue par rapport à la législation sur l’IA de l’UE, qui, telle qu’elle est actuellement rédigée, semble inclure même les technologies relativement inoffensives, comme l’utilisation d’une formule statistique pour produire un résultat. Cela étant dit, il semble que la définition actuelle incluse dans la législation sur l’IA de l’UE pourrait être modifiée avant la publication de sa version finale, et qu’elle sera probablement accompagnée de directives sur l’application de la réglementation pour plus de clarté.[4]

Évaluation et gestion des risques

Les deux lois visent à éviter le préjudice, un concept qu’ils définissent de la même façon. La législation sur l’IA de l’UE en fait toutefois une définition un peu plus large, dans la mesure où elle considère que les perturbations graves des infrastructures essentielles constituent un « préjudice », alors que la LIAD ne s’intéresse qu’aux dommages subis par les individus.

En vertu de la LIAD, les « systèmes à incidence élevée » seront définis dans la réglementation future, de sorte qu’il n’est pas encore possible de comparer la définition de « systèmes à incidence élevée » de la LIAD par rapport à la définition de « systèmes à haut risque » donnée dans la législation sur l’IA de l’UE. La législation sur l’IA de l’UE identifie deux catégories de « systèmes à haut risque ». La première catégorie comprend les systèmes d’IA destinés à être utilisés comme composants de sécurité de produits, ou comme produits eux-mêmes. La deuxième catégorie comprend certains systèmes d’IA, énumérés dans une annexe de la loi, qui présentent un risque pour la santé, la sécurité ou les droits fondamentaux des individus. Il reste à voir comment le Canada définirait les « systèmes à incidence élevée », mais la législation sur l’IA de l’UE donne une indication sur l’orientation que le gouvernement fédéral pourrait prendre.

De la même façon, la LIAD s’en remet aux futures réglementations quant à l’évaluation des risques, tandis que la législation sur l’IA de l’UE prévoit d’ores et déjà une approche graduelle du risque dans le corpus de la loi. En vertu de la législation sur l’IA de l’UE, les systèmes présentant un niveau de risque inacceptable sont carrément interdits. En particulier, la législation sur l’IA de l’UE interdit de manière explicite : (i) les systèmes manipulateurs ou exploiteurs des individus et qui sont susceptibles de causer des préjudices, (ii) les systèmes d’identification biométriques « en temps réel » utilisés dans les espaces publics par les forces de l’État chargées de l’application de la loi, et (iii) toutes les formes de notation sociale. Les systèmes d’IA présentant un risque faible ou minimal sont largement exemptés de la réglementation, à l’exception des exigences de transparence.

En comparaison, la LIAD impose uniquement des exigences de transparence aux systèmes d’IA à incidence élevée et ne prévoit pas d’interdiction pure et simple des systèmes d’IA présentant un niveau de risque inacceptable. Elle donne toutefois au ministre de l’Industrie le pouvoir d’ordonner qu’un système à incidence élevée présentant un risque sérieux de préjudice imminent cesse d’être utilisé.

Application et portée

L’application de la LIAD est limitée par les contraintes émanant de la compétence fédérale. La LIAD s’applique en général aux acteurs de toute la chaîne d’approvisionnement de l’IA, de la conception à la livraison, mais seulement dans la mesure où leurs activités se rapportent au commerce international ou interprovincial. La LIAD ne s’applique pas expressément au développement et à l’utilisation des systèmes d’IA à l’intérieur des provinces. Les institutions fédérales (au sens de la Loi sur la protection des renseignements personnels fédérale) sont exclues de la portée de la LIAD, tout comme les produits, les services et les activités qui sont sous la direction ou le contrôle d’organismes fédéraux de sécurité déterminés.

En revanche, la législation sur l’IA de l’UE s’applique spécifiquement aux prestataires (bien que cela puisse être interprété de manière large) et aux utilisateurs de systèmes d’IA, incluant les institutions gouvernementales, mais excluant des systèmes d’IA exclusivement développés à des fins militaires. La législation sur l’IA de l’UE s’applique aussi expressément aux fournisseurs et aux utilisateurs de systèmes d’IA, dans la mesure où les résultats produits par ces systèmes sont utilisés dans l’Union européenne.

Gouvernance des données

La LIAD est largement dépourvue d’exigences en matière de gouvernance des données. Dans sa forme actuelle, elle impose uniquement des exigences relatives à l’utilisation de données anonymes dans les systèmes d’IA, dont la plupart seront élaborées dans la réglementation future. Les exigences relatives à la gouvernance des données de la LIAD s’appliqueront aux données anonymisées utilisées pour la conception, le développement ou l’utilisation de tout système d’IA, alors que les exigences de gouvernance des données de la législation sur l’IA de l’UE ne s’appliqueront qu’aux systèmes à incidence élevée.

La législation sur l’IA de l’UE impose quant à elle des exigences très strictes en matière de gouvernance des données. Elle exige que les jeux de données concernant la formation, la validation et de contrôle soient exempts d’erreurs et complets. En réponse aux critiques selon lesquelles cette disposition serait trop stricte, le Parlement européen a introduit un amendement à la loi qui propose de faire des jeux de données « exempts d’erreurs » et « complets » un objectif global, dans la mesure du possible, plutôt qu’une exigence précise.

Autres obligations

Alors que la LIAD et la législation sur l’IA de l’UE énoncent toutes deux certaines exigences en matière d’évaluation, de surveillance, de transparence et de gouvernance des données, la législation sur l’IA de l’UE impose un fardeau beaucoup plus lourd aux responsables des systèmes d’IA à haut risque. Par exemple, en vertu de la LIAD, les personnes responsables de ces systèmes devront mettre en place des mesures d’atténuation, de surveillance et de transparence, alors que la législation sur l’IA de l’UE va plus loin en soumettant les systèmes d’IA à haut risque à un système de certification, qui exige que l’entité responsable procède à une évaluation de la conformité et élabore une « déclaration de conformité » avant que le système ne soit mis en service.

Les deux lois imposent aussi des exigences en matière de tenue de dossiers. Encore une fois, la législation sur l’IA de l’UE est plus contraignante, mais contrairement à la LIAD, ses exigences ne s’appliqueront qu’aux systèmes à haut risque, alors que les exigences en matière de tenue de dossiers de la LIAD s’appliqueraient à tous les systèmes d’IA.

Enfin, les deux lois prévoient des exigences en matière de déclaration qui se limitent aux systèmes à incidence élevée (LIAD) et à haut risque (législation sur l’IA de l’UE). La LIAD impose un fardeau un peu plus lourd aux entités responsables, lequel exige la déclaration de toutes les utilisations susceptibles d’entraîner des dommages matériels, alors que la législation sur l’IA de l’UE n’exige une déclaration que si un incident grave ou un dysfonctionnement s’est produit.

Exécution et sanctions

La LIAD et la législation sur l’IA de l’UE prévoient la création d’une nouvelle autorité de surveillance pour aider à l’administration et à l’application de la réglementation. Les pouvoirs qui lui seront conférés en vertu de ces deux lois sont similaires.

Les deux lois prévoient des sanctions importantes advenant une violation de leurs dispositions. Les sanctions prévues par la LIAD pour les infractions les plus graves – jusqu’à concurrence de 25 millions de dollars canadiens, ou 5 % des recettes globales brutes de l’organisation au cours de son exercice précédent – sont nettement plus élevées que celles prévues dans la nouvelle loi sur la protection des renseignements personnels du Québec ou dans le Règlement général sur la protection des données (le « RGPD ») de l’UE. La sanction la plus sévère prévue par la législation sur l’IA de l’UE est supérieure à la peine la plus sévère du RGPD et de la LIAD : elle impose une amende allant jusqu’à 30 millions d’euros, ou 6 % des recettes globales brutes de l’exercice précédent, pour le non-respect des dispositions relatives aux pratiques interdites d’IA ou des exigences de qualité établies pour les systèmes d’IA à haut risque.

Contrairement à la législation sur l’IA de l’UE, la LIAD introduit également de nouvelles infractions pénales pour les infractions les plus graves commises en vertu de la loi.

Enfin, la législation sur l’IA de l’UE accorderait également aux États membres le pouvoir discrétionnaire de fixer des sanctions supplémentaires en cas d’infraction à la loi.

Points à retenir et étapes suivantes

Bien que la LIAD et la législation sur l’IA de l’UE présentent de grandes similitudes, il est impossible de prédire avec certitude à quel point elles pourraient éventuellement être similaires, étant donné que la LIAD serait en grande partie élaborée dans le cadre d’une réglementation future. De plus, au moment de la rédaction de ce bulletin, le projet de loi C-27 n’avait franchi que l’étape de la première lecture, et il est probable qu’il fera l’objet d’amendements au fur et à mesure qu’il franchira les étapes du processus parlementaire.

Par ailleurs, on ne sait toujours pas quelle influence la législation sur l’IA de l’UE aura sur la réglementation de l’IA à l’échelle mondiale, y compris au Canada. Les organismes de réglementation du Canada et de l’Union européenne pourraient aspirer à un certain degré de cohérence. En effet, beaucoup ont comparé la législation sur l’IA de l’UE au RGPD, dans la mesure où elle pourrait instituer l’établissement de normes internationales pour la réglementation de l’IA, comme l’a fait le RGPD pour la législation sur la protection des renseignements personnels.

Quel que soit le sort réservé à la LIAD et à la législation sur l’IA de l’UE, les organisations sont appelées à réfléchir à la manière dont elles prévoient de répondre à une future vague de réglementation concernant l’IA.

Pour en savoir plus sur les répercussions possibles du nouveau projet de loi C-27, Loi de 2022 sur la mise en œuvre de la Charte du numérique, consultez notre bulletin (Deuxième tentative du gouvernement du Canada en vue de réformer en profondeur la législation fédérale en matière de protection des renseignements personnels) à ce sujet. 


[1] Il y a eu un certain nombre de changements récents dans la réglementation sur l’IA, notamment la norme Algorithmic Transparency Standard du Royaume-Uni, le projet de règlement chinois sur les systèmes de recommandation algorithmique dans les services en ligne, l’Algorithmic Accountability Act of 2022 des États-Unis sur la responsabilité algorithmique, et le projet collaboratif entre Santé Canada, la FDA et l’United Kingdom’s Medicines and Healthcare Products Regulatory Agency pour publier des Principes directeurs sur les bonnes pratiques d’apprentissage machine pour le développement des instruments médicaux.

[2] Dans la sphère publique, la Directive sur la prise de décisions automatisée réglemente l’utilisation par le gouvernement fédéral des systèmes de décision automatisés.

[3] Cette interdiction fait l’objet de trois exceptions soigneusement énumérées et précisément définies, lorsque l’utilisation de tels systèmes d’IA est strictement nécessaire à la réalisation d’un intérêt public substantiel, dont l’importance l’emporte sur les risques : (1) la recherche de victimes potentielles de la criminalité, y compris d’enfants disparus; (2) certaines menaces à la vie ou à la sécurité physique d’individus, ou une attaque de nature terroriste; (3) la détection, la localisation, l’identification ou la poursuite des auteurs ou suspects de certaines infractions criminelles particulièrement répréhensibles.

[4] En prévision de changements potentiels, la présidence slovène du Conseil de l’Union européenne a déposé en novembre 2021 une proposition d’amendement à apporter à la loi, qui limiterait effectivement la portée de la réglementation à l’apprentissage machine.

 

Contactez les auteurs

Pour en savoir plus, communiquez avec notre groupe Protection des renseignements confidentiels, vie privée et cybersécurité, ou notre groupe Technologies, médias et télécommunications.

Contactez les auteurs

Auteurs

  • Christopher Ferguson, Associé, Toronto, ON, +1 416 865 4425, cferguson@fasken.com
  • Heather Whiteside, Avocate, Toronto, ON, +1 416 865 5476, hwhiteside@fasken.com

    Abonnement

    Recevez des mises à jour de notre équipe

    S'inscrire