Passer au contenu principal
Bulletin

Feuille de route pour la réglementation de l’IA au Canada : principaux points à retenir du document complémentaire de l’ISDE accompagnant la Loi sur l’intelligence artificielle et les données

Fasken
Temps de lecture 11 minutes
S'inscrire
Partager

Aperçu

Bulletin Protection des renseignements confidentiels, vie privée et cybersécurité

Innovation, Sciences et Développement économique Canada (l’« ISDE ») a récemment publié un document complémentaire relatif à la Loi sur l’intelligence artificielle et les données (la « LIAD ») proposée par le gouvernement du Canada. La LIAD est actuellement à l’étude au Parlement dans le cadre du projet de loi C-27, qui en est à l’étape de la deuxième lecture à la Chambre des communes (consultez notre résumé du projet de loi C-27).

Le document complémentaire présente une feuille de route législative et un échéancier de consultation pour que les intervenants puissent donner leur avis sur la réglementation de la LIAD. Il donne un aperçu des intentions du gouvernement en matière de réglementation aux organisations qui interviennent ou qui pourraient intervenir dans l’industrie de l’intelligence artificielle (« IA ») ou qui utilisent des systèmes d’IA et décrit le processus de consultation visant à permettre aux intervenants de participer à l’élaboration des règlements en vertu de la LIAD.

Fondement de la LIAD

Le document complémentaire vise à rassurer les intervenants de l’industrie de l’IA sur les intentions du gouvernement en matière de réglementation de deux façons principales. Tout d’abord, le document indique que le gouvernement reconnaît les préoccupations du public quant aux risques et aux préjudices potentiels liés à l’IA pour la société et, par conséquent, il vise à rassurer le public en l’informant que le gouvernement a un plan pour traiter l’incidence de l’IA. Ensuite, il reconnaît que les acteurs de l’industrie de l’IA sont préoccupés par l’incertitude réglementaire et l’incidence éventuelle des lois en cours d’élaboration sur les progrès de l’IA, et vise donc à rassurer ces acteurs en leur indiquant l’intention du gouvernement de rendre le cadre de la LIAD agile et capable de s’adapter selon l’évolution de la technologie.

Processus de consultation et échéancier

Les effets de la LIAD, notamment son champ d’application et ses principales exigences, seraient en grande partie précisés dans sa réglementation.

À la suite de la sanction royale du projet de loi C-27, le gouvernement prévoit entreprendre un processus de consultation et d’élaboration des règlements de la LIAD d’une durée de deux ans. L’échéancier prévu pour l’élaboration des règlements initiaux est le suivant :

  • consultation sur la réglementation (6 mois)
  • élaboration de projets de règlements (12 mois)
  • consultation sur les projets de règlements (3 mois)
  • entrée en vigueur du premier ensemble de règlements (3 mois)

Au cours des phases de consultation, le gouvernement entend collaborer avec l’industrie, le milieu universitaire, la société civile et les communautés canadiennes et solliciter leurs commentaires. Les intervenants auront l’occasion de formuler des commentaires sur des sujets tels que : 

  • la détermination des types de systèmes qui devraient être considérés comme ayant une incidence élevée et réglementés à ce titre;
  • les types de normes et de certifications qui devraient s’appliquer aux systèmes d’IA à incidence élevée;
  • les mécanismes d’application de la loi, comme un régime de sanctions administratives pécuniaires;
  • le rôle du commissaire à l’intelligence artificielle et aux données;
  • la mise sur pied d’un comité consultatif.

La LIAD prévoit également la mise en place de futurs règlements qui pourraient apporter des précisions sur ses exigences, notamment en ce qui concerne l’anonymisation des données utilisées dans les systèmes d’IA et les exigences de déclaration dans l’éventualité où un système d’IA causerait un « préjudice important ». Dans le cadre du processus d’élaboration de la réglementation, les groupes et les personnes qui le souhaitent pourront formuler des commentaires sur ces sujets.

Principe directeur de la LIAD : mettre l’accent sur les systèmes à incidence élevée

Le document complémentaire résume la façon dont la LIAD réglementerait la conception, le développement et l’utilisation des systèmes d’IA, en mettant l’accent sur l’atténuation des risques de préjudice et de biais dans l’utilisation de systèmes d’IA « à incidence élevée ». Parmi les « considérations importantes » à examiner pour déterminer les systèmes d’IA à incidence élevée, le gouvernement retient les éléments suivants :

  • des preuves de l’existence de risques de préjudices physiques ou psychologiques ou de risques d’atteinte aux droits de la personne;
  • la gravité des préjudices éventuels;
  • l’ampleur de l’utilisation;
  • la possibilité de se retirer du système;
  • la mesure dans laquelle les risques sont réglementés en vertu d’autres lois.

Le document complémentaire donne des exemples des types de technologies qui présentent un intérêt pour le gouvernement en raison de leur impact potentiel : les systèmes de présélection qui ont une incidence sur l’accès aux services ou à l’emploi, les systèmes biométriques utilisés pour l’identification et l’inférence, les applications comme les systèmes de recommandation de contenu en ligne alimentés par l’IA, et les applications qui prennent des décisions cruciales selon l’information recueillie à partir de capteurs, comme les systèmes de conduite autonome ou les technologies du secteur de la santé utilisées pour le triage.

En revanche, les logiciels libres (open source) ou les systèmes d’IA en libre accès sont des technologies qui pourraient ne pas entrer dans le champ d’application de la LIAD. Par exemple, lorsqu’un chercheur met à disposition un modèle ou un outil à code source ouvert qui pourrait permettre à d’autres personnes de développer des systèmes d’IA, le modèle ou l’outil ne constitue pas un système d’IA complet. Dans ce scénario, la distribution du logiciel libre ne correspond pas à la définition de l’expression « rendre le système disponible » en vertu de la LIAD.

Le document complémentaire rappelle que les obligations liées aux systèmes d’IA à incidence élevée seraient définies dans les règlements à venir, mais il apporte quelques éclaircissements sur les grands principes qui les régiront. S’alignant sur les normes internationales en matière de gouvernance des systèmes d’IA1, les principes comprennent une supervision et une surveillance importantes assurées par des êtres humains, la transparence et la responsabilité, la justice et l’équité, la sécurité, ainsi que la validité et la robustesse des systèmes.

Le document complémentaire fournit également une série d’exemples pour clarifier la portée des types d’activités qui seraient réglementées par la LIAD et précise, entre autres, que la recherche et le développement de méthodologies ne feraient pas partie des « activités réglementées ». 

Surveillance et application de la loi

Le document complémentaire fournit des détails sur la nature et la progression des mesures d’application de la loi en vertu de la LIAD. L’objectif immédiat du gouvernement en matière d’application de la loi serait d’établir des lignes directrices et d’éclairer les entreprises afin de les aider à se conformer à la loi au cours des « premières années suivant son entrée en vigueur ». L’industrie aurait le temps de s’adapter au nouveau cadre avant de devoir faire face au risque de pénalités et de sanctions.

Le ministre de l’Innovation, des Sciences et de l’Industrie serait responsable de l’application de toutes les parties de la LIAD qui ne prévoient pas d’infractions réglementaires ou criminelles passibles de poursuites. Il bénéficierait de l’appui du nouveau commissaire à l’intelligence artificielle et aux données dans l’exercice de ces responsabilités et disposerait de pouvoirs de surveillance importants lui permettant d’ordonner la cessation de l’utilisation d’un système en cas de risque de préjudice imminent.

Le document complémentaire décrit comment les trois mécanismes d’application de la LIAD seraient utilisés :

  1. Des sanctions administratives pécuniaires pourraient être imposées dans le cas de violations manifestes où d’autres tentatives visant à encourager la conformité ont échoué. Les violations donnant lieu à des sanctions administratives pécuniaires et le montant de celles-ci ne seront pas connus avant d’être fixés par règlement.
  2. Les cas plus graves de non-respect des obligations en vertu de la LIAD pourraient faire l’objet de poursuites à titre d’infractions réglementaires et donner lieu à des amendes importantes.
  3. Les véritables infractions criminelles seraient appliquées pour sanctionner les activités liées à l’IA qui ne sont pas autrement passibles de poursuites en vertu du Code criminel et qui sont commises par une personne consciente du préjudice qu’elle cause ou qu’elle risque de causer.

Points à retenir et étapes suivantes

Au moment de la rédaction de ce bulletin, le projet de loi C-27 était à l’étape de la deuxième lecture, mais il n’avait pas encore été soumis au comité. Il est probable qu’il fera l’objet d’amendements au fur et à mesure qu’il franchira les étapes du processus parlementaire.

Même si la LIAD est adoptée, le document complémentaire indique qu’il faudra attendre au moins 2025 avant que les règlements soient élaborés et que la loi entre en vigueur. Ce délai est proportionnel à la quantité de travail à accomplir pour élaborer les règlements et recueillir les commentaires des intervenants dans un contexte en constante évolution. Comme les systèmes d’IA occupent une place prépondérante dans de nombreux pans de l’économie canadienne et qu’une grande partie du contenu de la LIAD telle qu’elle est proposée n’a pas encore été rédigée, le processus de consultation et de réglementation décrit dans le document complémentaire pourrait avoir une incidence importante sur l’innovation au Canada et sur sa compétitivité dans le domaine des technologies de l’IA.

 


1 Voir notre bulletin précédent sur le cadre de gestion des risques liés à l’intelligence artificielle publié par le NIST.

Contactez les auteurs

Pour plus d'informations ou pour discuter d'un sujet, veuillez nous contacter.

Contactez les auteurs

Auteurs

  • Christopher Ferguson, Associé, Toronto, ON, +1 416 865 4425, cferguson@fasken.com
  • Heather Whiteside, Avocate, Toronto, ON, +1 416 865 5476, hwhiteside@fasken.com
  • Summer Lewis, Avocate, Toronto, ON, +1 416 865 5490, slewis@fasken.com
  • Paul Burbank, Avocat, Toronto, ON | Ottawa, ON, +1 416 865 4427, pburbank@fasken.com

    Abonnement

    Recevez des mises à jour de notre équipe

    S'inscrire