Publication 1 septembre 2021
Législation européenne sur l’intelligence artificielle
Un problème de lisibilité et d’adaptabilité de la réglementation
Deux éléments méritent une attention particulière :
- la définition juridique des systèmes d’intelligence artificielle (IA) : est-elle adaptée à la réalité et à l’évolutivité de ces systèmes ?
- les mécanismes de classification des systèmes considérés à « haut risque» : le texte proposé par la Commission européenne prévoit une classification pyramidale des systèmes d’IA, fondée sur une approche par le risque. Il apparaît nécessaire de clarifier ces critères et les exceptions du projet de règlement (notation sociale, techniques d’identification biométrique en temps réel, etc.).
À ce titre, il serait par ailleurs opportun d’intégrer les parties prenantes pertinentes dans les procédures de révision de la législation.
La logique de gouvernance multipartite doit être renforcée
Telle que rédigée, la proposition permet aux États membres une certaine latitude pour la désignation des autorités nationales qui seront chargées de contrôler l’application du règlement. Cependant, permettre une meilleure harmonisation dans la mise en œuvre du règlement au sein de l’Union européenne serait souhaitable. En outre, il conviendra de s’assurer de la capacité des autorités désignées à assurer ces missions. Ces problèmes liés à l’harmonisation de la mise en œuvre de la réglementation européenne ont, en effet, déjà été illustrés lors de l’entrée en vigueur du règlement général sur la protection des données (RGPD).
Les rôles respectifs de l’European Artificial Intelligence Board (EAIB, créé par le texte), des États membres et de la Commission européenne devraient aussi être précisés. À ce jour, le texte semble introduire plusieurs systèmes de gouvernance parallèles, sans qu’un mécanisme permette une communication claire entre eux. Enfin, il sera nécessaire d’accorder davantage d’autonomie à l’EAIB, afin de garantir son indépendance vis-à-vis de la Commission européenne.
L’AI Act pose des défis d’application
L’évaluation des systèmes d’IA repose encore sur de nombreuses inconnues. Au vu de leur diversité et de leurs usages, il est parfois difficile de déterminer le champ d’analyse pertinent. À ce stade, certains concepts présentés dans le projet de règlement ne font pas l’objet d’une méthodologie d’évaluation, ou d’une définition arrêtée. Ces difficultés d’interprétation devront être résolues afin que les acteurs concernés soient en capacité d’appréhender ces concepts dans leur processus d’évaluation.
Au regard de ces défis d’interprétation et dans la lignée du renforcement de son rôle au sein de la gouvernance, l’EAIB devrait être chargé d’établir des recommandations concrètes en concertation avec des groupes d’experts, les différentes parties prenantes et les acteurs de l’écosystème européen de l’intelligence artificielle.
Les bacs à sable réglementaires : un levier d’innovation sur lesquels l’Union européenne devrait porter une ambition forte
La proposition de la Commission européenne se fonde sur l’idée qu’un cadre réglementaire stable et clair permettrait de développer le marché de l’IA au sein de l’Union européenne. Or, le cadre demeure complexe et sans doute sera-t-il insuffisant pour constituer à lui seul un mécanisme incitatif de nature à faire naître un marché.
Ainsi, les bacs à sable règlementaires constituent le pendant « innovation » de ce texte. Toutefois, afin qu’ils puissent fonctionner et être un véritable levier pour l’innovation, il apparaît primordial de bâtir une approche harmonisée entre les autorités compétentes nationales, et que ces autorités disposent de moyens humains, techniques et financiers suffisants pour les mettre en œuvre.
Dans cette perspective, le fonctionnement de ces bacs à sable devrait être collégialement débattu entre la Commission européenne, l’EAIB, les autorités nationales compétentes, les groupes d’experts et les représentants de l’industrie et de la société civile impliqués. À l’heure actuelle, leur fonctionnement varie d’un État membre à l’autre. Du reste, ils constituent le plus souvent une opportunité pour les autorités de protection des données d’éprouver certains enjeux de conformité, plutôt que de véritables cadres d’expérimentation à des fins d’ouverture à l’innovation.
Sur le même sujet
-
Publication 29 mars 2021
Digital Markets Act : Révolution ou contradiction juridique ?