Législation sur l’intelligence artificielle  
2021/0106(COD) - 21/04/2021  

OBJECTIF : établir un cadre juridique uniforme pour le développement, la commercialisation et l'utilisation de l'intelligence artificielle (IA), conformément aux valeurs de l'UE (loi sur l'intelligence artificielle).

ACTE PROPOSÉ : Règlement du Parlement européen et du Conseil.

RÔLE DU PARLEMENT EUROPÉEN : le Parlement européen décide conformément à la procédure législative ordinaire et sur un pied d'égalité avec le Conseil.

CONTEXTE : face au développement technologique rapide de l'intelligence artificielle (IA) et dans un contexte politique mondial où de plus en plus de pays investissent massivement dans l'IA, l'UE doit agir de concert pour relever les défis de l'IA. Il est dans l’intérêt de l’Union d’être un leader mondial dans le développement d’une intelligence artificielle centrée sur l'humain, durable, sûre, éthique et digne de confiance.

Certains États membres ont déjà envisagé l'adoption de règles nationales pour garantir que l'intelligence artificielle est sûre et qu'elle est développée et utilisée dans le respect des obligations en matière de droits fondamentaux. Des règles nationales différentes peuvent entraîner une fragmentation du marché intérieur et diminuer la sécurité juridique pour les opérateurs qui développent ou utilisent des systèmes d'IA.

Dans le prolongement du Livre blanc sur l’IA - «Une approche européenne de l’excellence et de la confiance», la proposition législative vise à établir un cadre juridique garantissant un niveau de protection élevé et cohérent dans l'ensemble de l'UE.

La résolution du Parlement européen sur un cadre d’aspects éthiques de l’intelligence artificielle, de la robotique et des technologies connexes recommande expressément à la Commission de proposer des mesures législatives pour exploiter les opportunités et les avantages de l’IA, mais aussi pour assurer la protection des principes éthiques.

CONTENU : le cadre réglementaire sur l'intelligence artificielle (IA) proposé par la Commission poursuit les objectifs suivants :

- garantir que les systèmes d'IA mis sur le marché de l'Union et utilisés sont sûrs et respectent le droit existant en matière de droits fondamentaux et les valeurs de l'Union;

- assurer la sécurité juridique pour faciliter l'investissement et l'innovation dans l'IA;

- renforcer la gouvernance et l'application effective de la législation existante sur les droits fondamentaux et les exigences de sécurité applicables aux systèmes d'IA;

- faciliter le développement d'un marché unique pour les applications d'IA légales, sûres et dignes de confiance et prévenir la fragmentation du marché.

Afin d'atteindre ces objectifs, la proposition prévoit ce qui suit :

1) Une approche harmonisée fondée sur le risque

La proposition fixe des règles harmonisées pour le développement, la mise sur le marché et l'utilisation des systèmes d'IA dans l'Union selon une approche proportionnelle fondée sur le risque. Elle propose une définition unique et à l’épreuve du temps de l'IA.

L'approche fondée sur le risque établit une distinction entre les utilisations de l'IA qui créent :

Un risque inacceptable

Les systèmes d'IA considérés comme une menace manifeste pour la sécurité, les moyens de subsistance et les droits des personnes seraient interdits. Il s'agit notamment des systèmes ou applications d'IA qui manipulent le comportement humain pour contourner le libre arbitre des utilisateurs (par exemple, les jouets utilisant l'assistance vocale qui encouragent le comportement dangereux des mineurs) et des systèmes qui permettent la notation sociale par les gouvernements.

Des restrictions et des garanties spécifiques sont proposées en ce qui concerne certaines utilisations de systèmes d'identification biométrique à distance à des fins répressives.

Un risque élevé

Les systèmes d'IA identifiés comme étant à haut risque comprennent les technologies d'IA utilisées, entre autres, dans les domaines suivants

- les infrastructures critiques (par exemple, les transports), qui pourraient mettre en danger la vie et la santé des citoyens;

- l'éducation ou la formation professionnelle, qui peuvent déterminer l'accès à l'éducation et le parcours professionnel d'une personne (par exemple, la notation des examens) ;

- les composants de sécurité des produits (par exemple, l'application de l'IA dans la chirurgie assistée par robot) ;

- l'application de la loi qui peut interférer avec les droits fondamentaux des personnes (par exemple, la vérification de la fiabilité des éléments de preuve);

- la gestion des migrations, de l'asile et des contrôles aux frontières (par exemple, la vérification de l'authenticité des documents de voyage).

La proposition énonce les exigences légales relatives aux systèmes d’IA à haut risque en ce qui concerne la qualité élevée des ensembles de données alimentant le système, la documentation et la tenue d’enregistrements pour garantir la traçabilité des résultats, la transparence et la fourniture d’informations aux utilisateurs, le contrôle humain, la robustesse, l’exactitude et la sécurité.

Un risque limité ou faible

La proposition permet la libre utilisation d'applications telles que les jeux vidéo ou les filtres anti-spam utilisant l'IA. La grande majorité des systèmes d'IA entrent dans cette catégorie. Le projet de règlement n'intervient pas dans ce cas, car ces systèmes d'IA ne représentent qu'un risque minime ou nul pour les droits ou la sécurité des citoyens.

2) Gouvernance

La Commission propose que les autorités nationales compétentes en matière de surveillance du marché supervisent les nouvelles règles, tandis que la création d'un conseil européen de l'intelligence artificielle facilitera leur mise en œuvre, ainsi que l'élaboration de normes pour l'IA. En outre, des codes de conduite volontaires sont proposés pour l'IA ne présentant pas de risque élevé, ainsi que des «bacs à sable réglementaires» pour faciliter l'innovation responsable.

3) Suivi et surveillance du marché

La Commission serait chargée de surveiller les effets de la proposition. Elle mettrait en place un système d'enregistrement des applications autonomes d'IA à haut risque dans une base de données publique à l'échelle de l'UE. Cet enregistrement permettrait également aux autorités compétentes, aux utilisateurs et aux autres personnes intéressées de vérifier si le système d'IA à haut risque est conforme aux exigences énoncées dans la proposition et d'exercer une surveillance renforcée sur les systèmes d'IA présentant des risques élevés pour les droits fondamentaux.

En outre, les fournisseurs d'IA seraient tenus d'informer les autorités nationales compétentes des incidents graves ou des dysfonctionnements qui constituent une violation des obligations en matière de droits fondamentaux dès qu'ils en ont connaissance, ainsi que de tout rappel ou retrait de systèmes d'IA du marché.

La Commission publierait un rapport d'évaluation et de révision du cadre proposé pour l'IA cinq ans après la date à laquelle il sera applicable.

4) Implications budgétaires

Les États membres devront désigner des autorités de surveillance chargées de mettre en œuvre les exigences législatives. Leur fonction de surveillance pourrait s'appuyer sur les dispositions existantes, par exemple en ce qui concerne les organismes d'évaluation de la conformité ou la surveillance du marché, mais elle nécessitera une expertise technologique et des ressources humaines et financières suffisantes.