Législation sur l’intelligence artificielle

2021/0106(COD)

OBJECTIF : améliorer le fonctionnement du marché intérieur et promouvoir l’adoption d’une intelligence artificielle (IA) axée sur l’humain et digne de confiance tout en garantissant un niveau élevé de protection de la santé, de la sécurité et des droits fondamentaux, y compris la démocratie, l’état de droit et la protection de l’environnement, contre les effets néfastes des systèmes d’IA dans l’Union, et en soutenant l’innovation.

ACTE LÉGISLATIF : Règlement (UE) 2024/1689 du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 (règlement sur l’intelligence artificielle).

CONTENU : le règlement sur l’IA vise à favoriser le développement et l'adoption, par les acteurs tant privés que publics, de systèmes d'IA sûrs et dignes de confiance dans l'ensemble du marché unique de l'UE. Dans le même temps, elle a pour but de garantir le respect des droits fondamentaux des citoyens de l'UE et de stimuler l'investissement et l'innovation dans le domaine de l'intelligence artificielle en Europe.

La législation sur l'IA ne s'applique qu'aux domaines couverts par le droit de l'UE et prévoit des exemptions, par exemple pour les systèmes utilisés exclusivement à des fins militaires et de défense, ainsi qu'à des fins de recherche.

Pratiques interdites en matière d’IA

La législation suit une approche fondée sur les risques, ce qui signifie que plus le risque de nuire à la société est élevé, plus les règles sont strictes. La législation classe les différents types d'intelligence artificielle en fonction des risques. Les systèmes d'IA ne présentant qu'un risque limité seront soumis à des obligations de transparence très légères, tandis que les systèmes d'IA à haut risque seront autorisés, mais soumis à une série d'exigences et d'obligations pour accéder au marché de l'UE.

Les nouvelles règles interdisent certaines applications fondées sur l’IA telles que :

- les systèmes qui ont recours à la manipulation comportementale coginitive;

- les systèmes qui exploitent les éventuelles vulnérabilités dues à l'âge, au handicap ou à la situation sociale ou économique spécifique d'une personne;

- les systèmes qui sont utilisés pour la notation sociale;

- l'utilisation de l'IA à des fins de police prédictive fondée sur le profilage;

- les systèmes qui utilisent des données biométriques pour classer les individus selon des catégories spécifiques telles que la race, la religion ou l'orientation sexuelle;

- les systèmes d’IA qui créent des bases de données de reconnaissance faciale par le moissonnage non ciblé d’images faciales provenant de l’internet ou de la vidéosurveillance;

- l'utilisation de systèmes d'identification biométrique à distance en temps réel dans des espaces accessibles au public à des fins répressives, sauf si cette utilisation est strictement nécessaire pour i) la recherche ciblée de victimes spécifiques d'enlèvement, de la traite et de l'exploitation sexuelle d'êtres humains, ainsi que la recherche de personnes disparues; ii) la prévention d'une menace réelle d'attaque terroriste; ii) l'identification d'une personne soupçonnée d'avoir commis une infraction pénale, aux fins de mener une enquête pénale, d'engager des poursuites ou d'exécuter une sanction pénale pour des infractions passibles d'une mesure de sûreté privatives de liberté d'une durée maximale d'au moins quatre ans.

Ont été ajoutés à la liste des systèmes à haut risque, en particulier les systèmes destinés à être utilisés:

- en tant que composants de sécurité dans la gestion et l'exploitation d'infrastructures numériques critiques, du trafic routier ou de la fourniture d'eau, de gaz, de chauffage ou d'électricité;

- pour le recrutement ou la sélection de personnes physiques, en particulier pour publier des offres d'emploi ciblées, analyser et filtrer les candidatures et évaluer les candidats;

- pour évaluer l'éligibilité des personnes physiques aux prestations et services d'aide sociale essentiels, y compris les services de soins de santé;

- pour l'évaluation des risques et la tarification en ce qui concerne les personnes physiques en matière d'assurance-vie et d'assurance maladie;

- pour influencer le résultat d'une élection ou d'un référendum ou le comportement électoral de personnes physiques dans l'exercice de leur vote.

Transparence et protection des droits fondamentaux

Avant qu'un système d'IA à haut risque ne soit déployé par certaines entités fournissant des services publics, l'impact sur les droits fondamentaux devra être évalué. Les systèmes d'IA à haut risque, ainsi que certains utilisateurs d'un système d'IA à haut risque qui sont des entités publiques, devront être enregistrés dans la base de données de l'UE pour les systèmes d'IA à haut risque.

Systèmes d’IA à usage général

Les systèmes d’IA générative basés sur des modèles tels que ChatGPT devront respecter les exigences en matière de transparence. Les fournisseurs de modèles d'IA à usage général devront respecter la législation européenne sur les droits d'auteurs et mettre à la disposition du public un résumé suffisamment détaillé du contenu utilisé pour entraîner le modèle d'IA à usage général. Les systèmes d’IA à usage général plus puissants présentant un risque systémique seront soumis à des exigences supplémentaires. De plus, les images et les contenus audio et vidéo artificiels ou manipulés (hypertrucages ou «deep fakes ») devront être clairement signalés comme tels.

Mesures de soutien à l’innovation

La nouvelle législation stipule que les «bacs à sable réglementaires» de l'IA, qui offrent un environnement contrôlé pour le développement, l'essai et la validation de systèmes d'IA innovants, devraient également permettre de tester des systèmes d'IA innovants dans des conditions réelles.

Gouvernance

Pour garantir une application correcte, plusieurs organes directeurs sont mis en place: i) un Bureau de l'IA au sein de la Commission chargé de faire appliquer les règles communes dans l'ensemble de l'UE; ii) un groupe scientifique d'experts indépendants chargé de soutenir les activités de contrôle de l'application de la législation ; iii) un Comité de l'IA, composé de représentants des États membres ; iv) un forum consultatif destiné aux parties prenantes.

Sanctions

Les amendes en cas de violations de la législation sur l'IA sont fixées en pourcentage du chiffre d'affaires annuel mondial de l'entreprise incriminée au cours de l'exercice précédent ou à un montant prédéterminé, le montant le plus élevé étant retenu. Les PME et les jeunes pousses feront l'objet d'amendes administratives proportionnelles.

ENTRÉE EN VIGUEUR : 1.8.2024.

APPLICATION : à partir du 2.8.2026.