Législation sur l’intelligence artificielle

2021/0106(COD)

Le Parlement européen a adopté par 499 voix pour, 28 contre et 93 abstentions, des amendements à la proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant l’intelligence artificielle (législation sur l’intelligence artificielle) et modifiant certains actes législatifs de l’Union.

La question a été renvoyée à la commission compétente, aux fins de négociations interinstitutionnelle.

Objectif du règlement

Le règlement établirait un cadre juridique uniforme, en particulier pour le développement, la commercialisation, la mise en service et l’utilisation de l’intelligence artificielle dans le respect des valeurs de l’Union.

L’objectif du règlement doit être de promouvoir l’adoption de l’intelligence artificielle axée sur le facteur humain et digne de confiance et de garantir un niveau élevé de protection de la santé, de la sécurité, des droits fondamentaux, de la démocratie et de l’état de droit, ainsi que de l’environnement contre les effets néfastes des systèmes d’intelligence artificielle dans l’Union, tout en soutenant l’innovation.

Soutenir l’innovation

Pour encourager l’innovation en matière d’IA et soutenir les PME, les députés ont ajouté des exceptions pour les activités de recherche et les composants d’IA fournis dans le cadre de licences libres. La nouvelle législation encourage ce que l’on appelle les «bacs à sable réglementaires pour l’IA», ou les environnements de mise en situation, mis en place par les autorités publiques pour tester l’IA avant son déploiement.

Principes généraux applicables à tous les systèmes d’IA

Tous les opérateurs qui relèvent du règlement devraient mettre tout en œuvre pour développer et utiliser des systèmes d’IA ou des systèmes d’IA à finalité générale conformément aux principes généraux suivants : i) «facteur humain et contrôle humain»; ii) «solidité technique et sécurité»; iii) «protection de la vie privée et gouvernance des données»; iv) «transparence»; v) «diversité, non-discrimination et équité»; vi) «bien-être social et environnemental».

Maîtrise de l’IA

Lors de la mise en œuvre du règlement, l’Union et les États membres devraient favoriser les mesures permettant de développer un niveau suffisant de maîtrise de l’IA, dans l’ensemble des secteurs et en tenant compte des différents besoins des groupes de fournisseurs, de déployeurs et de personnes concernées, notamment au moyen de programmes d’éducation et de formation, de qualification et de reconversion, tout en assurant un équilibre approprié entre les hommes et les femmes et entre les tranches d’âge, afin de permettre un contrôle démocratique des systèmes d’IA.

Pratiques interdites en matière d’IA

Les systèmes d’IA présentant un niveau de risque inacceptable pour la sécurité des personnes seront interdits. Les députés ont élargi la liste pour inclure des interdictions des utilisations intrusives et discriminatoires de l’IA, telles que :

- les systèmes qui ont recours à des techniques subliminales ou à des techniques délibérément manipulatrices ou trompeuses, avec pour objectif d’altérer substantiellement le comportement d’une personne ou d’un groupe de personnes en portant considérablement atteinte à la capacité de la personne à prendre une décision éclairée, l’amenant ainsi à prendre une décision qu’elle n’aurait pas prise autrement;

- les systèmes qui exploitent les éventuelles vulnérabilités d’une personne ou d’un groupe de personnes donné, notamment les caractéristiques des traits de personnalité connue ou prévisible ou la situation sociale ou économique, l’âge, la capacité physique ou mentale de cette personne ou de ce groupe de personnes avec pour objectif ou pour effet d’altérer substantiellement le comportement de cette personne;

- les systèmes de catégorisation biométriques qui catégorisent les personnes physiques en fonction d’attributs ou de caractéristiques sensibles (par exemple, le genre, la race, l’origine ethnique, le statut de citoyen, la religion, l’orientation politique), ou sur la base de la déduction de ces attributs ou de ces caractéristiques;

- les systèmes qui sont utilisés pour la notation sociale (classifiant les personnes en fonction de leur comportement social ou de leurs caractéristiques personnelles);

- l’utilisation de systèmes d’identification biométrique à distance «en temps réel» dans des espaces accessibles au public;

- les systèmes de police prédictive (fondés sur le profilage, la localisation ou le comportement criminel passé);

- les systèmes d’IA qui créent ou développent des bases de données de reconnaissance faciale par le moissonnage non ciblé d’images faciales provenant de l’internet ou de la vidéosurveillance;

- les systèmes de reconnaissance des émotions utilisés dans les services répressifs, la gestion des frontières, le lieu de travail et les établissements d’enseignement;

- les systèmes d'identification biométrique à distance «a posteriori», à la seule exception des forces de l'ordre pour la poursuite de crimes graves, et seulement après autorisation judiciaire.

Ont été ajoutés à la liste des systèmes à haut risque :

- les systèmes destinés à être utilisés en tant que composants de sécurité dans la gestion et le fonctionnement de la fourniture d’eau, de gaz, de chauffage, d’électricité et des infrastructures numériques critiques;

- les systèmes destinés à être utilisés pour évaluer le niveau d’enseignement approprié d’une personne et influençant substantiellement le niveau d’éducation et de formation professionnelle dont bénéficiera cette personne ou auxquels elle aura accès;

- les systèmes destinés à être utilisés pour surveiller et détecter des comportements interdits chez les étudiants lors de tests dans le contexte d’établissements d’enseignement et de formation ou en leur sein;

- les systèmes destinés à être utilisés pour prendre ou influencer substantiellement des décisions sur l’éligibilité des personnes physiques à l’assurance-maladie et à l’assurance-vie;

- les systèmes destinés à évaluer et hiérarchiser les appels d’urgence émanant de personnes physique;

- les systèmes d’IA destinés à être utilisés par les autorités publiques dans la gestion de la migration, de l’asile et des contrôles aux frontières pour traiter, contrôler et vérifier les données aux fins de la détection, de la reconnaissance et de l’identification des personnes physiques;

- les systèmes destinés à être utilisés pour influencer le résultat d’une élection ou d’un référendum ou le comportement électoral de personnes physiques dans l’exercice de leur vote lors d’élections ou de référendums;

- les systèmes d’IA utilisés dans les systèmes de recommandation exploités par les grandes plateformes de médias sociaux.

Obligations pour les systèmes d’IA à usage général

Les systèmes d’IA générative basés sur des modèles tels que ChatGPT devraient respecter les exigences en matière de transparence (mentionner que le contenu est généré par l’IA, aider également à distinguer les fausses images des vraies en cas d’hypertrucage) et offrir des garanties contre la génération de contenus illicites. Des résumés détaillés des données protégées par le droit d’auteur utilisées pour la formation des IA devront également être rendus publics.

Bureau de l’IA

La proposition établit le bureau de l’IA qui devrait être un organe indépendant de l'Union. Il est proposé que son siège soit situé à Bruxelles. Il devrait notamment s'acquitter des tâches suivantes :

- soutenir, conseiller les États membres, les autorités de surveillance nationales, la Commission et les autres institutions, organes ou organismes de l’Union et coopérer avec eux en ce qui concerne la mise en œuvre du présent règlement;

- contrôler et s’assurer de l’application effective et cohérente du règlement;

- contribuer à la coordination entre les autorités nationales de surveillance chargées de l’application du règlement;

- jouer le rôle de médiateur dans les discussions sur les différends graves qui peuvent survenir entre les autorités compétentes en ce qui concerne l’application du règlement;

- coordonner les enquêtes conjointes.

Le bureau de l'IA devrait être responsable devant le Parlement européen et le Conseil, agir en toute indépendance et garantir un niveau élevé de transparence.

Droit d’introduire une réclamation auprès d’une autorité de contrôle national

Les personnes physiques ou les groupes de personnes physiques auraient le droit d’introduire une réclamation auprès d’une autorité de contrôle nationale s’ils considèrent que le système d’IA les concernant viole le règlement. Enfin, les députés veulent renforcer le droit des citoyens à recevoir des explications sur les décisions fondées sur des systèmes d’IA à haut risque qui ont une incidence significative sur leur santé, leur sécurité, leurs droits fondamentaux, et leur bien-être socioéconomique.