Le Parlement européen a adopté par 499 voix pour, 28 contre et 93 abstentions, des amendements à la proposition de règlement du Parlement européen et du Conseil établissant des règles harmonisées concernant lintelligence artificielle (législation sur lintelligence artificielle) et modifiant certains actes législatifs de lUnion.
La question a été renvoyée à la commission compétente, aux fins de négociations interinstitutionnelle.
Objectif du règlement
Le règlement établirait un cadre juridique uniforme, en particulier pour le développement, la commercialisation, la mise en service et lutilisation de lintelligence artificielle dans le respect des valeurs de lUnion.
Lobjectif du règlement doit être de promouvoir ladoption de lintelligence artificielle axée sur le facteur humain et digne de confiance et de garantir un niveau élevé de protection de la santé, de la sécurité, des droits fondamentaux, de la démocratie et de létat de droit, ainsi que de lenvironnement contre les effets néfastes des systèmes dintelligence artificielle dans lUnion, tout en soutenant linnovation.
Soutenir linnovation
Pour encourager linnovation en matière dIA et soutenir les PME, les députés ont ajouté des exceptions pour les activités de recherche et les composants dIA fournis dans le cadre de licences libres. La nouvelle législation encourage ce que lon appelle les «bacs à sable réglementaires pour lIA», ou les environnements de mise en situation, mis en place par les autorités publiques pour tester lIA avant son déploiement.
Principes généraux applicables à tous les systèmes dIA
Tous les opérateurs qui relèvent du règlement devraient mettre tout en uvre pour développer et utiliser des systèmes dIA ou des systèmes dIA à finalité générale conformément aux principes généraux suivants : i) «facteur humain et contrôle humain»; ii) «solidité technique et sécurité»; iii) «protection de la vie privée et gouvernance des données»; iv) «transparence»; v) «diversité, non-discrimination et équité»; vi) «bien-être social et environnemental».
Maîtrise de lIA
Lors de la mise en uvre du règlement, lUnion et les États membres devraient favoriser les mesures permettant de développer un niveau suffisant de maîtrise de lIA, dans lensemble des secteurs et en tenant compte des différents besoins des groupes de fournisseurs, de déployeurs et de personnes concernées, notamment au moyen de programmes déducation et de formation, de qualification et de reconversion, tout en assurant un équilibre approprié entre les hommes et les femmes et entre les tranches dâge, afin de permettre un contrôle démocratique des systèmes dIA.
Pratiques interdites en matière dIA
Les systèmes dIA présentant un niveau de risque inacceptable pour la sécurité des personnes seront interdits. Les députés ont élargi la liste pour inclure des interdictions des utilisations intrusives et discriminatoires de lIA, telles que :
- les systèmes qui ont recours à des techniques subliminales ou à des techniques délibérément manipulatrices ou trompeuses, avec pour objectif daltérer substantiellement le comportement dune personne ou dun groupe de personnes en portant considérablement atteinte à la capacité de la personne à prendre une décision éclairée, lamenant ainsi à prendre une décision quelle naurait pas prise autrement;
- les systèmes qui exploitent les éventuelles vulnérabilités dune personne ou dun groupe de personnes donné, notamment les caractéristiques des traits de personnalité connue ou prévisible ou la situation sociale ou économique, lâge, la capacité physique ou mentale de cette personne ou de ce groupe de personnes avec pour objectif ou pour effet daltérer substantiellement le comportement de cette personne;
- les systèmes de catégorisation biométriques qui catégorisent les personnes physiques en fonction dattributs ou de caractéristiques sensibles (par exemple, le genre, la race, lorigine ethnique, le statut de citoyen, la religion, lorientation politique), ou sur la base de la déduction de ces attributs ou de ces caractéristiques;
- les systèmes qui sont utilisés pour la notation sociale (classifiant les personnes en fonction de leur comportement social ou de leurs caractéristiques personnelles);
- lutilisation de systèmes didentification biométrique à distance «en temps réel» dans des espaces accessibles au public;
- les systèmes de police prédictive (fondés sur le profilage, la localisation ou le comportement criminel passé);
- les systèmes dIA qui créent ou développent des bases de données de reconnaissance faciale par le moissonnage non ciblé dimages faciales provenant de linternet ou de la vidéosurveillance;
- les systèmes de reconnaissance des émotions utilisés dans les services répressifs, la gestion des frontières, le lieu de travail et les établissements denseignement;
- les systèmes d'identification biométrique à distance «a posteriori», à la seule exception des forces de l'ordre pour la poursuite de crimes graves, et seulement après autorisation judiciaire.
Ont été ajoutés à la liste des systèmes à haut risque :
- les systèmes destinés à être utilisés en tant que composants de sécurité dans la gestion et le fonctionnement de la fourniture deau, de gaz, de chauffage, délectricité et des infrastructures numériques critiques;
- les systèmes destinés à être utilisés pour évaluer le niveau denseignement approprié dune personne et influençant substantiellement le niveau déducation et de formation professionnelle dont bénéficiera cette personne ou auxquels elle aura accès;
- les systèmes destinés à être utilisés pour surveiller et détecter des comportements interdits chez les étudiants lors de tests dans le contexte détablissements denseignement et de formation ou en leur sein;
- les systèmes destinés à être utilisés pour prendre ou influencer substantiellement des décisions sur léligibilité des personnes physiques à lassurance-maladie et à lassurance-vie;
- les systèmes destinés à évaluer et hiérarchiser les appels durgence émanant de personnes physique;
- les systèmes dIA destinés à être utilisés par les autorités publiques dans la gestion de la migration, de lasile et des contrôles aux frontières pour traiter, contrôler et vérifier les données aux fins de la détection, de la reconnaissance et de lidentification des personnes physiques;
- les systèmes destinés à être utilisés pour influencer le résultat dune élection ou dun référendum ou le comportement électoral de personnes physiques dans lexercice de leur vote lors délections ou de référendums;
- les systèmes dIA utilisés dans les systèmes de recommandation exploités par les grandes plateformes de médias sociaux.
Obligations pour les systèmes dIA à usage général
Les systèmes dIA générative basés sur des modèles tels que ChatGPT devraient respecter les exigences en matière de transparence (mentionner que le contenu est généré par lIA, aider également à distinguer les fausses images des vraies en cas dhypertrucage) et offrir des garanties contre la génération de contenus illicites. Des résumés détaillés des données protégées par le droit dauteur utilisées pour la formation des IA devront également être rendus publics.
Bureau de lIA
La proposition établit le bureau de lIA qui devrait être un organe indépendant de l'Union. Il est proposé que son siège soit situé à Bruxelles. Il devrait notamment s'acquitter des tâches suivantes :
- soutenir, conseiller les États membres, les autorités de surveillance nationales, la Commission et les autres institutions, organes ou organismes de lUnion et coopérer avec eux en ce qui concerne la mise en uvre du présent règlement;
- contrôler et sassurer de lapplication effective et cohérente du règlement;
- contribuer à la coordination entre les autorités nationales de surveillance chargées de lapplication du règlement;
- jouer le rôle de médiateur dans les discussions sur les différends graves qui peuvent survenir entre les autorités compétentes en ce qui concerne lapplication du règlement;
- coordonner les enquêtes conjointes.
Le bureau de l'IA devrait être responsable devant le Parlement européen et le Conseil, agir en toute indépendance et garantir un niveau élevé de transparence.
Droit dintroduire une réclamation auprès dune autorité de contrôle national
Les personnes physiques ou les groupes de personnes physiques auraient le droit dintroduire une réclamation auprès dune autorité de contrôle nationale sils considèrent que le système dIA les concernant viole le règlement. Enfin, les députés veulent renforcer le droit des citoyens à recevoir des explications sur les décisions fondées sur des systèmes dIA à haut risque qui ont une incidence significative sur leur santé, leur sécurité, leurs droits fondamentaux, et leur bien-être socioéconomique.