OBJECTIF : promouvoir le déploiement dune intelligence artificielle (IA) digne de confiance en garantissant aux victimes de dommages causés par lIA une protection équivalente à celle des victimes de dommages causés par les produits de manière générale (Directive sur la responsabilité en matière dIA).
ACTE PROPOSÉ : Directive du Parlement européen et du Conseil.
RÔLE DU PARLEMENT EUROPÉEN : le Parlement européen décide conformément à la procédure législative ordinaire et sur un pied d'égalité avec le Conseil.
CONTEXTE : daprès une enquête représentative menée en 2020, la responsabilité figure parmi les trois principaux obstacles à lutilisation de lIA par les entreprises européennes.
Les règles nationales existant en matière de responsabilité, notamment en ce qui concerne la responsabilité pour faute, ne sont pas adaptées pour traiter les actions en responsabilité dans le cas de dommages causés par des produits et services dotés dIA. En vertu de ces règles, il incombe à la victime de prouver lexistence dun acte préjudiciable ou dune omission de la part de la personne qui a causé le dommage.
Compte tenu des caractéristiques spécifiques de lIA, il peut être difficile ou excessivement coûteux pour les victimes didentifier la personne responsable et dapporter la preuve des conditions requises pour obtenir gain de cause. De ce fait, les victimes peuvent être dissuadées de demander une indemnisation.
Il ressort des stratégies nationales en matière dIA que plusieurs États membres envisagent, voire élaborent concrètement, des mesures législatives afférentes à la responsabilité civile en matière dIA. Par conséquent, si lUE nagit pas, on sattend à ce que les États membres adaptent leurs règles nationales en matière de responsabilité aux défis de lIA.
En labsence de règles harmonisées au niveau de lUE pour lindemnisation des dommages causés par les systèmes dIA, les fournisseurs, les opérateurs et les utilisateurs de ces systèmes, dune part, et les personnes lésées, dautre part, se trouveraient confrontés à 27 régimes de responsabilité différents, ce qui entraînerait des niveaux de protection différents et fausserait la concurrence entre les entreprises des différents États membres.
Dans son livre blanc sur lIA du 19 février 2020, la Commission sest engagée à promouvoir ladoption de lIA et à faire face aux risques associés à certaines de ses utilisations en favorisant lexcellence et la confiance. Dans le rapport sur la responsabilité en matière dIA accompagnant le livre blanc, la Commission a identifié les défis spécifiques posés par lIA aux règles existantes en matière de responsabilité.
CONTENU : la proposition de directive a pour objet daméliorer le fonctionnement du marché intérieur en établissant des exigences uniformes pour certains aspects de la responsabilité civile extracontractuelle en lien avec des dommages résultant de lutilisation de systèmes dIA. Elle fait suite à la résolution dinitiative législative dans laquelle le Parlement européen a demandé à la Commission dadopter une proposition relative à un régime de responsabilité civile pour lIA et adapte le droit privé aux besoins découlant de la transition vers léconomie numérique.
La proposition sapplique aux actions civiles fondées sur une faute extracontractuelle pour des dommages causés par un système dIA, introduites dans le cadre de régimes de responsabilité fondés sur la faute. Il sagit en lespèce de régimes qui prévoient une responsabilité légale dindemniser les dommages causés intentionnellement, par un acte de négligence ou par omission.
La directive proposée allège la charge de la preuve de manière très ciblée et proportionnée en recourant à la divulgation et aux présomptions réfragables.
Divulgation déléments de preuve
La proposition de directive vise à fournir aux personnes qui introduisent une action en réparation pour des dommages causés par des systèmes dIA à haut risque des moyens efficaces didentifier les personnes potentiellement responsables des dommages et de trouver des éléments de preuve pertinents pour étayer cette action. Dans le même temps, ces moyens permettent dexclure les défendeurs potentiels identifiés à tort.
En vertu de la directive, une juridiction pourrait ordonner la divulgation des éléments de preuve pertinents concernant des systèmes dIA à haut risque spécifiques soupçonnés davoir causé un dommage. Les demandes de preuves devraient être adressées au fournisseur dun système dIA, à la personne soumise aux obligations du fournisseur ou à lutilisateur. Les demandes devraient être étayées par des faits et des éléments de preuve suffisants pour établir la plausibilité de la demande en réparation envisagée; les éléments de preuve requis devraient être mis à la disposition des destinataires.
En limitant lobligation de divulgation ou de conservation aux éléments de preuve nécessaires et proportionnés, la proposition vise à limiter la divulgation au minimum nécessaire et à empêcher les demandes dordre général. Dautre part, la divulgation serait assujettie à des mesures de protection appropriées pour protéger les renseignements sensibles, comme les secrets commerciaux.
Présomption dun lien de causalité en cas de faute
Le demandeur peut éprouver des difficultés à établir un lien de causalité entre le non-respect un devoir de vigilance prévu par le droit de lUnion ou le droit national et le résultat du système dIA ou lincapacité du système dIA à produire un résultat à lorigine du dommage en question.
Cest pourquoi la proposition prévoit une présomption réfragable ciblée concernant ce lien de causalité. Grâce aux présomptions réfragables, la charge de la preuve incombant aux personnes souhaitant introduire une demande en réparation pour des dommages causés par des systèmes dIA sera plus raisonnable et la procédure aura une chance daboutir si laction en responsabilité est justifiée.
Le demandeur devra prouver la faute commise par le défendeur conformément aux règles nationales ou de lUnion applicables. Une telle faute pourra être établie, par exemple, en cas de non-respect dun devoir de vigilance prévu par la législation sur lIA ou par dautres règles établies au niveau de lUnion, telles que celles régissant le recours à des systèmes de surveillance et de prise de décision automatisés pour le travail via une plateforme ou celles régissant lexploitation de drones.
Si les victimes peuvent démontrer quune personne a commis une faute pour ne pas avoir respecté une certaine obligation relative au préjudice et quun lien de causalité avec la performance de lIA est raisonnablement probable, le tribunal pourrait présumer que ce non-respect a causé le dommage. Dautre part, la personne responsable pourrait réfuter cette présomption (par exemple, en prouvant quune cause différente a causé le dommage).