Adaptation des règles en matière de responsabilité civile extracontractuelle au domaine de l’intelligence artificielle (Directive sur la responsabilité en matière d’IA)

2022/0303(COD)

OBJECTIF : promouvoir le déploiement d’une intelligence artificielle (IA) digne de confiance en garantissant aux victimes de dommages causés par l’IA une protection équivalente à celle des victimes de dommages causés par les produits de manière générale (Directive sur la responsabilité en matière d’IA).

ACTE PROPOSÉ : Directive du Parlement européen et du Conseil.

RÔLE DU PARLEMENT EUROPÉEN : le Parlement européen décide conformément à la procédure législative ordinaire et sur un pied d'égalité avec le Conseil.

CONTEXTE : d’après une enquête représentative menée en 2020, la responsabilité figure parmi les trois principaux obstacles à l’utilisation de l’IA par les entreprises européennes.

Les règles nationales existant en matière de responsabilité, notamment en ce qui concerne la responsabilité pour faute, ne sont pas adaptées pour traiter les actions en responsabilité dans le cas de dommages causés par des produits et services dotés d’IA. En vertu de ces règles, il incombe à la victime de prouver l’existence d’un acte préjudiciable ou d’une omission de la part de la personne qui a causé le dommage.

Compte tenu des caractéristiques spécifiques de l’IA, il peut être difficile ou excessivement coûteux pour les victimes d’identifier la personne responsable et d’apporter la preuve des conditions requises pour obtenir gain de cause. De ce fait, les victimes peuvent être dissuadées de demander une indemnisation.

Il ressort des stratégies nationales en matière d’IA que plusieurs États membres envisagent, voire élaborent concrètement, des mesures législatives afférentes à la responsabilité civile en matière d’IA. Par conséquent, si l’UE n’agit pas, on s’attend à ce que les États membres adaptent leurs règles nationales en matière de responsabilité aux défis de l’IA. 

En l’absence de règles harmonisées au niveau de l’UE pour l’indemnisation des dommages causés par les systèmes d’IA, les fournisseurs, les opérateurs et les utilisateurs de ces systèmes, d’une part, et les personnes lésées, d’autre part, se trouveraient confrontés à 27 régimes de responsabilité différents, ce qui entraînerait des niveaux de protection différents et fausserait la concurrence entre les entreprises des différents États membres.

Dans son livre blanc sur l’IA du 19 février 2020, la Commission s’est engagée à promouvoir l’adoption de l’IA et à faire face aux risques associés à certaines de ses utilisations en favorisant l’excellence et la confiance. Dans le rapport sur la responsabilité en matière d’IA accompagnant le livre blanc, la Commission a identifié les défis spécifiques posés par l’IA aux règles existantes en matière de responsabilité.

CONTENU : la proposition de directive a pour objet d’améliorer le fonctionnement du marché intérieur en établissant des exigences uniformes pour certains aspects de la responsabilité civile extracontractuelle en lien avec des dommages résultant de l’utilisation de systèmes d’IA. Elle fait suite à la résolution d’initiative législative dans laquelle le Parlement européen a demandé à la Commission d’adopter une proposition relative à un régime de responsabilité civile pour l’IA et adapte le droit privé aux besoins découlant de la transition vers l’économie numérique.

La proposition s’applique aux actions civiles fondées sur une faute extracontractuelle pour des dommages causés par un système d’IA, introduites dans le cadre de régimes de responsabilité fondés sur la faute. Il s’agit en l’espèce de régimes qui prévoient une responsabilité légale d’indemniser les dommages causés intentionnellement, par un acte de négligence ou par omission.

La directive proposée allège la charge de la preuve de manière très ciblée et proportionnée en recourant à la divulgation et aux présomptions réfragables.

Divulgation d’éléments de preuve

La proposition de directive vise à fournir aux personnes qui introduisent une action en réparation pour des dommages causés par des systèmes d’IA à haut risque des moyens efficaces d’identifier les personnes potentiellement responsables des dommages et de trouver des éléments de preuve pertinents pour étayer cette action. Dans le même temps, ces moyens permettent d’exclure les défendeurs potentiels identifiés à tort.

En vertu de la directive, une juridiction pourrait ordonner la divulgation des éléments de preuve pertinents concernant des systèmes d’IA à haut risque spécifiques soupçonnés d’avoir causé un dommage. Les demandes de preuves devraient être adressées au fournisseur d’un système d’IA, à la personne soumise aux obligations du fournisseur ou à l’utilisateur. Les demandes devraient être étayées par des faits et des éléments de preuve suffisants pour établir la plausibilité de la demande en réparation envisagée; les éléments de preuve requis devraient être mis à la disposition des destinataires.

En limitant l’obligation de divulgation ou de conservation aux éléments de preuve nécessaires et proportionnés, la proposition vise à limiter la divulgation au minimum nécessaire et à empêcher les demandes d’ordre général. D’autre part, la divulgation serait assujettie à des mesures de protection appropriées pour protéger les renseignements sensibles, comme les secrets commerciaux.

Présomption d’un lien de causalité en cas de faute

Le demandeur peut éprouver des difficultés à établir un lien de causalité entre le non-respect un devoir de vigilance prévu par le droit de l’Union ou le droit national et le résultat du système d’IA ou l’incapacité du système d’IA à produire un résultat à l’origine du dommage en question.

C’est pourquoi la proposition prévoit une présomption réfragable ciblée concernant ce lien de causalité. Grâce aux présomptions réfragables, la charge de la preuve incombant aux personnes souhaitant introduire une demande en réparation pour des dommages causés par des systèmes d’IA sera plus raisonnable et la procédure aura une chance d’aboutir si l’action en responsabilité est justifiée.

Le demandeur devra prouver la faute commise par le défendeur conformément aux règles nationales ou de l’Union applicables. Une telle faute pourra être établie, par exemple, en cas de non-respect d’un devoir de vigilance prévu par la législation sur l’IA ou par d’autres règles établies au niveau de l’Union, telles que celles régissant le recours à des systèmes de surveillance et de prise de décision automatisés pour le travail via une plateforme ou celles régissant l’exploitation de drones.

Si les victimes peuvent démontrer qu’une personne a commis une faute pour ne pas avoir respecté une certaine obligation relative au préjudice et qu’un lien de causalité avec la performance de l’IA est raisonnablement probable, le tribunal pourrait présumer que ce non-respect a causé le dommage. D’autre part, la personne responsable pourrait réfuter cette présomption (par exemple, en prouvant qu’une cause différente a causé le dommage).