Un régime de responsabilité civile pour l’intelligence artificielle  
2020/2014(INL) - 20/10/2020  

Le Parlement a adopté par 626 voix pour, 25 contre et 40 abstentions, une résolution contenant des recommandations à la Commission sur un régime de responsabilité civile pour l’intelligence artificielle (IA).

Le Parlement a invité la Commission à proposer un règlement définissant les règles applicables aux actions en responsabilité civile des personnes physiques et morales engagées à l’encontre des opérateurs des systèmes d’IA.

Responsabilité et intelligence artificielle

La directive sur la responsabilité du fait des produits a, depuis plus de 30 ans, prouvé son efficacité en tant qu’outil permettant d’obtenir réparation du préjudice causé par un produit défectueux. Toutefois, il conviendrait de la réviser afin qu’elle soit mieux adaptée au monde numérique et à même de relever les défis posés par les technologies numériques émergentes.

Les députés estiment qu’il est impératif de garantir une sécurité juridique maximale tout au long de la chaîne des responsabilités, y compris pour le producteur, l’opérateur, les personnes lésées et tout autre tiers, pour répondre aux nouvelles difficultés juridiques qu’engendrent les évolutions des systèmes d’intelligence artificielle (IA). Les règles de responsabilité civile pour l’IA devraient trouver un équilibre entre la protection des citoyens et le soutien à l’innovation technologique.

Champ d’application

La proposition de règlement demandée s’appliquerait sur le territoire de l’Union lorsqu’une activité, un dispositif ou un procédé physique ou virtuel piloté par un système d’IA a causé un préjudice ou un dommage sous la forme d’une atteinte à la vie, à la santé ou à l’intégrité physique d’une personne physique ou aux biens d’une personne physique ou morale, ou a causé un préjudice immatériel important entraînant une «perte économique vérifiable».

Le Parlement estime que les règles de responsabilité relatives à l’opérateur devraient s’appliquer à tous les types d’exploitation des systèmes d’IA, indépendamment du lieu de l’exploitation et du fait que celle-ci soit de nature physique ou virtuelle.

Responsabilité objective du fait des systèmes d’IA à haut risque

En vertu de la proposition demandée, l’opérateur d’un système d’IA à haut risque serait objectivement responsable de tout préjudice ou de tout dommage causé par une activité, un dispositif ou un procédé physique ou virtuel piloté par un système d’IA. Il ne pourrait s’exonérer lui-même de sa responsabilité en faisant valoir qu’il a agi avec la diligence requise.

Bien que les technologies d’IA à haut risque soient encore rares, les opérateurs de systèmes d’IA à haut risque devraient souscrire une assurance responsabilité civile similaire à celle des véhicules à moteur. Le régime d’assurance obligatoire pour les systèmes d’IA à haut risque devrait couvrir les montants ainsi que l’étendue de l’indemnisation. L’incertitude concernant les risques ne devrait toutefois pas se traduire par des primes d’assurance dont le tarif serait prohibitif et constituerait un frein à la recherche et à l’innovation.

Indemnisation

En vertu du règlement demandé, l’opérateur qui a été tenu pour responsable d’un préjudice ou d’un dommage devrait procéder à une indemnisation:

- à concurrence d’un montant maximal de deux millions d’euros en cas de décès ou en cas d’atteinte à la santé ou à l’intégrité physique d’une personne lésée, résultant de l’exploitation d’un système d’IA à haut risque;

- à concurrence d’un montant maximal d’un million d’euros en cas de préjudice immatériel important entraînant une perte économique vérifiable, ou en cas de dommage causé aux biens.

Les actions en responsabilité civile fondées sur une atteinte à la vie, à la santé ou à l’intégrité physique, seraient soumises à un délai de prescription spécial de 30 ans à compter de la date à laquelle le préjudice est survenu. Ce délai serait de 10 ans à compter de la date à laquelle le dommage a été causé aux biens ou à laquelle la perte économique vérifiable résultant du préjudice immatériel important est survenue.

Responsabilité pour faute du fait d’autres systèmes d’IA

L’opérateur d’un système d’IA qui n’est pas défini comme un système d’IA serait soumis au régime de la responsabilité pour faute en cas de préjudice ou dommage causé par une activité, un dispositif ou un procédé physique ou virtuel piloté par le système d’IA. L’opérateur ne serait pas responsable s’il peut prouver que le préjudice ou le dommage a été causé sans qu’il y ait eu faute de sa part.

Suivre les évolutions

La Commission est invitée à travailler en collaboration avec le marché de l’assurance pour développer des produits d’assurance innovants capables de combler le vide en matière d’assurance.

Toute modification future du règlement devrait aller de pair avec la révision nécessaire de la directive sur la responsabilité du fait des produits, afin de garantir les droits et obligations de toutes les parties concernées tout au long de la chaîne de responsabilité.

Le Parlement a recommandé de dresser une liste exhaustive de tous les systèmes d’IA à haut risque dans une annexe au règlement proposé. Compte tenu de la rapidité des évolutions technologiques, la Commission devrait revoir cette annexe au moins tous les six mois, et, si nécessaire, la modifier au moyen d'un acte délégué.