Législation sur les services numériques

2020/0361(COD)

La commission du marché intérieur et de la protection des consommateurs a adopté le rapport de Christel SCHALDEMOSE (S&D, DK) sur la proposition de règlement du Parlement européen et du Conseil concernant un marché unique des services numériques (Digital Services Act) et modifiant la directive 2000/31/CE.

La commission compétente a recommandé que la position du Parlement européen adoptée en première lecture dans le cadre de la procédure législative ordinaire modifie la proposition de la Commission comme suit :

Champ d'application

Les députés ont stipulé que le règlement proposé devrait s'appliquer aux services d'intermédiaire fournis aux bénéficiaires du service qui ont leur lieu d'établissement ou de résidence dans l'Union, quel que soit le lieu d’établissement des fournisseurs de ces services. Il ne devrait pas s'appliquer à un service qui n'est pas un service intermédiaire ou à toute exigence imposée à l'égard d'un tel service, que le service soit fourni ou non par le biais d'un service intermédiaire.

Suppression des contenus illicites

Le texte amendé stipule que les plateformes en ligne devraient :

- être habilitées à suspendre, pendant une période raisonnable et après avoir émis un avertissement préalable, la fourniture de leurs services aux destinataires du service qui fournissent fréquemment des contenus illicites, dont l'illégalité peut être établie sans procéder à un examen juridique ou factuel ou pour lesquels elles ont reçu deux ou plusieurs injonctions d'agir concernant des contenus illicites au cours des 12 mois précédents, à moins que ces injonctions n'aient été annulées par la suite;

- suspendre, pendant une période raisonnable et après avoir émis un avertissement préalable, le traitement des avis et des plaintes soumis par le biais des mécanismes de notification et d'action et des systèmes internes de traitement des plaintes, respectivement, par des personnes ou des entités ou par des plaignants qui soumettent fréquemment des avis ou des plaintes qui ne sont pas fondés.

Publicités à destination des mineurs

Le rapport souligne que les plateformes en ligne devraient prendre des mesures pour éliminer progressivement la collecte ou le traitement des données à caractère personnel dans le but de cibler les destinataires de publicités non commerciales et politiques, au profit de publicités contextuelles. Il en va de même pour le ciblage des personnes sur la base de données sensibles ou pour le ciblage des mineurs.

Afin de cibler les destinataires auxquels s'adressent les publicités à des fins commerciales, les plateformes en ligne devraient offrir aux utilisateurs la possibilité de refuser facilement le suivi micro-ciblé et les publicités basées sur leurs données comportementales ou d'autres techniques de profilage.

Algorithmes et interfaces truquées

Le texte modifié demande aux fournisseurs de services intermédiaires d'inclure des informations sur toutes les politiques, procédures, mesures et outils utilisés par le fournisseur du service intermédiaire aux fins de la modération du contenu, y compris la prise de décision algorithmique et le contrôle humain.

Les plateformes en ligne devraient s'abstenir d'utiliser des techniques trompeuses ou d'incitation pour influencer le comportement des utilisateurs par le biais d’interfaces truquées. Ces techniques peuvent être utilisées pour encourager l'acceptation de conditions générales, y compris le consentement au partage de données personnelles et non personnelles.

En outre, le coordinateur des services numériques de chaque État membre pourrait, par le biais de la législation nationale, demander à une très grande plateforme en ligne de coopérer avec le coordinateur des services numériques de l'État membre en question dans le traitement des cas impliquant le retrait d'un contenu licite en ligne qui est retiré par erreur.

Le rapport appelle également à une responsabilisation accrue en matière d'algorithmes.

Contenu pornographique

Lorsqu'une plateforme en ligne est principalement utilisée pour la diffusion de contenu pornographique généré par les utilisateurs, la plateforme devrait prendre les mesures techniques et organisationnelles nécessaires pour garantir : i) que les utilisateurs qui diffusent du contenu se sont authentifiés au moyen d’une double procédure d’inscription par courrier électronique et téléphone portable; ii) la modération professionnelle du contenu par un être humain, formé pour repérer les abus sexuels sur la base d’images, lorsqu’il y a une forte probabilité que le contenu soit illicite; iii) l’accessibilité d’une procédure de notification qualifiée permettant aux personnes d’informer la plateforme de la diffusion sans leur consentement d’images les représentant ou censées les représenter et de transmettre à la plateforme un premier élément de preuve de leur identité physique.

Le texte modifié stipule que les contenus notifiés par le biais de cette procédure doivent être suspendus sans délai excessif.

Plaintes et indemnisation

Le texte modifié indique que les plateformes en ligne doivent traiter les plaintes soumises par l'intermédiaire de leur système interne de traitement des plaintes en temps utile, de manière non discriminatoire, diligente et non arbitraire et dans un délai de dix jours ouvrables à compter de la date à laquelle la plateforme en ligne a reçu la plainte.

Dès réception de la plainte, le coordinateur des services numériques de l'établissement devrait évaluer l'affaire en temps utile et informer dans un délai de six mois le coordinateur des services numériques de l'État membre où le destinataire réside ou est établi s'il a l'intention de procéder à une enquête. Les destinataires du service auraient le droit de demander une indemnisation aux prestataires de services intermédiaires, pour tout dommage ou perte directe subie en raison d'une violation par les prestataires de services intermédiaires des obligations établies par le règlement proposé.