La législation sur les services numériques (DSA) et la législation sur les marchés numériques (DMA) - une réponse harmonisée à la constante évolution du marché numérique
Le commerce électronique (E-commerce) connait une croissance exponentielle ces dernière années. Selon la Commission américaine du commerce international (USITC) (2017), le commerce électronique mondial est passé de 19,3 billions de dollars américains en 2012 à 27,7 billions de dollars US en 2016 et a atteint 29 billions de dollars américains en 2017.
Seulement pour la France les ventes sur internet au cours de l’année 2019 ont franchi 103,4 milliards d'euros (étude présentée le 5 février 2020 par la Fevad au Ministère de l'Economie et des Finances). La crise sanitaire du COVID 19 n’a fait qu’amplifier ce phénomène et a montré la place importante qu'occupent les technologies numériques dans tous les aspects de la vie moderne.
C’est pourquoi, ce n’est pas un hasard que le domaine numérique est sujet à de nombreux débats dans les Etats membres de l’Union Européenne qui souhaitent d’avantage apporter une réponse harmonisée à la constante évolution du marché numérique.
Partant de ce constat, le 15 décembre 2020 la Commission européenne a présenté la législation sur les services numérique (Digital services act) et la législation sur les marchés numériques (Digital Markets Act), deux textes s’inscrivant dans une logique d’encadrement des acteurs de l’économie numérique au moyen des principes de transparence, mais aussi de sécurité des droits fondamentaux des utilisateurs.
Actuellement soumis à la procédure législative ordinaire, ces deux textes ont fait l’objet d’un avis du Contrôleur européen le 10 février 2021, accueillant ainsi de manière favorable l’encadrement de l’environnement numérique destiné aux utilisateurs européens, tout en rappelant l’importance du respect des principes fondamentaux comme l’état de droit et un meilleur contrôle des données générés par ces derniers.
La législation sur les services numériques - encadrement européen des services en ligne (Volet 1)
La législation sur les services numériques repose principalement sur la Directive E-Commerce du 8 juin 2000 désormais désuète face à l’évolution du marché numérique.
QUEL EST SON CHAMP D’APPLICATION ?
Reprenant le cadre juridique institué par la Directive E-Commerce de 2000(1) ce projet de règlement s’appliquera tant au Marché Unique européen qu’aux fournisseurs en ligne situés hors de l’Union mais qui proposent leurs services dans le Marché unique.
Il englobe de manière générale l’ensemble des services numériques connectant l’utilisateur consommateur à un contenu numérique, mais également à des biens et services.
Le projet distingue quatre catégories d’acteurs(2) (fournisseurs numériques) qui seront soumis à des nouvelles obligations:
- les services intermédiaires offrant une infrastructure réseau tels que les FAI, bureaux d'enregistrement de noms de domaine;
- les services d'hébergement;
- les plateformes en ligne réunissant vendeurs et consommateurs tels que les marketplace, appstore, plateforme d'économie collaborative, réseaux sociaux etc.;
- très grandes plateformes en ligne qui présentent des risques particuliers en matière de diffusion de contenu illégaux et de préjudices sociétaux.
QUELLES SONT LES OBLIGATIONS GENERALES DESTINEES A L’ENSEMBLE DES FOURNISSEURS?
La création d’un point de contact unique visant la communication entre les fournisseurs et les différentes autorités (article 10 et 11 du règlement)
Le règlement induit une logique de coopération formelle entre les fournisseurs numériques et les autorités, destinée à répondre à toute sollicitation concernant la mise en œuvre du Digital Services Act.
A cet égard, l’article 10 du projet, prévoit une obligation à la charge des fournisseurs numériques de mettre en œuvre un moyen de communication avec les autorités en charge de l’encadrement de l’environnement(3).
Les modalités de cette «communication directe» devront être rendues publiques pour faciliter leur identification et donc leur utilisation.
L’article 11 vient compléter cette disposition pour les fournisseurs numériques qui ne seraient pas établis dans l’Union, mais dont les services sont notamment tournés vers les utilisateurs européens: un représentant légal, personne physique ou morale, devra se tenir à disposition des autorités afin d’être sollicité pour toute information requise par ces dernières.
L’accès aux informations afférentes au représentant légal devra également être facilité, tout comme le point de contact nouvellement créé pour les fournisseurs numériques établis dans l’Union. Il est à noter que le règlement instaure ici une double responsabilité en cas de non-respect des obligations. En effet, le représentant légal pourra être désigné comme responsable de tout manquement aux obligations du fournisseur qu’il représente, sans que cela conduit à l'exclusion de la responsabilité du fournisseur.
Une obligation de transparence renforcée (article 12 et 13 du règlement)
Les méthodes employées par les fournisseurs numériques afin d’opérer une modération des contenus numériques (les différents moyens utilisés qui entrainent des restrictions d’accès à certains contenus)(4) devront être explicitement mentionnés dans leur conditions générales.
Ces restrictions doivent obéir à des principes d'objectivité et de proportionnalité afin de garantir le respect des droits fondamentaux des utilisateurs(5).
En toute logique, l’article 13 vient soumettre les fournisseurs numériques à une obligation de publication d’un rapport annuel, clair, facilement compréhensible et détaillé, destiné aux utilisateurs sur les actions de modération employées.
Il détaille les informations qui devront figurer dans ledit rapport, notamment l’ensemble des injonctions émises par les autorités compétentes de chaque Etat membre sur la modération de contenus illicites classés par type, mais aussi le délai d’action nécessaire du fournisseurs pour se conformer à l’injonction. Devront également être mentionnés les actions de modération des fournisseurs basés sur leur propre initiative, ainsi que le traitement des réclamations soumises par les utilisateurs.
Il est à noter que cette obligation n’est pas applicable aux microentreprises et aux petites entreprises au sens européen (entité ayant moins de 10 employés et dont le chiffre d’affaires ou le total du bilan ne dépasse pas la somme de 2 millions d’euros, au sens de la recommandation 2003/361/CE). Les fournisseurs «d’un certain impact économique» sont donc clairement visés par cette disposition.
QUELLES SONT LES OBLIGATIONS A LA CHARGE DES HEBERGEURS ET DES PLATEFORMES EN LIGNE?
Un mécanisme de notification conférant à l'utilisateur un rôle central dans modération du contenu illicite.
L’encadrement des contenus illicites est au cœur des dispositions destinées aux hébergeurs de contenus et les plateformes en ligne.
En vertu de l’article 14§1 tout utilisateur doit disposer d’un accès facilité afin de pouvoir notifier un contenu jugé comme illicite. La notification doit contenir des informations «complètes et exactes» permettant l'indentification rapide du dit contenu (URL), les raisons qui ont motivé la notification, l'identité de l'utilisateur et son adresse e-mail, ainsi qu’une déclaration de bonne foi.
La Commission réserve ainsi une place prépondérante à l’utilisateur dans l'identification et la révélation du contenu illicite.
La procédure n’est pas anodine: en effet, la notification émise par l’utilisateur vaudra présomption de connaissance d’un contenu manifestement illicite, posant ainsi un véritable enjeu de responsabilité des hébergeurs et plateformes en ligne. Ces derniers seront donc contraints, si le texte est adopté en l’état, de nécessairement répondre aux sollicitations des utilisateurs, au risque de se voir désignés comme responsables de la disponibilité d’un contenu illicite malgré l’avertissement reçu.
Une obligation d’information à la charge des hébergeurs et plateformes sur la procédure de notification par l’utilisateur.
Cette obligation d’information, exposée à l’article 15 du projet de règlement, intervient à posteriori, lorsque la plateforme ou l’hébergeur aura procédé à la modération d’un contenu illicite ou incompatible avec les conditions générales du fournisseur en ligne: ainsi, si le contenu n’est désormais plus accessible aux utilisateurs en raison de sa suppression, lesdits fournisseurs numériques devront informer le bénéficiaire de la décision (l'auteur du contenu illicite ou celui jugé incompatible avec les conditions générales) sur les motifs ayant entrainé la modération.
Ces motifs comprendront les faits, les fondements juridiques éventuels, les voies de recours, ainsi que la portée de l’action de modération, tout en satisfaisant à l’exigence de clarté et de compréhensibilité de l’information délivrée.
Une base de données à caractère public devra nécessairement retranscrire l’ensemble des décisions prises par l’hébergeur ou la plateforme en ligne. Fait surprenant, celle-ci ne sera pas gérée par le fournisseur en question, mais par la Commission, étant précisé que les informations dites «personnelles» ne pourront y figurer.
QUELLES SONT LES OBLIGATIONS SUPPLEMENTAIRES A LA CHARGE DES PLATEFORMES EN LIGNE?
La section III du Chapitre III du projet, contenue aux articles 16 à 24, se veut uniquement à destination des plateformes en ligne qui ne peuvent être qualifiées de microentreprises et de petites entreprises au sens de la recommandation 2003/361/CE. De même, sont exclues les hébergeurs en ligne.
Ainsi, les plateformes en ligne devront également, en plus du mécanisme de notification précité, instituer un système interne de traitement des réclamations. Il est également précisé que celui-ci devra être disponible de manière gratuite.
Ledit système viendra donc faire office de support aux décisions qui entraineraient la suppression ou l’accès restreint à un contenu jugé illicite ou «incompatible avec les conditions générales» de la plateforme.
Le contenu illicite pourra revêtir plusieurs formes, en ce sens qu’il sera caractérisé par une information, par la fourniture d’un produit ou un service, mais également par un compte utilisateur.
La législation sur les services numériques fournit également des principes directeurs qui devront nécessairement être pris en compte par le système(6). Ce dernier doit être accessible à tous, à cet égard la plateforme en ligne devra permettre une facilité d’usage. Par ailleurs, la plainte des utilisateurs devra être traitée «dans un délai raisonnable» et en toute objectivité. La plateforme devra également par tout moyen informer l’utilisateur de la décision prise et rappeler l’existence d’un mode de règlement alternatif du litige, par le biais d’un organe extrajudiciaire désigné à cet effet(7).
Cette disposition est complétée par un article 19 qui propose la création d’un «signaleur de confiance». Agrémenté(8) par le coordinateur des services numériques de l’Etat membre compétent, celui-ci devra recevoir l’ensemble des plaintes des utilisateurs de contenu illicite.
L’agrément donné peut être retiré à la suite d’une enquête menée par le coordinateur de l’Etat membre. La Commission laisse donc le soin aux Etats membres de veiller au traitement des plaintes sur leur propre territoire.
Article 20 du projet, vient encadrer les risques d’abus des utilisateurs dans l’utilisation de la plateforme ainsi que dans le recours aux plaintes(9).
Tout d’abord, la plateforme peut restreindre l’accès aux services à tout utilisateur proposant un contenu illicite, sous réserve de l’avoir avertie préalablement et pour un délai «raisonnable», ce qui induit logiquement une appréciation «in concreto».
Afin de ne pas compromettre l’efficacité du dispositif, l’accès au système du traitement des plaintes peut être également suspendu en raison notamment d’une quantité importante de plaintes infondées. Là encore, l’appréciation «in concreto» sera nécessairement de mise.
A cet égard, la politique de la plateforme en la matière doit être clairement exposée dans ses conditions générales, en déterminant notamment ce qui peut constituer un abus et la durée de la suspension (§ 4).
L’article 23 vient également compléter l’obligation d’information contenue à l’article 13, en ce sens qu’il oblige les plateformes en ligne à fournir un ensemble d’informations complémentaires sur les actions engagées à la suite des plaintes par les utilisateurs(10). Le coordinateur de service numérique de l’Etat membre pourra se voir remettre l’ensemble de ces informations sur demande.
Cette Section III est alors bouclée par l’article 24 toujours en rapport avec l’obligation de transparence, mais cette fois à propos de la publicité. En effet, il est précisé que chaque utilisateur devra être en mesure d’identifier un contenu publicitaire proposé sur une plateforme en ligne, notamment par la mention expresse du caractère publicitaire, la personne à l’origine de la publicité ainsi que les paramètres pris en compte pour établir les destinataires de la publicité en question. Bien évidemment, cette identification du caractère publicitaire d’un contenu se fera à la lumière des principes de clarté et de compréhensibilité des informations communiquées aux utilisateurs.
L’AJOUT D’OBLIGATIONS PROPRES AUX «TRES GRANDES PLATEFORMES»
Le projet qualifie de «très grande plateforme» toute entité fournissant ses services à au moins 45 millions d’utilisateurs européens, et ce de manière mensuelle. Il est précisé qu’il s’agit d’un indicateur moyen qui pourra être ajusté afin de le faire correspondre à un certain pourcentage de la population européenne(11).
Le coordinateur des services numériques de chaque Etat membre aura de nouveau un rôle à jouer dans la qualification de «très grande plateforme»: il lui incombe de vérifier la réunion des critères de bénéficiaires effectifs (utilisateurs) au regard des plateformes sous sa compétence. La vérification sera réalisée de manière trimestrielle(12).
Plusieurs obligations sont alors mises à la charge de ces plateformes: ainsi celles-ci devront présenter une analyse annuelle sur «tout risque systémique» consécutif à l’utilisation et le fonctionnement de leurs services.
La Commission a pris le soin de préciser la notion de «risque systémique»: il convient de se rappeler que la législation sur les services numériques s’inscrit dans une logique de transparence et de protection des droits fondamentaux des utilisateurs. Ainsi, les risques systémiques comprennent notamment les effets négatifs possibles sur la liberté d’expression et d’information, la vie privée et familiale, s'y ajoutent les «Fake news» définies comme «la manipulation intentionnelle (…) ayant pour effet réels ou prévisibles sur la protection de la santé publique du discours civiques ou liés aux processus électoraux»(13).
A cet égard les «très grandes plateformes» devront prendre toute mesure pour remédier au «risque systémique». Elles devront également coopérer avec les autorités compétentes.
Les «très grandes plateformes» seront aussi contraintes de publier un rapport sur leur système de modération tous les 6 mois. Quant à l’étude d’impact sur le «risque systémique» engendré par leur utilisation, les audits et résultats de ces derniers, ils devront être mis à la disposition du public, mais également communiqués annuellement à la Commission et au coordinateur. Toutefois, le caractère public de ces documents sera nécessairement atténué par l’exigence de confidentialité de certaines informations.
Enfin, et sans doute inspiré par la crise sanitaire de COVID 19, article 37 du règlement élabore un protocole de crise qui affecterait de manière extraordinaire la sécurité ou la santé publique. Ainsi, la Commission et les «très grandes plateformes» pourront élaborer un plan d’action commun visant à fournir des informations sur la situation de crise.
QUELLES SONT LES SANCTIONS?
En cas de non-respect des obligations imposées par le règlement la Commission laisse le soin aux Etats membres de déterminer le régime des sanctions («effectives, proportionnées et dissuasives») applicables et de «prendre toute mesure nécessaire» pour en assurer sa mise en œuvre.
Elle encadre toutefois les sanctions en précisant que :
- le montant maximum des sanctions imposées pour manquement aux obligations établies ne peut pas dépasser 6 % des revenus ou du chiffre d’affaires annuels du fournisseur de services concerné;
- le montant maximum des sanctions imposées en cas de fourniture d’informations inexactes, incomplètes ou dénaturées, d’absence de réponse ou de non-rectification d’informations inexactes, incomplètes ou dénaturées et de manquement à l'obligation de se soumettre à une inspection sur place ne dépassent pas 1 % des revenus ou du chiffre d’affaires annuels du fournisseur concerné;
- le montant maximum d’une astreinte ne dépasse pas 5 % du chiffre d’affaires quotidien moyen du fournisseur de services concerné au cours de l’exercice précédent par jour, à compter de la date spécifiée dans la décision concernée.
Auteur: Lora Shalganova
(1)Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 (JO L 178 du 17.7.2000, p. 1);
(2)En sus des fournisseurs de services intermédiaires, le règlement a créé deux nouvelles catégories d'opérateurs: les plateformes et les très grandes plateformes;
(3)La Commission, les Etats membres, le Comité européen des services numérique (nouvelle entité crée par le règlement);
(4)Art. 12 du règlement;
(5)Tels que la liberté d’expression, le droit à un recours effectif, la non-discrimination, les droits de l’enfant, la protection des données personnelles, la vie privée en ligne etc.;
(6)Art. 17 du règlement;
(7)Art. 18 du règlement;
(8)Les conditions auxquelles doit répondre le «signaleur de confiance» sont énumérées par art. 19 du règlement;
(9)Art. 20 du règlement;
(10)Nombre de cas soumis à un mode alternatif de règlement, nombre de plaintes infondées, mais aussi le nombre de restrictions prononcées;
(11)Art. 25 du règlement;
(12)A cet égard, le coordinateur des services numériques est «assisté» par les plateformes qui ont une obligation en vertu de l’article 23 de publier, au moins une fois par semestre, des informations relatives à la moyenne mensuelle des bénéficiaires actifs du service dans chaque État membre, calculée sous forme de moyenne au cours des six derniers mois;
(13)Art. 26 §1 c) du règlement.