DSA, plateformes et moteurs : le projet d'amendement du gouvernement

L’après Avia, l’avant DSA
Droit 10 min
DSA, plateformes et moteurs : le projet d'amendement du gouvernement
Crédits : luchezar/iStock

L’annonce a été faite par Cédric O notamment : le gouvernement veut « pré-transcrire » dans notre droit, le futur Digital Services Act. Next INpact diffuse en exclusivité son projet d'amendement, accompagné de nos commentaires.

La destitution numérique de Donald Trump « pose des questions », selon Cédric O. Le secrétaire d'État ne s’est pas privé de critiquer ces réseaux sociaux qui « peuvent décider de censurer quelqu'un suivi par 88 millions de personnes de manière complètement unilatérale », non sans regretter l’absence de « supervision démocratique, sans action de la justice ». 

Réaction similaire de Bruno Le Maire : « ce qui me choque c’est que c'est Twitter qui ferme le compte de Trump. La régulation des géants du numérique ne peut pas et ne doit pas se faire par l’oligarchie numérique elle-même. Elle est nécessaire, mais elle doit se faire par les États et par la Justice ».

Ces critiques s'expliquent dans les coulisses. Le gouvernement prépare en effet une réforme intrépide, dont la couleur fut annoncée par Cédric O pas plus tard que le 6 janvier dernier à l’Assemblée nationale : pré-transcrire dans notre droit, des pans entiers du futur Digital Services Act proposé par la Commission européenne.

Derrière cet anglicisme, un dépoussiérage profond de toute la législation encadrant la responsabilité des plateformes et autres réseaux sociaux. Notre décryptage, ligne par ligne, du texte européen en gestation :

Qu’entend faire le gouvernement dans le détail ? Nous nous sommes procuré l’amendement en préparation. Selon le plan de bataille, il sera déposé pour la séance au tour du projet de loi « confortant le respect des principes de la République » (autrefois baptisée PJL « Séparatisme »).

Au menu, deux grands piliers : d’un côté, des obligations de moyens pour les grands et très grands services en ligne. De l’autre, des compétences nouvelles dévolues au Conseil supérieur de l’Audiovisuel.

Des obligations de moyens imposées même aux acteurs étrangers

Précision introductive : l’amendement ne vise pas l’ensemble des intermédiaires techniques, les fameux « hébergeurs », mais plus précisément les seules plateformes de partage de contenus et les moteurs de recherche, ceux du moins dont l’audience dépasse un seuil de connexion qu’un futur décret définira.

Une certitude, les réseaux sociaux comme Facebook ou Twitter et les plateformes de partage de vidéos ou d’images comme YouTube ou Instagram sont bien concernés.

Ces acteurs, même installés à l’étranger, devront concourir à la lutte contre la diffusion de contenus raccrochés à une série d’infractions (qu'on trouve déjà dans la loi sur la confiance dans l'économie numérique de 2004). L’amendement cible un vaste éventail :

  • l’apologie des crimes [d’atteintes volontaires à la vie, à l’intégrité de la personne, ou au vol], des crimes de guerre, des crimes contre l’humanité, des crimes de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage
  • les provocations à la « discrimination, à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée »
  • les provocations « à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap ou auront provoqué, à l’égard des mêmes personnes, aux discriminations prévues par les articles 225-2 et 423-7 du code pénal
  • le harcèlement sexuel,
  • la traite d’êtres humains,
  • le proxénétisme,
  • la pédopornographie,
  • l’apologie ou provocation au terrorisme
  • et… le fait de donner accès aux mineurs à des messages violents ou pornographiques

Deux remarques : ces contenus ne devront pas nécessairement être manifestement illicites, contrairement à ce qu’exige régulièrement le Conseil constitutionnel depuis 2004. Et c’est donc désormais la loi du pays de destination qui s’appliquera, non celle du pays d’origine.

Pour lutter contre ces infractions placées dans le haut du panier, Facebook, Snapshat, Twitter, Instagram, YouTube, Dailymotion et autre Google seront astreints à une série d’obligations de moyens. Un socle de base inspiré de la loi Avia (censurée par effet domino par le Conseil constitutionnel) et du futur règlement européen Digital Services Act.

La liste elle-même de ces obligations est très longue, occupant près de deux pages de l’amendement diffusé ci-dessous. 

Une longue liste d’obligations de moyens

Dans cet inventaire, retenons qu’ils devront mettre en oeuvre « des procédures et des moyens humains et technologiques proportionnés » dans toute une série d’hypothèses.

Par exemple, afin d’ « informer dans les meilleurs délais les autorités judiciaires ou administratives des actions qu’ils ont mises en oeuvre à la suite des injonctions émises par ces dernières », et relatives aux contenus « haineux ».

Les grandes plateformes et principaux moteurs devront également accuser réception sans délai des demandes adressées par ces autorités visant à transmettre les données d’identification des internautes à l’origine de contenus illicites. Ces mêmes intermédiaires devront informer ces mêmes autorités « dans les meilleurs délais des suites données à ces demandes ». Signe que ces réseaux ne sont pas vraiment l'antre de l'anonymat... 

Une fois retirés, les contenus illicites devront être conservés en mémoire « aux fins de les mettre à disposition de l’autorité judiciaire pour les besoins de la recherche, de la constatation et de la poursuite des infractions pénales ». Un décret pris après avis de la CNIL en définira les modalités pratiques.

Un point de contact unique

Ce n’est pas tout. Facebook, Twitter, YouTube et les autres auront l’obligation de désigner un point de contact, chargé « de la communication avec les autorités publiques » pour la mise en œuvre de ces dispositions. Les CGU à l’avenir, devront être facilement accessibles et intégrer l’interdiction de mettre en ligne ces contenus illicites. Un point qui ne devrait pas entraîner de grande révolution.

Néanmoins, Donald Trump apprendra peut-être que la France veut aussi que les plateformes et moteurs concernés y décrivent « en termes clairs et précis leur dispositif de modération visant à détecter, identifier et traiter ces contenus ».

Seront également détaillés, les procédures, les moyens humains ou automatisés employés outre les mesures mises en oeuvre « affectant la disponibilité, la visibilité et l’accessibilité de ces contenus ». Les recours internes et judiciaires devront tout autant être indiqués.

En suivant les lignes directrices définies par le CSA, ils auront à rendre des comptes sur les moyens et les mesures adoptées pour lutter contre la diffusion de ces contenus. Comme dans le DSA, des tiers de confiance disposeront d’une voie prioritaire pour le traitement des notifications.

La procédure de signalement

N’importe quel internaute pourra signaler la présence d’un contenu raccroché selon lui, à ces mêmes infractions. Cet internaute pourra signaler l’emplacement (l’URL spécifiquement), les raisons pour lesquelles il estime ce contenu illégal, et les informations permettant de la contacter. Ce signalement pourra se faire en conséquence de manière anonyme.

Ces plateformes et moteurs devront mettre en œuvre les moyens proportionnés à leur taille pour accuser réception de ce signalement (s’ils disposent du mail), garantir un examen approprié et rapide et informer l’internaute des suites qu’ils entendent donner et des voies de recours.

S’ils retirent, l’auteur des contenus sera si possible informé des raisons. Il saura même si la décision « a été prise au moyen d’un outil automatisé » et se verra informer là encore des voies de recours internes et judiciaires. Il sera tout autant alerté « des sanctions civiles et pénales sont encourues pour la publication de contenus illicites ».

Des recours internes obligatoires

Les recours internes vont donc devenir obligatoires. L’internaute à l’origine d’un signalement ou d’un contenu litigieux pourra contester la décision de l’opérateur (refus de retrait, retrait).

Plateformes et moteurs auront à veiller « à ce que ces dispositifs soient aisément accessibles et faciles d’utilisation et à ce qu’ils permettent un traitement approprié des recours dans les meilleurs délais, qui ne soit pas uniquement fondé sur l’utilisation de moyens automatisés »

Suspension, bannissement

Les intermédiaires concernés pourront, s’ils le veulent, mettre en place un bannissement temporaire ou définitif. Cette exclusion frappera soit « le compte des utilisateurs qui ont mis en ligne de manière répétée des contenus » raccrochés aux infractions précitées. Soit « des utilisateurs qui ont soumis, de manière répétée, des notifications manifestement infondées relatives » à ces mêmes contenus.

Remarquons que l’adverbe « manifestement » n’est utilisé que dans ce second cas, laissant craindre un sérieux déséquilibre dans les mesures de rétorsion.

Dans une logique très hadopienne, la plateforme ou le moteur devra d’abord adresser un avertissement de l’utilisateur. Pas plus de détails ne sont donnés sur ce point. 

Des obligations supplémentaires pour les très grandes plateformes

Pour les très grandes plateformes et les plus grands moteurs, dont le seuil sera défini là encore par décret, d’autres obligations s’ajoutent, à l’instar de ce que prévoit la proposition de réforme de la Commission européenne.

Ces opérateurs devront :

  • évaluer des risques systémiques liés au fonctionnement et à l’utilisation de leurs services en matière de diffusion des contenus « haineux » et en matière d’atteinte aux droits fondamentaux, notamment à la liberté d’expression
  • mettre en œuvre des mesures « raisonnables, proportionnées et efficaces visant à atténuer les risques de diffusion de ces contenus »
  • rendre compte au public de l’évaluation de ces risques systémiques et des mesures d’atténuation des risques mises en oeuvre.

Ces mesures « raisonnables » pourront porter sur des procédures et des moyens humains et technologiques destinés à « détecter, identifier et traiter ces contenus », mais sans se lancer dans une surveillance généralisée, interdite par le droit de l'UE.

Dans tous les cas, ces intermédiaires devront veiller « à prévenir les risques de retrait non justifié au regard du droit applicable et de leurs conditions générales d’utilisation ». Last but not least, ils rendront compte au Conseil Supérieur de l’Audiovisuel « des procédures et des moyens mis en œuvre ».

Les clefs de la régulation confiées au CSA

Comme la loi Avia, le gouvernement entend en effet profiter de ce projet de loi pour donner les clefs de la régulation des contenus dits « haineux » au Conseil supérieur de l’Audiovisuel. À ce titre, la loi 30 septembre 1986 relative à la liberté de communication est revue et corrigée. C’est le CSA qui veillera au respect de ces nouvelles normes pesant sur les plateformes et les moteurs.

Puisque les dispositions s’appuient sur une obligation de moyens, c’est encore lui qui jaugera la proportionnalité des mesures mises en œuvre, selon les caractéristiques de chaque service en ligne.

Pour parfaire ses connaissances, il se voit reconnaître un droit d’information. Les opérateurs devront lui donner « accès aux principes de fonctionnement des outils automatisés auxquels ils ont recours pour répondre à ces obligations, aux paramètres utilisés par ces outils, aux méthodes et aux données utilisées pour l’évaluation et l’amélioration de leur performance, ainsi qu’à toute autre information ou donnée lui permettant d’évaluer leur efficacité ».

C’est enfin toujours le CSA qui dressera la liste des indicateurs chiffrés qui devront apparaître dans les rapports de transparence, ainsi que « les modalités et la périodicité » de ces publications.

La phase sanction

Le Conseil supérieur de l’audiovisuel pourra mettre en demeure un opérateur de se conformer, dans le délai qu’il fixe, à ces nouvelles obligations de moyens. Si ce dernier ignore ces mises en demeure ou ne la respecte pas entièrement, il pourra se voir infliger une sanction jusqu’à 20 millions d’euros ou 6 % du chiffre d’affaires annuel mondial total de l’exercice précédent (le montant le plus élevé étant retenu).

Quand le même manquement a fait l’objet dans un autre État « d’une sanction pécuniaire calculée sur la base de cette même assiette », alors le montant de cette sanction sera pris en compte pour la détermination de la sanction française.

Quand une plateforme ou un moteur refusera de communiquer une information demandée par le CSA, ou donnera des données fausses ou trompeuses, l’amende pourra atteindre cette fois 1 % du chiffre d’affaires annuel mondial total de l’exercice précédent. Ces décisions pourront être rendues publiques, selon la gravité du manquement.

Le gouvernement veut que ces dispositions entrent en vigueur jusqu’au 31 décembre 2023. Et ce, « pour tenir compte des négociations en cours sur l’adoption d’un règlement européenne sur les services numériques (« Digital Services Act ») dont l’adoption devrait intervenir avant cette date, et qui a vocation à se substituer à terme au présent dispositif ».

L’idée est donc que le régime de responsabilité bientôt examiné au Parlement français, soit revu et accompagné de nouvelles obligations pour les gros et les très gros intermédiaires, et de nouvelles compétences au profit du CSA, en attendant la fin du chantier européen.

Vous n'avez pas encore de notification

Page d'accueil
Options d'affichage
Abonné
Actualités
Abonné
Des thèmes sont disponibles :
Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !