Loi contre la haine : quand le gouvernement rêve d’hygiène sur les réseaux sociaux

Bisounours2020 106
Accès libre
image dediée
Crédits : Marc Rees (licence CC-BY-SA 4.0)
Loi
Marc Rees

La loi de modération des contenus haineux est le prochain grand texte de régulation des contenus en ligne. Le projet sera présenté au deuxième trimestre 2019. Dans une interview accordée au Figaro et un post sur le site américain Medium, Mounir Mahjoubi en a détaillé les grandes lignes.

Comment lutter contre « la haine en ligne » ? L‘arsenal de la législation est aujourd’hui dense. Depuis 2004, les hébergeurs ont l’obligation de révéler aux autorités les données de connexion de l’auteur d’un message litigieux. Ils ont par ailleurs à supprimer les contenus dits manifestement illicites. À l’époque, ces contenus se limitaient aux infractions très graves comme la pédopornographie, mais par l’effet du temps, des lois successives et de la jurisprudence, cette obligation a été étendue à d’autres faits comme les contenus attentatoires au droit d’auteur.

De plus, la loi sur l’égalité réelle entre les femmes et les hommes de 2014 a instauré d’autres obligations. Depuis, les intermédiaires doivent mettre en place un dispositif d’alerte afin que quiconque puisse leur signaler des abus de la liberté d’expression en ligne, en particulier les appels « à la haine à l'égard de personnes à raison de leur sexe, de leur orientation ou identité sexuelle ou de leur handicap ».

En 2018, le gouvernement a même introduit une infraction spécifique contre le « cyberharcèlement groupé ». Un délit destiné à sanctionner les effets de meute sur les réseaux sociaux, à savoir des propos « imposés à une même victime par plusieurs personnes, de manière concertée ou à l'instigation de l'une d'elles, alors même que chacune de ces personnes n'a pas agi de façon répétée ». Ou encore, ceux infligés à une même victime, « successivement, par plusieurs personnes qui, même en l'absence de concertation, savent que ces propos ou comportements caractérisent une répétition ».

Bien que dense, ce régime est jugé trop allégé par l’actuel gouvernement. Dans un futur projet de loi, attendu au deuxième trimestre, il entend faire adopter par le législateur de nouveaux encadrements pour purger les réseaux sociaux.  « Il faut comprendre que les auteurs de contenus haineux comprennent que nous irons les chercher partout où ils sont et que nous ferons cesser leurs violences » annoncent Mounir Mahjoubi et Marlène Schiappa à nos confrères du Figaro.

Mise en quarantaine des contenus

Dans le plan d’action dévoilé par la secrétaire d’État à l’égalité et son homologue au numérique, les plateformes devront pouvoir mettre « en quarantaine » les contenus signalés. Cette obligation, inspirée du rapport Avia, frappera les contenus simplement considérés comme « illicites » par YouTube, Dailymotion, Twitter, Facebook ou encore Instagram.

C’est un glissement très important. Jusqu’à présent, comme expliqué ci-dessus, l’obligation de retrait ne concernait que les faits manifestement illicites, ceux dont l’illicéité était frappante, évidente, n’appelant à aucun autre jugement possible (une image pédophile).

Le texte va donc abaisser ce seuil de déclenchement en demandant aux réseaux sociaux de désactiver un message d’apparence louche.

Ce faisant, le rôle des intermédiaires va s’en trouver décuplé, puisqu’ils devront se mettre davantage encore à la place du juge pour qualifier la salubrité d’un contenu. Autant dire que le risque de faux positif va s’accroitre considérablement par l’effet de la loi.

Le choix du gouvernement d’opter pour une simple suspension, non un retrait définitif, ne changera rien à l’affaire, mais tout au visage des réseaux sociaux : ils auront à ne laisser prospérer que les contenus d’apparence légale, ou hygiéniques pour reprendre l’expression d’Emmanuel Macron.

La suspension sera définitive ou non, puisque ces plateformes remettraient en ligne les messages uniquement « si le signalement n’apparaissait pas justifié », dixit Mounir Mahjoubi sur Medium.

Un retrait très rapide des contenus à risque

Pour les contenus cette fois « à risque », le projet de loi va organiser une obligation de retrait « très contraignant[e] », de « quelques heures » pour les gros acteurs, avec « sanction sévère » à la clef.

Pour les plus petits, dont le seuil n’est pas connu aujourd’hui, « des obligations trop strictes peuvent conduire ces acteurs à censurer de manière excessive » concède Mounir Mahjoubi, qui n’envisage donc pas qu’un tel scénario puisse se produire sur Twitter ou Facebook alors qu’une arme de plusieurs milliers d’euros sera plaquée sur leur tempe.

Ces petits hébergeurs,  en tout cas, auront des obligations plus allégées, dont aucun détail n’est fourni.

Petites ou grosses, ces plateformes devront renseigner très rapidement les données de connexion des auteurs des propos litigieux, dans un délai de quelques heures et sanctions en cas de retard.

Capacité d’appel des internautes

Et les internautes ? Dans une situation comme dans l’autre, les plateformes devront informer « systématiquement leurs utilisateurs des suites données à leur signalement, en précisant notamment si ce dernier faisait effectivement entorse aux règles de modération ».

Les auteurs des contenus dénoncés disposeront quant à eux de la capacité de faire appel, pour espérer que le réseau social change d’avis.

Pourquoi ? Tout simplement parce que les instruments automatisés ou non « commettent encore de nombreuses erreurs », admet le secrétaire d’État au numérique.

Une détection automatisée des contenus suspects

Malgré la reconnaissance de cette défaillance des systèmes de retrait, le plan d’action a déjà les yeux rivés sur la « détection automatique des contenus suspects ». Rien de moins.

Afin de rendre cet arsenal plus réactif, croit savoir le secrétaire d’État au numérique, « il existe des moyens technologiques permettant un traitement plus efficace du contenu dès sa parution – et même avant ».

Il incite en conséquence les plus grosses plateformes à « mobiliser les instruments d’intelligence artificielle qu’elles ont commencé à déployer au cours des dernières années à des fins de modération ».

Son exemple fétiche ? La tuyauterie de Facebook qui « revendique ainsi d’éliminer la quasi-totalité des contenus terroristes avant qu’ils aient pu être diffusés ». En somme, dans l’esprit du gouvernement, si cela fonctionne sur Facebook à  l’égard de l’incitation ou de l’apologie du terrorisme, cela doit nécessairement marcher pour les contenus « haineux ou dangereux ». D’ailleurs ce réseau social est cité plusieurs fois en modèle sur Medium.

L’exemple de l’Origine du Monde, qualifié de pornographique et non d’artistique par les machines de Marck Zuckerberg, n’est malheureusement pas rappelé.

Le locataire de Bercy a surtout confiance en l’avenir. Et quel avenir : « les contenus haineux ou dangereux présentent généralement des caractéristiques plus complexes, mais, avec le temps, il est envisageable que les algorithmes des plus gros réseaux sociaux soient suffisamment entraînés pour en assurer une détection rapide ». Des algorithmes capables de faire la distinction entre le « lol » et les vraies méchancetés, le sarcasme, ou le flirt avec la ligne rouge ?

Mise en avant du « contenu positif » sur les réseaux sociaux

Le plan prévoit d’autres pistes, pour certaines inscrites dans la loi : les plateformes devront par exemple accompagner les victimes, « leur présenter en détail les options qui s’offrent à elles en matière de poursuites, leur proposer une mise en relation avec des partenaires associatifs ou services d’écoute ».

Elles seront surtout incitées « à pousser du contenu positif sur l’ensemble de la surface dont elles disposent, en facilitant l’accès à du contenu pédagogique » afin de sensibiliser les citoyens.

Des contenus positifs mis en avant, des contenus suspects mis en quarantaine, la scène Internet sera-t-elle aussi palpitante qu’une séquence produite par Disney ? 

Coucou le CSA !

Notons que les règles de modération en vigueur pour chaque plateforme devront faire l’objet d’un audit. Un audit qui « pourrait être confié à un régulateur » explique avec pudeur Mounir Mahjoubi.

Le nom « CSA » transpire à chaque ligne puisque celui-ci est déjà en charge de la régulation des contenus audiovisuels et des « fake news ». La récente loi éponyme l’autorise à adresser aux plateformes des « recommandations visant à améliorer la lutte contre la diffusion de telles [fausses] informations », quand la directive sur les services de médias audiovisuels étend ses compétences sur les vidéos créées par les utilisateurs sur YouTube ou Dailymotion. 

Le projet intègrera enfin un volet judiciaire. Exemple donné : Démocratieparticipative.biz, site raciste bloqué à la demande de la justice, mais réapparu sous une autre extension. « La multiplication des « sites miroirs », qui vident de leur portée les décisions de justice, contribue également à affaiblir nos moyens d’action : nous devrons renforcer l’efficacité de notre arsenal pour lutter contre ces contournements manifestes de notre droit et éviter de subir la réapparition de sites nauséabonds » tambourine Mahjoubi.

Rappelons que la décision de blocage, révélée par Next INpact, portait sur le nom de domaine www.democratieparticipative.biz ou « tout site comportant le nom democratieparticipative.biz ». Une formulation pour le moins malheureuse qui n’a pas empêché le site de revenir en ligne, via Tor. 


chargement
Chargement des commentaires...