Devant la CJUE, l’obligation de retrait des discours haineux par Facebook

Cuick 11
Accès libre
image dediée
Crédits : dolphfyn/iStock/Thinkstock
Loi
Marc Rees

Un important dossier a été ausculté ce matin devant la Cour de justice de l’Union européenne. L'enjeu ? Déterminer l’étendue de l’obligation de retrait pesant sur un hébergeur comme Facebook. L’avocat général vient de souffler ses pistes. L’arrêt consécutif est attendu dans quelques mois.

Les lecteurs se souviendront de ce cas déjà évoqué dans nos colonnes l'an passé. Eva Glawischnig-Piesczek, députée autrichienne membre du parti des Verts, avait été épinglée par un internaute sur Facebook. « Sale traîtresse du peuple », « idiote corrompue », membre d’un « parti de fascistes », les noms d’oiseaux fusaient ce 3 avril 2016 alors qu’étaient en cause ses positions sur la politique migratoire.

Le 7 juillet 2016, l’élue demandait à Facebook de supprimer ces contenus. Le refus du réseau social a naturellement conduit le dossier devant les tribunaux. Si l’entreprise américaine a finalement reconsidéré ses positions, le dossier s’est enlisé devant les juridictions nationales. Et pour cause, l’élu n’a pas seulement tenu à ce que ces contenus soient effacés, mais en substance, que ce funeste sort soit réservé également aux « contenus équivalents ». Et ce, s'il-vous-plaît, au niveau mondial.

On voit rapidement le problème posé à la lecture de la directive de 2000 sur le commerce électronique. Son article 15 interdit en effet les mesures de surveillance généralisée imposées à un hébergeur. Or, demander à Facebook de supprimer un contenu, puis de traquer et dézinguer ceux similaires ou équivalents nous fait rapidement glisser vers un tel panoptique.

Dans ses conclusions rendues ce matin, destinées à éclairer la cour, l’avocat général est revenu sur les obligations pesant sur les hébergeurs.

La vaste obligation de retrait des contenus identiques

Si l’article 15 interdit d'abord toute obligation de surveillance généralisée, l’article 14 organise un régime de responsabilité conditionnelle, supposant une notification et la passivité de l’intermédiaire pourtant averti. La même disposition, dans un alinéa, permet enfin à une juridiction ou une autorité d’adresser une injonction visant à prévenir la réitération d’une violation. Voilà pour les bases. 

Dans son arrêt l’Oreal du 12 juillet 2011, la CJUE a déjà expliqué que ces mesures de prévention spécifiques ne pouvaient s’appliquer qu’à l’égard des atteintes de même nature auprès du même destinataire des droits (ici celui des marques). Une surveillance active est donc envisageable, sans violer la prohibition de l'article 15, si elle est spécifique, limitée à un objet et une durée déterminée.

Appliqué à l’affaire en cours, l’avocat général estime qu’un hébergeur peut effectivement être contraint de prévenir toutes les atteintes identiques diffusées par un internaute, mais également par d’autres internautes (notamment les partages).

Non sans un certain malaise : « je suis conscient du fait que ce raisonnement conduit à ce que la portée personnelle d’une obligation en matière de surveillance englobe tout utilisateur et, partant, l’intégralité des informations diffusées au moyen d’une plateforme » estime-t-il. Seulement, pour limiter les risques, il prend soin d’empiler les conditions.

Ces mesures doivent d'abord être suffisamment spécifiques et limitées dans le temps, en l’espèce jusqu’à la clôture d’un référé.

De plus, « la reproduction du même contenu par tout utilisateur d’une plateforme de réseau social me semble, en règle générale, détectable à l’aide d’outils informatiques, et ce sans que l’hébergeur soit obligé d’avoir recours à un filtrage actif et non automatique de l’intégralité des informations diffusées au moyen de sa plateforme ». En somme, un tribunal ne pourra ordonner un filtrage actif et automatisé de tous les contenus.

Enfin, remarque-t-il, cette obligation de rechercher et d’identifier « toutes les informations identiques à celle ayant été qualifiée d’illicite permet d’assurer un juste équilibre entre les droits fondamentaux en présence ». Si l'équilibre s'écroule, la mesure ne pourra donc être ordonnée. 

Il ajoute au passage des considérations procédurales. Les internautes tiers doivent toujours avoir la possibilité de « contester, devant un juge, les mesures d’exécution adoptées par un hébergeur sur la base d’une injonction, cette possibilité ne devant pas être conditionnée par le fait d’être qualifié de partie à une procédure principale ». Une petite remarque qui pourrait être exploitée à l’avenir par ceux dénonçant les mécanismes de liste noire, inaccessibles comme en France, au commun des mortels.

L'obligation relative de retrait des contenus équivalents

S’agissant des informations cette fois équivalentes à un contenu diffamatoire et donc illicite, sont surtout visées celles qui comportent « une erreur de frappe » ou « une syntaxe ou ponctuation nuancée ».

Facebook peut-elle être tenue de supprimer ces modulations et autres variations ? Une obligation de les identifier pourrait, selon lui, tout autant s’envisager si elles proviennent du même utilisateur.

Nuances de rigueur : d’une part, la juridiction à l’origine de la décision devrait toujours « respecter le principe de sécurité juridique et garantir que les effets de cette injonction sont clairs, précis et prévisibles ». D’autre part, l’utilisateur doit toujours pouvoir contester les mesures prises par l’hébergeur dans le sillage de cette décision. Un jugement trop vague, des mesures de restrictions sans possibilité de recours seraient en conséquence hors des clous du droit européen.

L’avocat général réfute cependant la possibilité d’étendre cette obligation à l’ensemble des utilisateurs. En effet, un tel mécanisme imposerait cette fois l’usage de « solutions sophistiquées » et donc coûteuses.

Pire, « non seulement le rôle d’un prestataire exerçant une surveillance générale ne serait plus neutre, en ce sens qu’il ne serait pas seulement technique, automatique et passif, mais ce prestataire, en exerçant une forme de censure, deviendrait un contributeur actif de cette plateforme ». Autant de qualités aux antipodes du statut d’hébergeur qui conduiraient à une censure, opposée à la protection de la vie privée, à celle de la liberté d’entreprise et celle de la liberté d’expression et d’information. 

La portée mondiale de ces obligations de retrait

Reste la question de la portée territoriale de la décision de retrait. Là encore, l’avocat général fait preuve d’une certaine prudence. L’article 15 de la directive de 2000, en raison de son silence sur cette question, « ne s’oppose pas à ce qu’un hébergeur soit contraint de retirer des informations diffusées au moyen d’une plateforme de réseau social au niveau mondial ».

Il remarque cependant qu’un tel retrait pourrait avoir des effets extraterritoriaux dans des États où les mêmes propos pourraient être jugés comme licites. Il suggère en conséquence que les juridictions nationales fassent preuve d’une certaine retenue, d’une « autolimitation » pour éviter tout désagrément international, par exemple en optant pour un géoblocage, une solution nettement plus satisfaisante à ses yeux. 

L’arrêt de la CJUE est attendu dans quelques mois. La cour est libre de suivre ou d’aller à l’opposé du sens de ces conclusions. Autant dire qu’elle devrait nourrir les prochains débats autour de la proposition de loi contre la cyberhaine, qui veut justement lutter contre les contenus illicites sur les plateformes. 


chargement
Chargement des commentaires...