Facebook tenu de supprimer les contenus illicites identiques ou équivalents, à l’échelle mondiale

Ronronnements au CSPLA 21
Accès libre
image dediée
Crédits : luchezar/iStock
Justice
Marc Rees

La Cour de justice de l’Union européenne vient de juger que Facebook pouvait être enjoint à supprimer des contenus haineux identiques, mais provenant d’une autre personne. Elle étend cette décision aux propos équivalents. Mieux, ce coup de gomme peut être décidé à l’échelle mondiale. Explications, nuancées. 

Il n’est pas rare sur les réseaux sociaux qu’une personnalité soit trainée dans la boue. Insultes, injures, calomnies… Le droit actuel offre une ribambelle de solutions pour retrouver la personne et, le cas échéant, déployer une réponse au besoin pénale.

Attaquer l’auteur d’un propos est une solution. S’en prendre à l’hébergeur, à savoir le site qui a abrité et mis à disposition ces contenus litigieux, en est une autre. Tout aussi efficace, mais aux problématiques lourdes puisque ce tiers est appelé finalement à prendre une décision de suppression, potentiellement attentatoire à la liberté d’expression. D’où l’importance de l’encadrement de ce coup de ciseau. 

En avril 2016, Éva Glawischnig-Piesczek, députée autrichienne et membre du parti des Verts, est prise à partie par un internaute sur Facebook. Furibard contre ses positions sur la politique migratoire, il la traite de « Sale traîtresse du peuple », « idiote corrompue », membre d’un « parti de fascistes » et autres propos nauséabonds.

Le 7 juillet 2016, l’élue exhorte Facebook de supprimer ces contenus. Refus du réseau social. Et l’affaire prend la route des juridictions. Elle obtient une ordonnance de référé qui enjoint Facebook à retirer ces propos, mais également ceux équivalents en attendant que l’affaire soit tranchée au fond.

Le réseau social décide de rendre inaccessibles les premiers contenus en Autriche, mais pas au-delà. L’ordonnance est attaquée en appel. La cour décide que la suppression des contenus équivalents doit bien cesser, mais seulement s’ils sont portés à la connaissance de Facebook.

Devant la Cour suprême autrichienne, le dossier prend encore plus d’ampleur. Avant de trancher, celle-ci a déposé une série de questions préjudicielles pour savoir si la suppression de ces noms d’oiseau, outre l’effacement des contenus identiques (et donc venant d’autres personnes) pouvait être étendu aux contenus équivalents. Mieux, si ces mesures devaient être ordonnées à l’échelle mondiale.

Le cas est une première. La directive de 2000 sur le commerce électronique encadre la responsabilité des intermédiaires comme Facebook. L’article 15 interdit la surveillance généralisée et le 14 permet de mettre en cause l’hébergeur seulement s’il est informé de la présence d’un contenu déclaré comme illicite, mais ne fait rien ou ne le supprime pas rapidement.

Exiger de Facebook de supprimer un contenu, mais également de dénicher puis d’effacer ceux similaires ou équivalents change tout de même l’échelle du problème. La cour va se pencher sur ces dispositions en s’appuyant également sur l’article 18 de la directive de 2000 selon lequel :

« Les États membres veillent à ce que les recours juridictionnels disponibles dans le droit national portant sur les activités des services de la société de l'information permettent l'adoption rapide de mesures, y compris par voie de référé, visant à mettre un terme à toute violation alléguée et à prévenir toute nouvelle atteinte aux intérêts concernés. »

En cas de contenus illicites retrouvés chez un hébergeur, les États membres doivent donc mettre fin à toute violation, mais également prévenir toute réplique.

Suppression des contenus identiques à un contenu déjà déclaré comme tel

Dans une acception très basique de la directive de 2000, la logique voudrait que lorsqu’un contenu illicite est repéré chez un hébergeur comme Facebook, celui-ci reçoive une notification visant une adresse URL déterminée. À charge pour les prétendues victimes de notifier les autres contenus, les uns après les autres, dans une sorte de quêtes sans fin.

19 ans plus tard, la Cour souligne qu’« étant donné qu’un réseau social facilite la transmission rapide des informations stockées par l’hébergeur entre ses différents utilisateurs, il existe un risque réel de voir une information ayant été qualifiée d’illicite être ultérieurement reproduite et partagée par un autre utilisateur de ce réseau. »

De ce constat, elle estime donc légitime qu’une juridiction nationale « puisse exiger de cet hébergeur qu’il bloque l’accès aux informations stockées, dont le contenu est identique à celui déclaré illicite antérieurement, ou qu’il retire ces informations, quel que soit l’auteur de la demande de stockage de celles-ci. ».

Petite phrase, fortes implications. Si Facebook, Twitter, YouTube ou un hébergeur plus modeste doit supprimer les contenus identiques à un contenu déclaré comme illicite, cela lui le conduit finalement à constituer une empreinte numérique puis d'assurer, fusil à l'épaule, une surveillance de l’ensemble des mises en ligne ultérieures. De son guet, elle pourra alors déterminer, dans le flux, les possibles correspondances.

N’est-ce pas là une surveillance généralisée, justement prohibée par la directive de 2000 ? Non, anticipe la cour :

« Eu égard, en particulier, à cette identité de contenu des informations concernées, l’injonction délivrée à cet effet ne saurait être considérée comme instituant à la charge de l’hébergeur une obligation de surveiller, de manière générale, les informations qu’il stocke, ni une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites, au sens de l’article 15, paragraphe 1, de la directive 2000/31 »

En clair, puisque cette surveillance est ciblée sur UN contenu, non TOUS les contenus, elle n’est par définition pas généralisée. Ce petit bout de phrase vient conforter les mesures de filtrage espérées par les partisans de la directive sur le droit d’auteur.

Dans la future loi de transposition de l’article 17 de ce texte, révélé par Next INpact, la France poursuit cette même logique : puisque le filtrage est concentré sur les seuls catalogues des ayants droit, il ne sera pas généralisé. 

Suppression des contenus identiques à un contenu déjà déclaré illicite

Sur cette lancée, Facebook & co. doivent-ils tout autant supprimer les contenus cette fois simplement équivalents ? Un contenu équivalent est celui qui « reste, en substance, inchangé et, dès lors, diverge très peu de celui ayant donné lieu au constat d’illicéité » explique laconiquement la cour.

La décision ne donne aucun exemple concret. Au regard des injures précitées, « Idiote corrompue » serait sans doute jugée équivalent à « petite idiote corrompue » ou « sale idiote corrompue ».

Il serait d’une certaine manière contreproductif d’imposer à la victime de refaire tout un round judiciaire en raison de quelques adjectifs en plus ou en moins.

C'est ce qu'explique la cour : « l’illicéité du contenu d’une information résulte non pas en soi de l’emploi de certains termes, combinés d’une certaine manière, mais du fait que le message véhiculé par ce contenu est qualifié d’illicite, s’agissant, comme en l’occurrence, de propos diffamatoires visant une personne précise ».

Ainsi, selon elle, une injonction visant à supprimer et empêcher la réapparition d’un contenu illicite doit effectivement pouvoir s’étendre à ceux véhiculant en substance le même message, formulés de manière légèrement différente.

Voilà pour les grandes lignes. La cour sait cependant qu’une telle approche nous glisse cette fois beaucoup plus dangereusement sur la pente de la surveillance généralisée, prohibée par les textes européens.

Au regard de la problématique des contenus haineux en ligne, elle tente de ménager les plateaux de la balance en dessinant une ligne de conduite : pour que les informations équivalentes puissent être dézinguées par une plateforme, encore faut-il que l’injonction de retirer et empêcher la réapparition embarque une série d’éléments « dûment identifiés ».

La liste de ces éléments n’est pas donnée exhaustivement, mais la cour cite en exemple :

  • Le nom de la personne concernée par la première violation
  • Les circonstances dans lesquelles cette violation a été constatée
  • Un contenu équivalent à celui déjà déclaré illicite

La CJUE apporte un éclairage important sur ce dernier point : « Des différences dans la formulation de ce contenu équivalent, par rapport au contenu déclaré illicite, ne doivent pas, en tout état de cause, être de nature à contraindre l’hébergeur concerné à procéder à une appréciation autonome dudit contenu ».

En clair, l’hébergeur n’aura pas à se demander, seul dans son coin et selon sa sensibilité rigide ou libertaire, si tel nom d’oiseau est équivalent à une première insulte. L’injonction devra mentionner en dur les contenus dits équivalents. Avec cette liste, la CJUE imagine que Facebook par exemple pourra « recourir à des techniques et à des moyens de recherche automatisés ». En somme, une solution de filtrage pour dénicher et effacer automatiquement une liste de mots interdits ou équivalents à ces interdits.

Puisque cette quête aura un périmètre limité à des contenus de même couleur, les magistrats considèrent là encore qu’il n’y a pas de surveillance généralisée. 

Une injonction à portée mondiale

Enfin, quelle est la portée territoriale de ces suppressions ? Doit-elle être limitée au territoire d’un État membre, de l’Europe ou ordonnée à l’échelle mondiale ?

Sur ce point, la cour est moins tatillonne que sur le droit à l’oubli : rien dans la directive de 2000 sur le commerce électronique n’interdit pareille portée planétaire. Il faut simplement veiller à ce que l’injonction ne contrarie pas les conventions ou les grands principes du droit international. Mais, sans ces contraintes, la suppression peut être effectivement enjointe dans l’ensemble des pays, même hors UE.

Cette jurisprudence devrait évidemment retenir l'attention de Laetitia Avia, dans le cadre de sa proposition de loi contre la haine en ligne bientôt discutée au Sénat, déjà adoptée par les députés.  

Elle soulève tout de même de nombreuses interrogations.

Que se passera-t-il par exemple si une victime française constate que Facebook diffuse au Mexique des contenus qu'il avait lui déjà épinglé dans une notification ? Les intermédiaires techniques sont-ils astreints à une obligation de résultats ou simplement de moyens ? De même, la cour a été peu bavard sur les droits des autres internautes qui pourraient souffrir des solutions de filtrage recommandées par la décision. 


chargement
Chargement des commentaires...