Peut-on engager la responsabilité de Facebook en cas de publication de messages haineux similaires à de précédents messages illicites ? C’est à cette question épineuse que la Cour de justice est invitée à répondre dans un dossier qui oppose le réseau social à une femme politique autrichienne.
Dans cette affaire, un internaute caché sous le pseudonyme « Michaela Jašková » avait posté en avril 2016 un message injurieux à l’encontre d’Eva Glawischnig-Piesczek, une femme politique autrichienne affiliée aux Verts. Il l’accusait d’être une malhonnête, une « clocharde corrompue » issue d’un « parti fasciste », dézinguant ses positions au regard de la politique migratoire.
Après avoir tardé à réagir, Facebook a bien voulu retirer cette prose en décembre 2016, en la rendant inaccessible uniquement sur le territoire autrichien, pas au-delà. Cette décision a été prise après publication d’une ordonnance à son encontre.
Cependant, Eva Glawischnig-Piesczek a également attaqué le réseau social pour cibler les messages reprenant des contenus analogues ou similaires à la publication litigieuse. C’est sur ce point que le bras de fer avec le réseau social est le plus rude.
Et pour cause, une mesure de suppression trop chirurgicale facilite le contournement des décisions de justice par des modifications mineures apportées au texte litigieux. Inversement, une mesure trop vaste met en marche un filtrage généralisé des contenus, avec un risque inévitable de faux positifs. Comment résoudre cette équation ?
La directive de 2000 et la responsabilité des hébergeurs
Après des décisions de première instance laissant entrevoir cette possibilité au regard du droit interne, la Cour suprême autrichienne est revenue aux fondamentaux, à savoir les dispositions de la directive de 2000 sur la société de l’information.
C’est ce texte qui encadre la responsabilité des intermédiaires techniques. Le principe est connu : face à un contenu dont l’illicéité est frappante, l’intermédiaire technique devient directement responsable s’il ne prend pas les mesures qui s’imposent dès l’instant où il en a eu connaissance. Après le chaud, l’article 15 souffle le froid puisqu’il interdit toute obligation générale de surveillance.
Ainsi, « les États membres ne doivent pas imposer aux prestataires (…) une obligation générale de surveiller les informations qu'ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites ».
Cependant, le considérant 48 de la même directive ouvre une brèche puisqu'il permet aux États membres d'exiger des hébergeurs d’agir « avec les précautions que l'on peut raisonnablement attendre d'eux et qui sont définies dans la législation nationale, et ce afin de détecter et d'empêcher certains types d'activités illicites ».
Les précisions jurisprudentielles
Ces dispositions ont déjà fait couler beaucoup d’encre à la Cour de justice de l’Union européenne, en particulier dans le secteur de la propriété intellectuelle.
Invités à définir le spectre de l’article 15, les juges ont posé dans deux arrêts dits Sabam que le droit européen s’oppose à tout système de filtrage :
- des informations stockées sur les serveurs d’un hébergeur par les utilisateurs,
- qui s’applique indistinctement à l’égard de l’ensemble d’entre eux,
- à titre préventif,
- aux frais exclusifs de cet intermédiaire,
- sans limitation dans le temps.
A contrario, cela signifie qu’est compatible un mécanisme ne cumulant pas ces cinq critères.
En 2011, dans l’affaire L’Oréal vs eBay, la Cour a ajouté qu’un exploitant de place de marché ne peut pas toujours se prévaloir du régime de l’hébergeur. C’est le cas d’une part lorsqu’il a eu connaissance de faits face auxquels un opérateur diligent aurait dû constater l'illicéité des offres à la vente, et d’autre part n'a pas agi promptement pour rendre l'accès impossible à ces offres.
Ces décisions rendues dans le secteur de la propriété intellectuelle n’apportent pas de réponses solides face aux discours haineux. La justice autrichienne a ainsi profité de l’occasion pour adresser une série de questions préjudicielles à la Cour européenne.
Un filtrage étendu aux contenus similaires ?
Elle veut savoir en substance si l’article 15 s’oppose à ce que l’hébergeur soit astreint à retirer non seulement des contenus illicites, mais également des informations identiques voire des informations simplement équivalentes trouvées dans l’État membre concerné voire au niveau mondial.
Les solutions attendues dans quelques mois seront d’un apport important pour la lutte contre les contenus haineux, sans faire l’impasse avec la nécessaire liberté d’expression et d’information.