Le guide de Facebook pour modérer les contenus des internautes

Big Brother is listening 24
Accès libre
image dediée
Reseaux Sociaux
Kevin Hottot

Depuis de nombreuses années, la modération des contenus publiés sur Facebook est sujette à de nombreux débats. Que peut-on montrer et dire sur les réseaux sociaux ? Des documents internes concernant les règles de modération ont justement fuité et atterri entre les mains de nos confrères de The Guardian.

Souvenez-vous, en 2011, un professeur des écoles voyait son compte désactivé par Facebook. Son tort ? Avoir publié sur son mur une photographie d'un célèbre tableau de Gustave Courbet, L'Origine du monde, dont il n'est sûrement pas nécessaire de détailler ce qu'il représente. Le réseau social estimait alors qu'il s'agissait d'un contenu pornographique et non artistique, et donc que cette sanction était justifiée. 

Modération sous surveillance 

Sans parler de ce cas connu, la modération opérée par Facebook a souvent fait l'objet de critiques, notamment pour son manque de transparence et les limites du contrôle a posteriori des publications. En 2015, le réseau social avait publié un communiqué visant à clarifier ses règles, mais l'ensemble semblait encore flou. Il a récemment tenté d'améliorer son dispositif en recrutant 3 000 modérateurs supplémentaires, portant le total à 7 500, pour améliorer la gestion au quotidien.

Facebook précise par ailleurs être également « en train de construire de meilleurs outils pour garantir la sécurité de [la] communauté », notamment en cherchant à simplifier le signalement des problèmes. Le tout en assurant « travailler sans relâche pour que Facebook soit le plus sûr possible, tout en garantissant la liberté d’expression ». Tout un programme.

Cependant, même avec des équipes fournies, tout n'est pas rose. L'an dernier, SOS Racisme, l’Union des étudiants juifs de France (UEJF) et SOS Homophobie ont procédé à un test grandeur nature en signalant près de 600 contenus jugés – à leurs yeux – « racistes, antisémites, négationnistes, homophobes, faisant l’apologie du terrorisme ou de crimes contre l’humanité ». Résultat des courses, 4 % des messages signalés ont été supprimés par Twitter, 7 % par YouTube et 34 % par Facebook. Un bilan qui, à première vue, peut sembler plus qu'insuffisant. 

Le petit guide du modérateur

Pour saisir pourquoi tant de contenus « choquants » passent à travers les mailles du filet, il faut déjà comprendre comment celui-ci a été conçu. C'est ici qu'interviennent nos confrères de The Guardian, qui ont pu mettre la main sur l'épaisse documentation de Facebook, donnant aux modérateurs les règles à suivre. 

Le guide révélé par nos confères peut être considéré comme la façon dont Facebook entrevoit son statut d’intermédiaire technique. En Europe, sur le strict terrain de ce statut, un intermédiaire technique est juridiquement à l’abri des contenus manifestement illicites postés par les tiers si, alerté, il les retire de ses serveurs.

Néanmoins, ce régime de responsabilité ne concerne que les contenus dont l’illicéité est évidente, flagrante, frappante sur la rétine (pédopornographie, crime contre l’humanité, etc.). De facto, Facebook va bien au-delà du rôle attendu par un hébergeur en introduisant selon les cas, une grande permissivité ou un épais voile de pudeur.

Et voilà comme nous arrivons à un service en ligne laissant accessible  une vidéo montrant l’égorgement d’une femme, mais censurant des photos d’allaitement

La violence a ses limites

Concernant les représentations graphiques de violences, tout est une question de contexte. Par exemple, exprimer une opinion au sujet de la peine de mort, sur une photo ou une vidéo montrant l'exécution d'une telle peine, n'est pas répréhensible, pas plus que de montrer sa satisfaction à la vue d'une telle peine. « C'est bon de voir cet enfoiré pendu », par exemple, n'est pas un commentaire répréhensible selon le guide.

Attention toutefois, Facebook ne permet de parler favorablement de la peine de mort que dans le cas de « crimes reconnus par Facebook », notamment le viol, le vandalisme, le meurtre ou le vol. Néanmoins, interdiction d'évoquer la peine capitale dans les cas de manifestations pacifiques contre des gouvernements, de restrictions spécifiques au genre dans certains pays ou autour de « sujets controversés comme la religion ». 

Facebook modérationFacebook modération
Crédits : The Guardian

Par contre, toute marque de sadisme lié à la publication d'un contenu violent est sanctionnable. Facebook fournit à ses modérateurs des exemples assez crus de commentaires fautifs comme « J'aime voir combien il souffre » ou « la voir brûler m'excite ». D'une manière générale, tout commentaire célébrant la violence, en faisant la promotion, ou partagé dans un but de sensationnalisme pourra mener à la censure d'un contenu. 

Menaces à géométrie variable

Facebook s'intéresse également aux « menaces crédibles de violence ». Ici, trois possibilités sont offertes aux modérateurs : ignorer le contenu, le supprimer, ou le signaler aux autorités. Cela en fonction de la nature de ces menaces, de la cible et de leur crédibilité. 

Il est à noter que certaines personnes sont plus particulièrement protégées par ces règles. C'est notamment le cas des chefs d'État, des candidats à la présidence, de certains officiers de police, des témoins et informateurs, des activistes et journalistes ou encore des personnes ayant fait l'objet de tentatives d'assassinat par le passé. Facebook évoque également des « groupes vulnérables », tels que les sans-abris, les étrangers et les sionistes.

Facebook modérationFacebook modération
Crédits : The Guardian

Le réseau social veut également tenir compte de la crédibilité et des appels à la violence. Ainsi, écrire « je vais détruire les locaux de Facebook à Dublin » vous amènera quelques ennuis, tout comme dire « que quelqu'un bute Trump », du fait de sa position de chef d'État. Par contre, « allons tabasser des petits gros » ne posera aucun souci.

Recommander l'usage de violence est également interdit. Un commentaire comme « quelques balles pour Hilary Clinton feraient grand bien à ce pays » sera donc supprimé. A contrario, « j'espère que quelqu'un te tuera » ou « vous autres trous du cul feriez bien de prier Dieu pour que je ne perde pas la tête, sans quoi si je la perds, je vais littéralement vous tuer par CENTAINES » sont admissibles. 

Pour qu'un contenu soit signalé aux autorités, il doit visiblement à la fois cibler une personne ou un groupe vulnérable, et laisser entendre une menace crédible. Ainsi un commentaire contenant « je suis prêt à aller à la Trump Tower et à buter ce FDP », sera transmis à la police. Il en est de même si vous menacez de faire un tour dans un quartier pour aller tabasser tous les sans-abris du coin.

Facebook modérationFacebook modération

Crédits : The Guardian

Facebook laisse néanmoins une certaine marge à l'humour. Ainsi, dire à l'un de vos amis que vous allez le « démembrer avec une cuillère » ne vous causera aucun tort, pas plus que « cette blague était géniale, j'vais vous tuer les gars », ou « casse-toi et crève Kevin ».

Une certaine tolérance sur les violences animales

Facebook a également dicté des règles concernant la représentation de violences faites aux animaux. « De manière générale, les images d'abus envers les animaux peuvent être partagées sur le site », peut-on lire sur la documentation du réseau social. Cependant, certains cas considérés comme « perturbants » peuvent êtres marqués comme tels, mais pas censurés. 

Seront ainsi signalées, les photographies montrant des mutilations faites aux animaux, les vidéos montrant cela ou des coups portés par un humain à des êtres vivants ou encore « tout acte de torture causant des blessures serieuses à l'animal ». Sont exclus de ce contexte, les contenus en lien avec la chasse ou la pèche et avec la préparation de nourriture. Dans tous les cas, les règles précédentes concernant le sadisme s'appliquent. Ainsi, publier la vidéo d'une personne frappant un animal en se délectant de la souffrance de la pauvre bête n'est pas admis. 

Le cas des violences sur mineurs 

Autre point délicat pour Facebook, les violences sur mineurs. Le réseau social résume sa politique assez simplement : « Nous autorisons le partage sur le site de preuves d'abus pour permettre l'identification des enfants et leur porter assistance. Cependant, nous ajoutons des protections pour mettre le public à l'abri ».

Sont considérées comme des violences sur mineur, toute vidéo montrant un enfant de moins de 18 ans frappé ou giflé de façon répétée par un adulte, de morsures, de brûlures, de coupures infligées à un mineur, ou encore des actes d'étranglement, de noyade ou d'empoisonnement. Il en est de même pour les vidéos contenant des nourrissons fumant (par exemple du tabac) ou étant secoués par un adulte. 

Facebook modérationFacebook modération
Crédits : The Guardian

Dans ces cas, Facebook ne filtre pas les photos mais marque comme « contenu dérangeant » les vidéos montrant ces actes. Photos et vidéos sont toutefois supprimées si elles sont partagées dans le but de célébrer les actes qu'elles représentent ou par sadisme. Il n'est par contre pas fait mention de signalement aux autorités dans les documents confiés aux modérateurs. 

L'épineuse question du suicide et de l'auto-mutilation

Le réseau social a décidé de ne pas censurer les cas de streaming vidéo où des personnes menacent de s'auto-mutiler ou de se suicider. Facebook considère en effet qu'il « ne souhaite pas censurer ou punir des personnes en détresse », les images sont cependant effacées « une fois qu'il n'y a plus d'opportunité d'aider la personne ». 

Les modérateurs ont également pour consigne d'ignorer certaines menaces, particulièrement celles formulées sous la forme d'émoticônes ou de hashtags, ou encore quand la méthode suggérée n'a que peu de chances d'être efficace. Pour Facebook, ces publications sont surtout des appels à l'aide qui doivent rester en ligne pour que les proches des utilisateurs concernés puissent prendre connaissance de l'état de santé de cette personne. Supprimer ces messages reviendrait à mettre ces utilisateurs encore plus à l'écart, et les conforterait dans l'idée de porter atteinte à leurs jours.

Facebook modération
Crédits : The Guardian

Dans certains cas, les vidéos de suicide pourront rester en ligne. Cela concerne surtout les contenus qui ont un intérêt informatif. « Par exemple, le 11 septembre 2001, des passants ont partagé des vidéos de personnes sautant du haut des tours jumelles. Si elles avaient été diffusées en direct sur Facebook, cela aurait pu être un des cas où nous n'aurions pas supprimé le contenu ni pendant, ni après la diffusion » fait savoir au Guardian Monika Bickert, « head of global policy management » pour Facebook.

Contenus sexuellement explicites et consentement

Dernier point délicat, le contenu sexuellement explicite. Comme nous avons pu le voir en 2011, celui-ci semble particulièrement poser souci au réseau social. Depuis, des règles un peu plus claires ont été établies. Ainsi les œuvres d'art réalisées à la main (peintures, sculptures...) montrant des scènes de nudité sont autorisées. Par contre « l'art numérique » (photographie, dessin assisté par ordinateur...) est systématiquement censuré. Il n'est donc plus question de censurer L'Origine du monde, du moins en théorie.

Facebook modération
Crédits : The Guardian

Le cas du revenge porn est également abordé par Facebook, qui en explique les bases à ses modérateurs. Ces contenus sont identifiés comme tels à partir du moment où ils remplissent trois conditions :

  • L'image a été produite dans un contexte privé
  • La personne à l'image est nue, quasi nue ou sexuellement active
  • Il y a absence de consentement

Le dernier point peut être mis en évidence par la nature des commentaires accompagnant le contenu ou par le titre de la page où il est publié. Facebook explique également que des sources tierces, comme la couverture des faits par les médias peut également permettre d'établir l'absence de consentement.

En début d'année, Facebook a supprimé le groupe français Babylon 2.0, où des dizaines de milliers d'hommes partageaient et jugeaient des photos intimes de femmes, après de nombreux signalements.

La transparence en marche forcée

Si certains salueront des règles de modération de Facebook plutôt claires dans leur ensemble, il est regrettable que le grand public ne puisse en avoir connaissance que par une fuite. En assumant sa transparence, le réseau social aurait pu s’éviter les foudres des utilisateurs, que ce soit lors du maintien en ligne de contenus considérés comme choquants ou par le retrait de contenus a priori inoffensif.

Facebook gagnerait également à mieux préciser pourquoi un contenu n'a pas été retiré plutôt que de simplement indiquer qu'il « n'enfreint pas les règles de la communauté », notamment dans les cas qui peuvent sembler litigieux pour une grande part du public. Mais pour l'heure, c'est surtout sur les questions de transparence que les équipes de Mark Zuckerberg font preuve de modération.


chargement
Chargement des commentaires...