Le guide de Facebook pour modérer les contenus des internautes

Le guide de Facebook pour modérer les contenus des internautes

Big Brother is listening

Avatar de l'auteur
Kevin Hottot

Publié dans

Internet

22/05/2017 11 minutes
24

Le guide de Facebook pour modérer les contenus des internautes

Depuis de nombreuses années, la modération des contenus publiés sur Facebook est sujette à de nombreux débats. Que peut-on montrer et dire sur les réseaux sociaux ? Des documents internes concernant les règles de modération ont justement fuité et atterri entre les mains de nos confrères de The Guardian.

Souvenez-vous, en 2011, un professeur des écoles voyait son compte désactivé par Facebook. Son tort ? Avoir publié sur son mur une photographie d'un célèbre tableau de Gustave Courbet, L'Origine du monde, dont il n'est sûrement pas nécessaire de détailler ce qu'il représente. Le réseau social estimait alors qu'il s'agissait d'un contenu pornographique et non artistique, et donc que cette sanction était justifiée. 

Modération sous surveillance 

Sans parler de ce cas connu, la modération opérée par Facebook a souvent fait l'objet de critiques, notamment pour son manque de transparence et les limites du contrôle a posteriori des publications. En 2015, le réseau social avait publié un communiqué visant à clarifier ses règles, mais l'ensemble semblait encore flou. Il a récemment tenté d'améliorer son dispositif en recrutant 3 000 modérateurs supplémentaires, portant le total à 7 500, pour améliorer la gestion au quotidien.

Facebook précise par ailleurs être également « en train de construire de meilleurs outils pour garantir la sécurité de [la] communauté », notamment en cherchant à simplifier le signalement des problèmes. Le tout en assurant « travailler sans relâche pour que Facebook soit le plus sûr possible, tout en garantissant la liberté d’expression ». Tout un programme.

Cependant, même avec des équipes fournies, tout n'est pas rose. L'an dernier, SOS Racisme, l’Union des étudiants juifs de France (UEJF) et SOS Homophobie ont procédé à un test grandeur nature en signalant près de 600 contenus jugés – à leurs yeux – « racistes, antisémites, négationnistes, homophobes, faisant l’apologie du terrorisme ou de crimes contre l’humanité ». Résultat des courses, 4 % des messages signalés ont été supprimés par Twitter, 7 % par YouTube et 34 % par Facebook. Un bilan qui, à première vue, peut sembler plus qu'insuffisant. 

Le petit guide du modérateur

Pour saisir pourquoi tant de contenus « choquants » passent à travers les mailles du filet, il faut déjà comprendre comment celui-ci a été conçu. C'est ici qu'interviennent nos confrères de The Guardian, qui ont pu mettre la main sur l'épaisse documentation de Facebook, donnant aux modérateurs les règles à suivre. 

Le guide révélé par nos confères peut être considéré comme la façon dont Facebook entrevoit son statut d’intermédiaire technique. En Europe, sur le strict terrain de ce statut, un intermédiaire technique est juridiquement à l’abri des contenus manifestement illicites postés par les tiers si, alerté, il les retire de ses serveurs.

Néanmoins, ce régime de responsabilité ne concerne que les contenus dont l’illicéité est évidente, flagrante, frappante sur la rétine (pédopornographie, crime contre l’humanité, etc.). De facto, Facebook va bien au-delà du rôle attendu par un hébergeur en introduisant selon les cas, une grande permissivité ou un épais voile de pudeur.

Et voilà comme nous arrivons à un service en ligne laissant accessible  une vidéo montrant l’égorgement d’une femme, mais censurant des photos d’allaitement

La violence a ses limites

Concernant les représentations graphiques de violences, tout est une question de contexte. Par exemple, exprimer une opinion au sujet de la peine de mort, sur une photo ou une vidéo montrant l'exécution d'une telle peine, n'est pas répréhensible, pas plus que de montrer sa satisfaction à la vue d'une telle peine. « C'est bon de voir cet enfoiré pendu », par exemple, n'est pas un commentaire répréhensible selon le guide.

Attention toutefois, Facebook ne permet de parler favorablement de la peine de mort que dans le cas de « crimes reconnus par Facebook », notamment le viol, le vandalisme, le meurtre ou le vol. Néanmoins, interdiction d'évoquer la peine capitale dans les cas de manifestations pacifiques contre des gouvernements, de restrictions spécifiques au genre dans certains pays ou autour de « sujets controversés comme la religion ». 

Facebook modérationFacebook modération
Crédits : The Guardian

Par contre, toute marque de sadisme lié à la publication d'un contenu violent est sanctionnable. Facebook fournit à ses modérateurs des exemples assez crus de commentaires fautifs comme « J'aime voir combien il souffre » ou « la voir brûler m'excite ». D'une manière générale, tout commentaire célébrant la violence, en faisant la promotion, ou partagé dans un but de sensationnalisme pourra mener à la censure d'un contenu. 

Menaces à géométrie variable

Facebook s'intéresse également aux « menaces crédibles de violence ». Ici, trois possibilités sont offertes aux modérateurs : ignorer le contenu, le supprimer, ou le signaler aux autorités. Cela en fonction de la nature de ces menaces, de la cible et de leur crédibilité. 

Il est à noter que certaines personnes sont plus particulièrement protégées par ces règles. C'est notamment le cas des chefs d'État, des candidats à la présidence, de certains officiers de police, des témoins et informateurs, des activistes et journalistes ou encore des personnes ayant fait l'objet de tentatives d'assassinat par le passé. Facebook évoque également des « groupes vulnérables », tels que les sans-abris, les étrangers et les sionistes.

Facebook modérationFacebook modération
Crédits : The Guardian

Le réseau social veut également tenir compte de la crédibilité et des appels à la violence. Ainsi, écrire « je vais détruire les locaux de Facebook à Dublin » vous amènera quelques ennuis, tout comme dire « que quelqu'un bute Trump », du fait de sa position de chef d'État. Par contre, « allons tabasser des petits gros » ne posera aucun souci.

Recommander l'usage de violence est également interdit. Un commentaire comme « quelques balles pour Hilary Clinton feraient grand bien à ce pays » sera donc supprimé. A contrario, « j'espère que quelqu'un te tuera » ou « vous autres trous du cul feriez bien de prier Dieu pour que je ne perde pas la tête, sans quoi si je la perds, je vais littéralement vous tuer par CENTAINES » sont admissibles. 

Pour qu'un contenu soit signalé aux autorités, il doit visiblement à la fois cibler une personne ou un groupe vulnérable, et laisser entendre une menace crédible. Ainsi un commentaire contenant « je suis prêt à aller à la Trump Tower et à buter ce FDP », sera transmis à la police. Il en est de même si vous menacez de faire un tour dans un quartier pour aller tabasser tous les sans-abris du coin.

Facebook modérationFacebook modération

Crédits : The Guardian

Facebook laisse néanmoins une certaine marge à l'humour. Ainsi, dire à l'un de vos amis que vous allez le « démembrer avec une cuillère » ne vous causera aucun tort, pas plus que « cette blague était géniale, j'vais vous tuer les gars », ou « casse-toi et crève Kevin ».

Une certaine tolérance sur les violences animales

Facebook a également dicté des règles concernant la représentation de violences faites aux animaux. « De manière générale, les images d'abus envers les animaux peuvent être partagées sur le site », peut-on lire sur la documentation du réseau social. Cependant, certains cas considérés comme « perturbants » peuvent êtres marqués comme tels, mais pas censurés. 

Seront ainsi signalées, les photographies montrant des mutilations faites aux animaux, les vidéos montrant cela ou des coups portés par un humain à des êtres vivants ou encore « tout acte de torture causant des blessures serieuses à l'animal ». Sont exclus de ce contexte, les contenus en lien avec la chasse ou la pèche et avec la préparation de nourriture. Dans tous les cas, les règles précédentes concernant le sadisme s'appliquent. Ainsi, publier la vidéo d'une personne frappant un animal en se délectant de la souffrance de la pauvre bête n'est pas admis. 

Le cas des violences sur mineurs 

Autre point délicat pour Facebook, les violences sur mineurs. Le réseau social résume sa politique assez simplement : « Nous autorisons le partage sur le site de preuves d'abus pour permettre l'identification des enfants et leur porter assistance. Cependant, nous ajoutons des protections pour mettre le public à l'abri ».

Sont considérées comme des violences sur mineur, toute vidéo montrant un enfant de moins de 18 ans frappé ou giflé de façon répétée par un adulte, de morsures, de brûlures, de coupures infligées à un mineur, ou encore des actes d'étranglement, de noyade ou d'empoisonnement. Il en est de même pour les vidéos contenant des nourrissons fumant (par exemple du tabac) ou étant secoués par un adulte. 

Facebook modérationFacebook modération
Crédits : The Guardian

Dans ces cas, Facebook ne filtre pas les photos mais marque comme « contenu dérangeant » les vidéos montrant ces actes. Photos et vidéos sont toutefois supprimées si elles sont partagées dans le but de célébrer les actes qu'elles représentent ou par sadisme. Il n'est par contre pas fait mention de signalement aux autorités dans les documents confiés aux modérateurs. 

L'épineuse question du suicide et de l'auto-mutilation

Le réseau social a décidé de ne pas censurer les cas de streaming vidéo où des personnes menacent de s'auto-mutiler ou de se suicider. Facebook considère en effet qu'il « ne souhaite pas censurer ou punir des personnes en détresse », les images sont cependant effacées « une fois qu'il n'y a plus d'opportunité d'aider la personne ». 

Les modérateurs ont également pour consigne d'ignorer certaines menaces, particulièrement celles formulées sous la forme d'émoticônes ou de hashtags, ou encore quand la méthode suggérée n'a que peu de chances d'être efficace. Pour Facebook, ces publications sont surtout des appels à l'aide qui doivent rester en ligne pour que les proches des utilisateurs concernés puissent prendre connaissance de l'état de santé de cette personne. Supprimer ces messages reviendrait à mettre ces utilisateurs encore plus à l'écart, et les conforterait dans l'idée de porter atteinte à leurs jours.

Facebook modération
Crédits : The Guardian

Dans certains cas, les vidéos de suicide pourront rester en ligne. Cela concerne surtout les contenus qui ont un intérêt informatif. « Par exemple, le 11 septembre 2001, des passants ont partagé des vidéos de personnes sautant du haut des tours jumelles. Si elles avaient été diffusées en direct sur Facebook, cela aurait pu être un des cas où nous n'aurions pas supprimé le contenu ni pendant, ni après la diffusion » fait savoir au Guardian Monika Bickert, « head of global policy management » pour Facebook.

Contenus sexuellement explicites et consentement

Dernier point délicat, le contenu sexuellement explicite. Comme nous avons pu le voir en 2011, celui-ci semble particulièrement poser souci au réseau social. Depuis, des règles un peu plus claires ont été établies. Ainsi les œuvres d'art réalisées à la main (peintures, sculptures...) montrant des scènes de nudité sont autorisées. Par contre « l'art numérique » (photographie, dessin assisté par ordinateur...) est systématiquement censuré. Il n'est donc plus question de censurer L'Origine du monde, du moins en théorie.

Facebook modération
Crédits : The Guardian

Le cas du revenge porn est également abordé par Facebook, qui en explique les bases à ses modérateurs. Ces contenus sont identifiés comme tels à partir du moment où ils remplissent trois conditions :

  • L'image a été produite dans un contexte privé
  • La personne à l'image est nue, quasi nue ou sexuellement active
  • Il y a absence de consentement

Le dernier point peut être mis en évidence par la nature des commentaires accompagnant le contenu ou par le titre de la page où il est publié. Facebook explique également que des sources tierces, comme la couverture des faits par les médias peut également permettre d'établir l'absence de consentement.

En début d'année, Facebook a supprimé le groupe français Babylon 2.0, où des dizaines de milliers d'hommes partageaient et jugeaient des photos intimes de femmes, après de nombreux signalements.

La transparence en marche forcée

Si certains salueront des règles de modération de Facebook plutôt claires dans leur ensemble, il est regrettable que le grand public ne puisse en avoir connaissance que par une fuite. En assumant sa transparence, le réseau social aurait pu s’éviter les foudres des utilisateurs, que ce soit lors du maintien en ligne de contenus considérés comme choquants ou par le retrait de contenus a priori inoffensif.

Facebook gagnerait également à mieux préciser pourquoi un contenu n'a pas été retiré plutôt que de simplement indiquer qu'il « n'enfreint pas les règles de la communauté », notamment dans les cas qui peuvent sembler litigieux pour une grande part du public. Mais pour l'heure, c'est surtout sur les questions de transparence que les équipes de Mark Zuckerberg font preuve de modération.

24

Écrit par Kevin Hottot

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Modération sous surveillance 

Le petit guide du modérateur

La violence a ses limites

Menaces à géométrie variable

Une certaine tolérance sur les violences animales

Le cas des violences sur mineurs 

L'épineuse question du suicide et de l'auto-mutilation

Contenus sexuellement explicites et consentement

La transparence en marche forcée

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Commentaires (24)


comment résumer le “bon sens” en un guide de 10 000 pages



edit : à quand la charte de swordage du vendredi de NXI ? :)


Perso, j’aimerai savoir comment appliquer un “Flou” pour contenu explicit.

Je vois parfois des publications floutées (certaines vraiment degueu <img data-src=" />), elles le sont par la personne qui postent ou après signalement ?


Mouais ce qui serait bien c’est que bisounours-book se fasse taper sur les doigts de la même façon que youtube aux uk. Les annonceurs publicitaires qui se retirent pour ne plus être associé à des publications pourries, là ils se bougeraient les miches chez facebook.








Niktareum a écrit :



Perso, j’aimerai savoir comment appliquer un “Flou” pour contenu explicit.

Je vois parfois des publications floutées (certaines vraiment degueu <img data-src=" />), elles le sont par la personne qui postent ou après signalement ?



Avant. FB supprime, ils ne floutent pas <img data-src=" />



De quoi “avant” ?

C’est le posteur qui peut flouter ?


il y a un truc que je ne comprends pas ? C’est le focus sur le revenge porn ?

D’après ce que j’avais compris, tout ce qui était assimilé à du porn et mis en mode publique (sexe, ou téton féminin) était déjà retiré (à tord à raison c’est pas mon propos pour le moment). Donc de facto le revenge Porn est dejà retiré non ?



Ou bien Facebook parle de filtrage de post privée ?&nbsp;


Une pensée pour les petites mains de facebook qui travaillent dans l’ombre des open space en Inde ou en Asie du Sud-Est et qui subissent le harcèlement des perversions de l’Humanité en traitant ces milliards de contenus plus ou moins nauséeux en fonction de ce “code de conduite” de facebook.



à ce sujet : Le “digital labor”, les nouveaux temps modernes”&nbsp;(par Olivier Tesquet - source: Antonio Casilli)


De plus en plus fort!

Fècebouc décide de ce qui est bon, et si Fècebouc a des ratés, tu fais confiance aux marchands de pub…








Frank Einstein a écrit :



De plus en plus fort!

Fècebouc décide de ce qui est bon, et si Fècebouc a des ratés, tu fais confiance aux marchands de pub…







Oui resserrer les cordons de la bourse sera toujours plus utile que des menaces ou des lois. Après on peu toujours ne rien faire.



Tu peux balancer tes tofs compromettantes de qqun sans qu’on voit de tétons, de parties intimes, ou d’actes sexuels…

Le revenge porn est plus un acte qu’un simple post de photos ou de vidéos.








Niktareum a écrit :



De quoi “avant” ?

C’est le posteur qui peut flouter ?



Tu floutes avant, puis tu postes sur FB.



<img data-src=" />



<img data-src=" />



Des publications floutées avec un logo et un message sur le flou :

Cette photo était masquée, car elle montrait du contenu pour adultes, tel que violence graphique.



Tu cliques/tap, et tu vois la photo/vidéo…








Niktareum a écrit :



<img data-src=" />



<img data-src=" />



Des publications floutées avec un logo et un message sur le flou :

Cette photo était masquée, car elle montrait du contenu pour adultes, tel que violence graphique.



Tu cliques/tap, et tu vois la photo/vidéo…



Jamais vu jusqu’à présent. Par contre des photos floutées avant leur publication, des tas.



Oui, mais aucun intérêt <img data-src=" />



Du flou localisé tu veux dire, tel que floutage des tits ou parties intimes je présume ?





En l’occurrence, ce we c’etait sur une publication d’une petite frappe en Amérique du Sud qui a cru malin de cambrioler une maison ou il y avait un des pit bull connu pour être l’un des plus féroce du pays “Tiburon de 4 patas” (le requin à 4 pattes stress).

On voit le clebs la gueule couverted e sang, le mec a l’hosto avec la moitié de la gueule arrachée (genre double face dans Batman, en pire) mais vivant en train de gueuler…

Vraiment degueu, j’aurai pas du cliquer <img data-src=" />








Niktareum a écrit :



Oui, mais aucun intérêt <img data-src=" />



Du flou localisé tu veux dire, tel que floutage des tits ou parties intimes je présume ?



voilà.









Niktareum a écrit :



En l’occurrence, ce we c’etait sur une publication d’une petite frappe en Amérique du Sud qui a cru malin de cambrioler une maison ou il y avait un des pit bull connu pour être l’un des plus féroce du pays “Tiburon de 4 patas” (le requin à 4 pattes stress).

On voit le clebs la gueule couverted e sang, le mec a l’hosto avec la moitié de la gueule arrachée (genre double face dans Batman, en pire) mais vivant en train de gueuler…

Vraiment degueu, j’aurai pas du cliquer <img data-src=" />



J’ai pu voir bien pire au taf… <img data-src=" />









Patch a écrit :



voilà.





J’ai pu voir bien pire au taf… <img data-src=" />





Tu dois faire un métier bien dangereux <img data-src=" />



Ou alors, urgentiste…



Il y a aussi un article du monde aujourd’hui, mais il est réservé aux abonnés :/



http://www.lemonde.fr/pixels/article/2017/05/22/les-damnes-de-la-toile_5131443_4…








uzak a écrit :



Tu dois faire un métier bien dangereux <img data-src=" />



Ou alors, urgentiste…



Dangereux, oui, clairement. J’ai toujours un risque d’agression verbale voire physique dans mon taf…

Et voir des vidéos de lapidation ou d’un mec qui se fait décapiter par un fanatique islamiste quand tu n’y es ni préparé ni prévenu, crois-moi que ca marque…









Z-os a écrit :



Il y a aussi un article du monde aujourd’hui, mais il est réservé aux abonnés :/



http://www.lemonde.fr/pixels/article/2017/05/22/les-damnes-de-la-toile_5131443_4…





2 remarques :




  • ça m’a fait penser aux bannières de pub “cette femme gagne 3600$ par semaine sans quitter son domicile grâce à Google”

  • Mon dieu, c’est beau la technologie

    <img data-src=" />



Je veux bien te croire. J’essaie d’éviter au maximum ce genre de vision. Et même prévenu ou préparé, ça doit quand même piquer un peu…


Bizarrement, quand j’étais plus jeune (2025 ans), je trainais parfois sur des sites dégueu (genre rotten.com) et ca ne me faisait ni chaud ni froid…

Mais depuis un certain temps, j’évite au maximum de voir des trucs même plus softs, et le genre de trucs que j’ai décris plus haut mon un peu “traumatisé”, dans le sens ou l’image me revenait un peu à l’esprit pendant 24h.

Bref, c’est pas plus mal de se préserver, l’adage “ce qui ne te tue pas te rends plus fort” (dans le cas présent, voir du dégueu pour s’y désensibiliser) est bien bidon, l’âme n’est pas un cuir qui se tanne….


Je suis d’accord, mais dans leur cahiers des charges ce ne sera plus considéré comme du “revenge porn” et donc concervé.



PS : Après n’étant pas sur Facebook, je peux me tromper.

&nbsp;








uzak a écrit :



Je veux bien te croire. J’essaie d’éviter au maximum ce genre de vision. Et même prévenu ou préparé, ça doit quand même piquer un peu…



Ici pas trop le choix, on fait régulièrement des fouilles informatiques et c’est comme un Kinder surprise : on ne sait jamais sur quoi on va tomber (même si on se doute toujours un peu selon à quel détenu appartient le matériel)… Et parfois on a des bizarreries (ca fait tout drôle de tomber sur une vidéo d’un mec en train de se taper une chèvre <img data-src=" /> ) ou des horreurs innommables… <img data-src=" />

Enfin heureusement que j’ai un peu de bouteille maintenant, si j’avais vu ca à 20 ans j’aurais sûrement eu besoin d’un psy qques temps…



Ben, justement, ils parlent de consentement, de l’état d’esprit et du comportement des commentaires etc…

Ce qui, je pense, va au contraire en élargir le champs d’application.