Facebook explique ses règles de modération, un dispositif de contestation à la clé

Des erreurs à l'appel 8
Accès libre
image dediée
Reseaux Sociaux
Vincent Hermann

Facebook s’est lancé récemment dans un exercice périlleux : s’expliquer sur ses règles de modération. Outre une volonté de transparence, le réseau social va permettre de faire appel si un contenu vient à disparaître. Une épreuve complexe pour une entreprise coincée entre fautes humaines et erreurs de machines.

La communication actuelle de Facebook résume toute l’ambivalence de sa situation. Une société privée accompagne son service des conditions qui lui sont propres. Mais quand ledit service est utilisé par plus de deux milliards de personnes, la question de la responsabilité est inévitable. Surtout en plein scandale Cambridge Analytica.

Bien des fois Facebook a dû affronter l’incompréhension, voire la colère, des utilisateurs et associations devant une modération parfois tranchée dont le fonctionnement semblait mystérieux. Qu’à cela ne tienne : personne ne comprend le règlement ? Publions-le ! Même s'il avait déjà fuité l'année dernière.

Deux communications importantes ont donc été faites pour l'introduire. Une première expliquant que les règles internes et externes sont maintenant alignées. Facebook affirme qu’elles sont donc les mêmes pour tout le monde, assurant un premier niveau de transparence sur le travail de ses équipes. Puis une seconde sur la délicate question : pourquoi un contenu a-t-il été supprimé et pas l’autre ?

Facebook en quête de compréhension du public

La société ne veut plus paraître comme un bastion impénétrable régi par des règles obscures. Levée de rideau : 7 500 personnes travaillent d’une manière ou d’une autre sur la modération pour le réseau social. Un chiffre 40 % supérieur à l’année dernière, le recrutement continuant. Réparties en équipes, elles travaillent 24/7 dans une quarantaine de langues.

Facebook mêle quantité et qualité. Monika Bickert, responsable en charge de cette communication, est elle-même une ancienne procureure américaine. Elle décrit : « L’équipe comprend par exemple une ancienne conseillère en matière de viol, une universitaire spécialisée dans les organisations haineuses, une avocate des droits de la personne et une enseignante ».

Si besoin, elle peut demander « l’avis d’experts et d’organisations extérieures à Facebook afin de mieux comprendre les différents points de vue sur la sécurité et l’expression, ainsi que l’impact de nos politiques sur les différentes communautés dans le monde ». En tout, 150 organisations et experts en sécurité répartis sur la planète.

La société assure notamment qu’elle suit les évolutions sociétales et de langage. Mais quelles qu’elles soient, elles ne remettront jamais en cause les « principes fondamentaux de sécurité, de participation et d’équité » au cœur des standards. Des standards identiques donc pour ses équipes et les utilisateurs, affirme l'éditeur. Point important, les directives sont également les mêmes pour l’ensemble des modérateurs dans le monde, assure Facebook.

« Nous commettons parfois des erreurs »

Facebook utilise « une combinaison d’intelligence artificielle et de signalement » venant des utilisateurs « pour identifier les messages, images ou autres contenus susceptibles de violer [les] Standards de la Communauté ». Ce que l’on savait déjà, mais la suite est beaucoup plus intéressante.

Quand la société aborde la délicate question d’une action précise basée sur les signalements, elle reconnait par deux fois qu’elle peut se tromper : « Dans certains cas, nous commettons des erreurs parce que nos politiques ne sont pas suffisamment claires pour nos vérificateurs de contenu ; lorsque c’est le cas, nous nous efforçons de combler ces lacunes. Nous commettons parfois des erreurs car nos processus font appel à des individus, et chacun sait que l’erreur est humaine ».

C’est tout le paradoxe que doivent affronter les géants du Net actuellement, quand la masse des données devient si importante qu’une gestion purement humaine est impossible. Il faut alors en passer par l’automatisation, elle-même fondée sur les algorithmes. Ces derniers imposent de rationaliser les comportements pour les classer en catégories. Or, devant la richesse des interprétations et la subtilité des interactions sociales, ils ne peuvent qu’échouer à prendre en charge toutes les situations.

L’utilisateur pourra faire appel plus tard dans l’année, la communauté impliquée

Facebook reconnait donc que des erreurs peuvent être commises. Quelle surprise, quand on se rappelle des incidents sur lesquels le réseau s'était excusé : 

Mais contrairement à ce que l'entreprise avait toujours fait, il ne s'agit plus d'excuses a posteriori. Cette fois, elle admet que sa machine peut se griper. Avec d'ici quelques mois un mécanisme de contestation face à une censure parfois trop zêlée, là où il n'y avait rien.

Si un message, une photo ou une vidéo est supprimée de votre flux pour infraction aux standards du réseau social, vous recevrez une notification. De là, vous pourrez émettre une demande de révision si vous pensez que rien ne justifiait une telle action. « Généralement sous 24 heures », la requête sera examinée par une équipe, toujours par au moins une personne physique. Si une erreur est constatée, la publication réapparaîtra, accompagnée d’une notification.

Les suppressions « pour cause de nudité ou d’activité sexuelle, d’incitation à la haine et à la violence » seront les premières concernées. Par la suite, le processus sera étendu à d’autres types d’infractions, sans dire lesquels ni quand. En revanche, l’utilisateur pourra s’expliquer si besoin, en donnant des éléments de contexte.

Dès le mois prochain seront également lancés les Forums Facebook, notamment en Allemagne, en France, au Royaume-Uni et aux États-Unis : des « événements publics de dialogue et de débat autour des Standards de la Communauté ». En d’autres termes, une manière de collecter des retours.

Bien que l’action parte sans doute d’un bon sentiment, c’est un autre paradoxe de la situation : Facebook veut générer une participation à son activité. Comme si les utilisateurs devaient s’unir pour aider une entreprise à mieux faire son travail. Le service fourni n’est certes pas payant, mais Facebook est avant tout une plateforme publicitaire dont le carburant est la montagne de données personnelles sur laquelle elle est assise.

La preuve par l’exemple

La deuxième communication de Facebook plonge dans les méandres des raisons menant à la modération. Incitation à la haine, nudité, produits réglementés, exploitation sexuelle ou encore organisations et individus dangereux.

L’incitation à la haine est d’ailleurs un bon exemple des problématiques auxquelles fait face l’entreprise. Facebook veut ainsi laisser s’exprimer tout le monde, avec une place pour la critique, voire la condamnation. Le réseau établit cependant une différence entre cibler un concept, comme une institution religieuse ou un parti politique, et cibler un individu ou un groupe de personnes.

« Race », ethnie, origine nationale, affiliation religieuse, orientation sexuelle, sexe, genre, identité de genre, maladies ou encore handicaps ne sont pas des cibles valides pour des critiques ou condamnations. Et pour mieux expliquer son propos, Facebook donne un exemple.

facebook sin

L’image fournie évoque le mariage entre personnes du même sexe. En réponse aux messages « Love is Love » (l’amour c’est l’amour), cette image répond par « Sin is Sin », autrement dit « le pêché c’est le pêché ». Seule, elle vise le mariage entre personnes de même sexe. S’agissant d’un concept, Facebook ne la modère pas. Si en revanche elle accompagne la photo de deux hommes ou femmes se tenant par exemple par la main, elle sera supprimée. Chaque question de modération peut donc se résumer à la question : la critique/condamnation vise-t-elle une idée, un concept, une structure, ou des personnes ?

Autre exemple dans cette veine : l’immigration. Facebook accepte les critiques et discussions houleuses sur l’immigration elle-même, mais déclare ne pas tolérer les messages de haine contre les migrants.

La question de la nudité est encore plus complexe. De quoi d’ailleurs presque plaindre les modérateurs. Parties génitales, anus, mamelons de femmes (mais pas des hommes), contacts entre bouche et parties génitales ou entre parties génitales, érections, substances découlant d’une activité sexuelle, stimulation des parties génitales ou anales, utilisation de gadgets érotiques ou encore pratiques fétichistes (sic) impliquant (on s’accroche) démembrement, cannibalisme, excréments ou vomi… la liste est longue.

Cette règle générale est émaillée d’exceptions, dont certaines cocasses. L’exemple le plus connu est le mamelon de la femme. Il est par défaut interdit, « sauf lorsqu’il s’agit d’images illustrant l’allaitement, les moments pendant et après l’accouchement, des interventions dans le domaine médical (p. ex., mastectomie, sensibilisation au cancer du sein ou chirurgie de réattribution sexuelle) ou un acte de protestation ».

De même, tous ces contenus peuvent être autorisés s’ils sont publiés à des fins humoristiques, satiriques, pédagogiques, scientifiques ou encore si « l’action » n’est que suggérée, par exemple avec des silhouettes de corps. Mention (très) spéciale à l’interdiction d’exposer un anus ou un gros plan sur des fesses « sauf s’il s’agit d’un montage sur une personnalité publique ». Facebook devrait expliquer pourquoi on ne peut pas montrer des fesses, sauf si on les greffe sur la tête d’une célébrité. Et pourquoi l’opération est possible avec des fesses, mais pas avec un pénis ou un vagin.

Les autres thématiques, sur les produits réglementés, l’exploitation sexuelle ou les individus et organisations posant un danger sont beaucoup moins subtiles. Sauf peut-être sur les drogues en général, les standards de communauté faisant appel au « bon sens », pour reprendre les mots de Facebook.

Pas question donc de publier des règles différentes pour chaque pays, puisque les législations peuvent être très différentes selon les cas. Pas question dès lors d’accepter des photos ou vidéos de drogues à usage non médical. Idem, interdiction de vendre, acheter, échanger, solliciter ou promouvoir les drogues, quelles qu’elles soient. L’appellation « drogues » est dans ce cas très large, puisqu’elle recouvre les médicaments. Une seule exception : des discussions portant sur le sevrage.

Fake news : pas de tolérance zéro

Facebook reconnait que le problème des fausses informations est « épineux et délicat ». Le réseau social ayant été accusé d’avoir véhiculé sans trop chercher à filtrer de nombreuses informations tendant à influencer les utilisateurs pendant des périodes particulières – surtout l'ingérence russe pendant les élections américaines – il fallait bien que l’entreprise communique.

« Limiter la diffusion de fausses informations sur Facebook est une responsabilité » qu’elle prend donc « très au sérieux ». Cependant, elle souhaite « que les gens restent informés sans étouffer les débats publics productifs ». De plus, il y a parfois peu d’écart entre les « fausses informations et la satire ou les avis personnels ». Résultat : « nous ne supprimons pas les fausses informations de Facebook, mais en limitons significativement la diffusion en les affichant plus bas dans le fil d’actualité ».

En plus de « créer une communauté plus informée », Facebook veut réduire la masse des fausses informations via différentes tactiques : couper les vivres des personnes, pages et domaines les propageant, ingérer les avis de la communauté pour mieux entrainer les modèles de détection par apprentissage automatique (algorithmes), en recourant à la vérification par des tiers indépendants, en donnant plus de contexte pour « encourager la culture d’information », tout en continuant à collaborer « avec des universitaires et d’autres organisations » sur la question.

Un vaste programme donc, car « éduquer » les utilisateurs passera par un apprentissage crucial, centré autour de la question : « D’où vient l’information ? ». Une interrogation qui en entraine une autre, cette fois sur les motivations. Il reste particulièrement courant sur le réseau social de voir de très nombreux contenus conçus pour provoquer la colère et faire réagir, fortement partagés sans que l’on connaisse vraiment leur origine. On attend d'ailleurs que la France renforce sa législation en la matière (voir notre article).

Le risque d’une overdose de communication

Facebook tient donc à jouer la transparence. Depuis quelques mois, le nombre de communications a en conséquence grimpé en flèche. Problème : les utilisateurs n’y sont pas habitués.

Porté par un succès qui ne se dément pas – comme le montrent encore ses derniers résultats trimestriels – le réseau social a pu pendant longtemps faire la sourde oreille. Roi en sa demeure, il avait des règles, à sa seule discrétion. Le simple fait qu’il ait fallu tant d’années pour que l’entreprise communique sur ses mécaniques internes en dit long : il y a sensation de danger.

La réaction de Facebook rappelle celle d’autres géants du Net dans le sillage des révélations d’Edward Snowden. Ces grandes entreprises ont commencé un exercice complexe de communication, souhaitant afficher leur bonne volonté, mais coincées par des gouvernements sans nuance et exigeant les données personnelles des utilisateurs.

La réalité, on le sait, est beaucoup plus simple : la confiance est la condition sine qua non pour qu’un tel business model puisse fonctionner. Sans confiance, les utilisateurs ne viennent pas. Qu’elle soit ternie et ils renâcleront. Des données capitales puisqu’elles alimentent le marché de la publicité. Dans les derniers résultats, on peut ainsi voir que sur 11,966 milliards de dollars de revenus, 11,795 milliards proviennent de la publicité, soit 98,6 % environ.

Pas question donc pour Facebook de laisser cette confiance s’effriter, d’où la débauche de communication actuelle. Or, informer les utilisateurs part toujours d’un bon sentiment. Mais l’entreprise ne peut espérer leur forcer la main, ni trop tirer sur la corde de la participation. Facebook est une entreprise privée proposant un service, il est délicat de demander l’aide de ses « clients » pour parfaire son produit.

Reste que les règles publiées permettront d’y voir plus clair, fournissant un point de repère plus précis sur les pratiques internes. On attend également l’arrivée du bouton d’appel, permettant à l’utilisateur de protester s’il se sent injustement spolié. Un outil qui aura d’ailleurs deux avantages : montrer un signe d’ouverture, tout en « inculquant des leçons » aux utilisateurs qui y feront appel.


chargement
Chargement des commentaires...