Après une série de diffusions en direct « choquantes » sur Facebook Live, le réseau social annonce le recrutement de 3 000 modérateurs sur l'année à venir. L'entreprise a aussi réagi à la révélation, en Australie, qu'elle vantait sa capacité à cibler les adolescents en manque de confiance. La direction promet une enquête sur cette étude publicitaire.
Facebook renforce le contrôle des vidéos en direct. Le réseau social annonce le recrutement de 3 000 modérateurs pour Facebook Live, portant le total à 7 500 pour l'ensemble de l'entreprise. Live est l'un des produits dans lequel elle investit massivement ces derniers mois, que ce soit sur les méthodes de diffusion que sur la monétisation.
Pour référence, sa récente certification en ligne pour journalistes réserve une large place à cet outil, alors que la diffusion en direct d'événements est devenue l'un des domaines les plus porteurs pour les réseaux sociaux. Ces dernières semaines pourtant, Facebook Live a été plus remarqué pour la diffusion de contenus « choquants », contre lesquels l'entreprise doit donc agir.
Dans le même temps, elle a été épinglée pour une présentation fournie à une banque australienne, dans laquelle elle affirme pouvoir cibler les adolescents dans leurs moments de doute et de vulnérabilité... Que Facebook serait bien en mesure de pouvoir reconnaître.
Les limites du contrôle a posteriori
Les problèmes se sont donc multipliés dernièrement sur Facebook Live. Le service a, par exemple, diffusé le meurtre d'un nourrisson par un homme en Thaïlande, avant qu'il se suicide. Les deux vidéos sont restées disponibles une journée avant d'être supprimées, après avoir été vues des centaines de milliers de fois, sans que la police ne puisse arriver à temps pour sauver l'un des deux.
Facebook, l'un des deux principaux acteurs de la publicité en ligne, martèle vouloir construire « une communauté plus sûre », où les internautes n'ont pas à subir ce type de diffusion. Les 3 000 nouveaux modérateurs travailleront dans des conditions non précisées, soit en tant qu'employés de Facebook ou prestataires tiers. En 2014, Wired avait rencontré une partie de ces modérateurs aux Philippines, où les géants du Net emploieraient une partie de leurs modérateurs.
Les nouvelles recrues doivent contribuer à repérer les problèmes en direct, plutôt que de compter sur les signalements d'internautes, comme l'entreprise en a l'habitude. Ils sont aussi censés aider à la modération a posteriori des contenus estimés haineux et exploitant des enfants, suite aux millions de remontées que Facebook reçoit chaque semaine.
Bien entendu, Facebook promet de simplifier le signalement et le contrôle des publications par ses équipes, sans préciser la méthode retenue. Ces promesses rappellent fortement celles émises à tour de bras autour des fake news (fausses nouvelles) depuis fin 2016.
Cibler des ados vulnérables, c'est possible
De façon plus discrète, Facebook continue d'améliorer ses outils publicitaires, en allant toujours plus loin dans les capacités de ciblage. C'est ce qu'a encore révélé le journal The Australian, qui a pointé un document fourni à un annonceur australien par le réseau social. Elle y explique pouvoir reconnaître « des adolescents ayant besoin d'un regain de confiance », pour que des entreprises leur adresse des publicités taillées pour y répondre.
Dans ce document daté de cette année, Facebook annonce pouvoir reconnaître des personnes qui, dès l'âge de 14 ans, se sentent « défaits », « dépassés », « stressés », « anxieux », « nerveux », « stupides », « idiots », « inutiles » ou « ratés ». Cela via un système d'analyse des sentiments, à partir de données qui seraient récupérées sur des adolescents australiens et néozélandais, par exemple pour déterminer les moments de la semaine les plus sensibles.
À The Australian, Facebook affirme ouvrir une enquête sur ces pratiques, qui seraient « inappropriées », voire contraires à la loi australienne. La présentation aurait été fournie à « l'une des quatre plus grandes banques australiennes ».
Un ciblage théorique, selon Facebook
« L'analyse effectuée par un chercheur australien était censée aider les annonceurs à comprendre comment les gens s'expriment sur Facebook. Elle n'a jamais été utilisée pour cibler des publicités, s'appuyant sur des données anonymes agrégées » répond Facebook dans un communiqué, jugeant l'article de The Australian « trompeur ».
Ce scandale en suit d'autres. Par exemple sur des publicités immobilières excluant des personnes de certaines ethnies, ce que les outils permettaient d'automatiser. Elle s'est rapidement engagée à interdire ce type de publicités, annonçant lutter contre toutes les annonces discriminantes. Des promesses qui ne semblent pourtant pas empêcher la promotion de sa régie pour le ciblage abusif, avec des reculs réguliers à chaque médiatisation.