Facebook annonce de nouvelles règles de modération, orientées vers la tolérance zéro, du moins sur le papier. La mise à jour des règles d’utilisation intervient quelques heures avant l’appel de Christchurch, qui sera dévoilé à Paris, cet après-midi, afin d’accentuer la lutte contre les contenus extrémistes en ligne.
Cet après-midi sera lancé à Paris l’appel de Christchurch. En référence au massacre commis en Nouvelle-Zélande, diffusé en direct sur Facebook Live voilà tout juste deux mois, Emmanuel Macron dévoilera un document de quatre pages réclamant des plateformes et États participants une lutte plus musclée contre le terrorisme et l’extrémisme violent en ligne.
Facebook et Twitter seront de la partie, outre la Nouvelle-Zélande, la Jordanie, l’Irlande, le Sénégal, la Norvège ou encore le Royaume-Uni comme l’avait révélé le JDD dimanche dernier. La réunion sera organisée en marge du salon VivaTech et de la conférence des ministres du G7 sur le terrorisme et le numérique. Les États-Unis brilleront par leur absence.
Ce n’est donc pas un hasard si Facebook a dévoilé ce jour de nouvelles règles de modération portant notamment sur ses flux live. Jusqu’à présent, lorsqu’une personne publiait des contenus contraires aux standards de la communauté, « nous supprimions leurs contenus » rappelle le réseau social.
Ce n’est qu’en cas de réplique depuis le même compte qu’une suspension d’accès était envisagée. « Et dans certains cas, nous les excluions de notre plateforme, en raison de violations mineures répétées ou, dans des cas plus rares, en raison d’une unique violation flagrante (par exemple l’utilisation d’une image de propagande terroriste comme photo de profil ou le partage d’images d’exploitation infantile) ».
Vers une politique de tolérance zéro
Désormais, Facebook promet de serrer la vis : « toute personne qui enfreindra nos politiques les plus sensibles se verra interdire l’utilisation de Facebook Live pour une période déterminée – par exemple 30 jours – à compter de sa première infraction ». Une politique dite de « première infraction », ou de tolérance zéro qui pourrait être étendue à d’autres domaines dans les prochaines semaines.
Le service en ligne n’est pas bavard en détails, mais décrit cet exemple : « quelqu’un qui partage un lien vers un communiqué d’un groupe terroriste sans élément de contexte se verra immédiatement interdire l’utilisation de Facebook Live pour une période déterminée ». En clair, il serait possible de contourner ce couperet en ajoutant quelques phrases descriptives à un contenu plus que sulfureux.
Des recherches pour aiguiser les filtres
Lorsque la vidéo de Christchurch a été partagée à tour de bras sur le réseau social, « Facebook, qui a été utilisé comme plateforme pour la diffuser en direct, a tenté de [la] supprimer : ils l'ont enlevée 1,5 million de fois » relate Jacinda Arden, Première ministre néo-zélandaise, au Monde.
Mais Facebook ajoute que « certains utilisateurs [l]’ont modifiée après qu’elle ait été retirée afin d’éviter qu’elle ne soit détectée et pouvoir la publier à nouveau ». Les outils aujourd'hui en place pour traquer ces modifications n'ont visiblement pas été suffisamment aiguisés. Pour mieux répondre à cette stratégie d’évitement, l’entreprise annonce des partenariats avec trois universités américaines : Maryland, Cornell et Berkeley.
Leurs futurs travaux viseront à « détecter les manipulations de contenus (photos, vidéo et audio) » et à « distinguer les publications involontaires de celles d’acteurs qui, au contraire, manipulent intentionnellement des vidéos et des photos ».
Ces annonces interviennent alors que la France entend accentuer la régulation des réseaux sociaux. Un rapport remis la semaine dernière préconise ainsi d’ouvrir à une autorité administrative indépendante l’accès à leurs algorithmes, tout en imposant des obligations de transparence qui s’alourdiraient avec la popularité de chaque service en ligne.