Depuis un an, le réseau social charge des médias de confiance de vérifier les contenus remontés par la plateforme. Si un partenaire marque un lien comme trompeur, un message d'alerte était affiché, dans l'espoir de décourager le clic (voire le partage). La société a depuis changé de fusil d'épaule.
Fin décembre, l'entreprise a remplacé son avertissement par une sélection de contenus réputés vrais. Dans un billet sur Medium, Facebook estime que l'alerte pouvait inciter au clic, et rendait difficile de comprendre ce qui pouvait clocher. Pire, un signal aussi fort pouvait simplement renforcer la croyance préexistante, quelle qu'elle soit.
Le renvoi vers des articles plus sûrs éviterait la réaction forte que provoquerait l'alerte sur le contenu, et fonctionne avec une gamme bien plus large d'articles que ceux « faux ». La méthode gagne donc une apparence plus douce, alors que Facebook est sous le feu des critiques pour la diffusion d'articles manipulateurs, dans le cadre de l'enquête sur l'ingérence russe dans l'élection américaine fin 2016.
Mais n'ayons crainte, Mark Zuckerberg a annoncé que son défi 2018 était de « corriger Facebook ».