Haine en ligne : l’Arcom publie son rapport sur les actions des plateformes

Bien mais pas top

Haine en ligne : l’Arcom publie son rapport sur les actions des plateformes

Haine en ligne : l’Arcom publie son rapport sur les actions des plateformes

Abonnez-vous pour tout dévorer et ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

À quelques semaines de l'entrée en vigueur du Digital Services Act pour les plus grandes plateformes numériques, l'Arcom publie son rapport sur les actions prises par onze d'entre elles pour lutter contre la haine en ligne.

En amont de l’entrée en vigueur du DSA (Digital Service Act), l’Arcom, Autorité de régulation de la communication audiovisuelle et du numérique, a adressé un questionnaire à onze plateformes numériques. Ajouté à ses propres observations, ce travail a permis au régulateur de produire un état des lieux sur la « lutte contre la diffusion de contenus haineux en ligne », publié le 24 juillet. 

Les règlements sur les marchés et les services numériques expliqués :

L’Arcom a adressé ses questions à Google (pour Google Search et YouTube), LinkedIn, Meta (pour Facebook et Instagram), Microsoft (pour Bing), Pinterest, Snap, TikTok, Twitter (devenu X), Wikimédia (pour Wikipédia) dont chacune des plateformes rentre dans la qualification de très grande plateforme numérique au sens du DSA (VLOPSE). Yahoo (pour Yahoo Search) et Dailymotion ont aussi été interrogés.

Pour les plus grands acteurs, le DSA entrera en effet le 25 août 2023.

Twitter (X) largement en tête des signalements pour contenu haineux

En 2022, Twitter déclare avoir reçu plus d’1,1 million de signalements répondant à la qualification de contenus haineux telle qu’inscrite à l’article 6-4 de la loi pour la confiance dans l’économie numérique (LCEN). De loin le plus élevé, ce nombre intègre aussi bien les signalements d’utilisateurs que les signalements automatisés, et ne représente qu’un tiers du total de signalements reçus. Sur ce total de 3,5 millions (à la définition plus large que celle de la LCEN, donc), des actions de modération ont été prises dans un peu moins d’un cas sur quatre. Sur ce quart de contenus étudiés, une modération a été effectuée après décision humaine dans 34 % de ces cas. 

TikTok rapporte 395 302 signalements de contenus haineux et des actions dans un gros tiers des cas. Il signale par ailleurs utiliser deux procédés de modération : dans 37,6 % des actions de modération, le contenu a été supprimé parce qu’il violait les règles communautaires. Lorsque le signalement était effectué vie l’outil « signaler un contenu haineux en France », en revanche, le contenu était soumis à « géoblocage et suppression » dans 100 % des cas.

Meta annonce 12 424 signalements pour des contenus haineux au sens de la LCEN, des actions de modération dans un cas sur quatre, dont 100 % après décision humaine.

Sur les différents chiffres, les taux de contestation sont, eux aussi, très variables. Chez TikTok, 40,8 % des appels ont donné lieu à infirmation de la décision initiale lorsqu’il s’agissait de violations des règles communautaires, 24,66 % lorsqu’il s’agissait du dispositif spécifique à la France. Chez Dailymotion, 44 % des recours internes ont mené à infirmation de la décision initiale, des taux qui pousse l’Arcom à s’interroger « sur la pertinence de l’action de modération initiale sur ces services ». 

Les autres rapportent seulement 5,2 % de modification de la décision (pour Twitter), 100 % de confirmation (LinkedIn, Meta, Snapchat), ou n’ont pas communiqué les données (soit par refus, soit faute de pertinence pour ce sujet précis). 

Des moyens d’action variables

Si les données de Meta, Pinterest, Snapchat et TikTok restent confidentielles, Twitter (X) a communiqué le nombre de « 149 personnes, dont des francophones » employés à traiter les signalements et recours des utilisateurs en matière de haine en ligne. Wikipédia évoque « une équipe géographiquement répartie d’environ 45 à 50 personnes », et un traitement des dossiers de cette nature par « 2 à 6 personnes ». 

Dailymotion cite une trentaine de personnes, LinkedIn des centaines de réviseurs de contenus « dont environ 29 spécialistes de la langue française », tandis que Microsoft déclare disposer « d'une variété de cadres de modération de contenus avec des centaines d’employés à temps plein, des employés de fournisseurs et d’autres employés occasionnels ».

Dailymotion, Twitter et Wikipédia indiquent que ces équipes sont installées dans l’Union Européenne, voire en France, information laissée plus floue chez les autres quand elle ne reste pas confidentielle, voir non communiquée (pour Yahoo et Google).

L’Arcom s’attarde aussi sur les stratégies de coopération adoptées par les différentes plateformes avec des signaleurs de confiance. En la matière, c’est Meta qui mène la danse avec 17 partenariats établis, suivi de TikTok qui travaille avec 11 partenaires, Twitter et YouTube avec 5 et Snapchat avec 4 (dont, très principalement, l’association E-enfance).

Le rapport salue la qualité de la coopération « entre les opérateurs et les services enquêteurs spécialisés », qui transparait dans le « taux particulièrement élevé de réponses positives (près de 85 %) aux demandes d’information des autorités françaises aux fins d’identifier l’auteur potentiel d’un contenu haineux en ligne ». 

Une transparence accrue, mais encore améliorable

L’Arcom remarque un effort général de transparence, à l’exception de Pinterest qui a refusé la publication partielle ou totale de leurs réponses. Dans une moindre mesure, l’Arcom s’étonne que Google et Tiktok aient fait « état des difficultés pour rassembler et communiquer dans les temps l’ensemble des données demandées, en particulier des données chiffrées », dans la mesure où ce sont des VLOPSE au sens du DSA.

Dailymotion et Meta sont salués comme les meilleurs élèves dans la mesure où les deux entreprises ont construit des « outils et indicateurs pertinents pour objectiver la prévalence des contenus illicites sur leurs services ». À l’inverse, les données remontées de Twitter ou Bing sont insuffisantes. 

Si l’accès aux conditions générales des différentes plateformes s’est amélioré – trois clics maximum sur desktop –, l’Arcom souligne que les efforts de toutes les plateformes pourraient être accrus sur mobile, notamment sur les applications. Par ailleurs, LinkedIn a des efforts particuliers à fournir : c’est le seul service dont certains pans des conditions générales ne soient encore accessibles qu’en anglais. 

Commentaires (5)


Toutes ces plateformes, Twitter et TikTok en tête, ont l’air de suspendre les comptes et supprimer les contenus (ou les monétisations) à la volée sans aucune vérification, à charge pour l’utilisateur de faire appel, à l’aide de procédures plus ou moins obscures.



Les tiktokeuses et tiktokeurs se créent souvent des comptes “de secours” ou “secondaires” pour ne pas perdre d’un coup d’un seul la totalité de leurs followers.



(reply:2144371:consommateurnumérique)




Quelques youtubeurs en ont fait les frais aussi. C’est toujours mauvais quand ça ne passe pas par la case justice…


D’un point de vue pénal, la suppression de contenus permet à la plateforme (au diffuseur) de donner des statistiques qui montrent une action contre les contenus haineux en ligne, sans pour autant endiguer complètement le problème des infractions commises qui n’est pas un problème d’un point de vue commercial (l’audience générée par les interactions agressives génèrent des revenus).



D’un point de vue commercial, aucun utilisateur, même les gros influenceurs/euses (youtubeurs, instagrameurs, tiktokeurs), n’est vraiment capable de négocier un traitement équitable avec la plateforme. C’est la réalité dans tous les secteurs d’activité, pas seulement dans le numérique : un gros fournisseur ou un gros client fera toujours ce qu’il veut sur son marché.



(quote:2144371:consommateurnumérique)
Toutes ces plateformes, Twitter et TikTok en tête, ont l’air de suspendre les comptes et supprimer les contenus (ou les monétisations) à la volée sans aucune vérification, à charge pour l’utilisateur de faire appel, à l’aide de procédures plus ou moins obscures.



Les tiktokeuses et tiktokeurs se créent souvent des comptes “de secours” ou “secondaires” pour ne pas perdre d’un coup d’un seul la totalité de leurs followers.




Pout Tiktok je ne sais pas, mais pour Twitter oui la modération c’est absolument n’importe quoi.
Des personnes qui dénoncent ont vu leur compte suspendu ou verrouillé sans aucune autre raison qu’un signalement de masse, alors qu’à côté d’autres font tranquillement des appels au meurtre et ils ne voient rien de dérangeant dans le contenu!



Twitter (X) largement en tête des signalements pour contenu haineux




D’un autre coté, sur Twitter, tout le monde signale tout le monde pour contenu haineux.



Tweet:
Salut les filles. Aujourd’hui il ne fait pas trop chaud alors je vais aller courir un peu, histoire de perde du poids. Bisous.







:transpi:


Fermer