Loi anti-fake news : les lamentations du CSA, le secret des affaires des plateformes

Loi anti-fake news : les lamentations du CSA, le secret des affaires des plateformes

Le murmure des lamentations

Avatar de l'auteur
Marc Rees

Publié dans

Droit

31/07/2020 15 minutes
17

Loi anti-fake news : les lamentations du CSA, le secret des affaires des plateformes

La loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information a confié une partie des clefs de la régulation au Conseil supérieur de l’audiovisuel. Les plateformes sont ainsi contraintes de lui rendre des comptes sur les moyens mis en œuvre, répertoriés dans un bilan public de l’autorité. Ce qui a été fait hier.

« Le CSA regrette », « le CSA déplore », un « défaut d’informations », un « manque de précisions », « peu d’informations (…) données », « peu d’éléments concrets », « très peu d’informations (…) communiquées au Conseil », « peu d’informations (…) fournies sur les moyens humains et financiers »... Les occurrences donnent le ton du document publié par celui qui fut gendarme des seules radios et télévisions, arborant aujourd’hui son képi devant l’océan du web.

La loi contre les fake news, plébiscitée par le gouvernement et les députés favorables au texte, avait déjà connu de laborieux premiers pas. Saisi par quiconque, le juge des référés peut ordonner en période électorale la cessation d’une fausse information diffusée par les plateformes comme Twitter ou Facebook.

Le texte n’est pas une mince affaire. La traque contre ces « allégations ou imputations inexactes ou trompeuses d'un fait de nature à altérer la sincérité du scrutin à venir », suggère en creux l’existence d’une vague vérité officielle. Et autant de risques d’atteintes aux libertés de communication, d’information et d’expression. Il n’était donc pas surprenant que le Conseil constitutionnel se soit montré pointilleux lors de son examen.

Le gardien de la Constitution a ainsi souligné que la lutte contre la diffusion d’allégations ou d’imputations devait répondre à trois conditions cumulatives. Des filtres destinés à éviter la tentation sécuritaire et des coups intolérables à ces libertés fondamentales.

La fake news « doit être artificielle ou automatisée, massive et délibérée ». De même, les passages litigieux ne recouvrent « ni les opinions, ni les parodies, ni les inexactitudes partielles ou les simples exagérations », mais concernent ceux « dont il est possible de démontrer la fausseté, de manière objective ».

Peu surprenant encore que l’une des premières mises en œuvre judiciaires se soit soldée par un échec. Saisi en référé, le tribunal de grande instance de Paris n’avait pu harponner l’un des tweets pectoraux de Christophe Castaner, soutenant, en pleine manifestation des Gilets Jaunes qu’« ici à la Pitié-Salpêtrière, on a attaqué un hôpital. On a agressé son personnel soignant. Et on a blessé un policier mobilisé pour le protéger ». 

Le juge y a vu, non une fake news, mais une « exagération », non « dénuée de tout lien avec des faits réels », une intrusion dans l’hôpital ayant bien eu lieu. Ainsi, la condition selon laquelle l’allégation se devait d’être manifestement inexacte ou trompeuse n’a pas été considérée remplie.

Ce levier devant l’autorité judiciaire, saisie en période électorale, n’est pas le seul prévu malgré la vérité alternative de Mounir Mahjoubi alors secrétaire d’État au numérique.  Il prévoit aussi une couche d’obligations pour les plateformes, du moins celles qui enregistrent plus de 5 millions de visiteurs uniques chaque mois et avant tout un devoir de coopération avec le Conseil supérieur de l’audiovisuel.

Quelques obligations, beaucoup d'invitations

Quelles obligations ? Principalement, elles ont à mettre « en place un dispositif facilement accessible et visible permettant à leurs utilisateurs de signaler de telles informations, notamment lorsque celles-ci sont issues de contenus promus pour le compte d'un tiers ».

Autre chose, les opérateurs ont à prévoir « des mesures complémentaires ». Le législateur s’est contenté cette fois d’en dresser une liste illustrative, donc non impérative, citant par exemple la transparence des algorithmes, « la promotion des contenus issus d'entreprises et d'agences de presse et de services de communication audiovisuelle » ou encore « la lutte contre les comptes propageant massivement de fausses informations ».

Ces mesures, ainsi que les moyens consacrés par chaque plateforme, « sont rendus publics ». À cette fin, chaque opérateur de plateforme se doit d’adresser chaque année au CSA une « déclaration » où sont précisées les modalités de mise en œuvre de cette lutte contre les fake news. Et ces informations sont énumérées par le Conseil, accompagnées de ses remarques, observations ou critiques. C’est ce qui a été fait dans le rapport publié hier.

Onze opérateurs de plateforme ont accepté de coopérer

Onze opérateurs ont adressé cette fameuse déclaration, avec en scène, seize services. Dans le lot, Bing, Google, Yahoo Portal, Yahoo Search, Aufeminin, Dailymotion, Doctissimo, Facebook, Instagram, Jeuxvideo.com, LinkedIn, Microsoft Ads, Snapchat, Twitter, Wikipédia, et YouTube.

Tous dépassent la barre mensuelle des cinq millions de visiteurs uniques. Certains n’ont toutefois présenté aucune mesure, « Il en va ainsi d’espaces de partage de vidéos ou de « places de marchés » intégrés à certains réseaux sociaux ». « D’autres opérateurs, regrette encore le CSA bien démuni, ont estimé qu’ils n’avaient pas à présenter certaines mesures mises en oeuvre sur leur service dès lors que celui-ci fait appel aux technologies d’entreprises tierces sur lesquelles ils n’ont pas de contrôle. Le cas rencontré ici est celui de certains moteurs de recherches qui utilisent des outils d’indexation tiers ». On ne sait si le passage concerne Qwant, en (grande) partie tributaire de Bing.

Face à cette situation, le CSA se limite à appeler « tous les opérateurs de plateformes en ligne visées (…) qui dépassent le seuil de connexion fixé par décret à respecter les obligations ». Un cri dans la nuit numérique.

Une coopération élevée, un degré de précision « très hétérogène »

Pour ceux qui ont répondu, « le degré de coopération des opérateurs s’est révélé, de manière générale, élevé ». Une bonne coopération, des déclarations « riches en informations », mais au niveau de précision « très hétérogène », tempère-t-il poliment. Une véritable douche écossaise.

Ainsi, la plupart des opérateurs se sont contentés de renvoyer le CSA à leur site institutionnel, à leur centre d’aide en ligne, aux politiques de confidentialité ou aux conditions générales d’utilisation. Voilà « qui permet certes d’enrichir les déclarations sans les surcharger, mais peut amener à rendre l’information moins accessible », soupire l’autorité indépendante, armée de sa souris et de son navigateur web.

Le Conseil avait pris soin d’adresser un questionnaire aux opérateurs, pour les épauler dans leurs déclarations. Et même à ce stade, « plusieurs opérateurs ont estimé que le modèle de leur plateforme les prémunissait, de fait, du risque de diffusion de fausses informations et à ce titre, n’ont pas fourni toutes les réponses au questionnaire attendues ». Re-douche écossaise.

Des exemples ? « Peu d’informations ont été données s’agissant des moyens humains et financiers consacrés à la lutte contre les fausses informations », « Les questions relatives à la transparence, à l’utilisation et au fonctionnement des algorithmes ont également été peu traitées, à quelques exceptions près ».

Pourquoi cette timidité ? « Les raisons invoquées sont de trois ordres : le secret des affaires, l’absence de disponibilité des informations et le fait que les moyens dédiés à la lutte contre les fausses informations sont globaux et non répartis spécifiquement sur telle ou telle mesure » rapporte le CSA qui ne peut s’empêcher de déplorer encore une fois de « ne pas disposer d’informations plus précises et, de ce fait, de ne pas pouvoir pleinement évaluer l’application et l’effectivité des mesures mises en œuvre en matière de traitement des signalements et de transparence des algorithmes ». En somme, un garde champêtre démuni pour contrôler l’ensemble des routes de France.

Il faut dire que la loi offre surtout une option aux plateformes : elles ont l’obligation de déployer des mesures complémentaires pour lutter contre les fakes news, mais sont libres de choisir lesquelles. Le législateur fournit certes la fameuse liste illustrative, mais les plateformes peuvent se contenter de placarder un GIF « Les fake news, c’est mal » pour répondre aux contraintes légales, sans sanction à la clef, du moins en l’état de la législation.

La seule vraie obligation concerne la mise en place d’un outil de signalement de fausses informations. Bouton spécifique, formulaire, les formes diffèrent selon les plateformes. Le CSA relève, sans sourciller, que le nombre de signalements déclarés par les opérateurs est de près de 50 000 sur Twitter, 40 000 sur Jeuxvideo.com, 2 512 sur LinkedIn, 40 sur Doctissimo, et... 0 sur Google ou Snapchat, du moins sur le fondement de ce texte.

Des doctrines différentes selon les plateformes

La doctrine évolue aussi selon les acteurs. Selon le rapport du CSA, Twitter et Facebook ne retirent pas « sauf en cas d’entrave au processus électoral ». D’autres optent pour le retrait « lorsqu’il y a une violation de la loi » (Google, Bing), « après déclaration comme telle par l’équipe de modération » (LinkedIn, Dailymotion, Snapchat, Jeuxvideo.com).

Le CSA constate aussi avoir été destinataire de « peu d’informations sur le nombre de contenus retirés après avoir été signalés comme propageant une fausse information ». Facebook, Wikipédia, Auféminin, Microsoft et Yahoo n’ont même communiqué ou précisé aucune donnée, sachant que l’encyclopédie libre obéit à un régime évidemment particulier reposant sur une modération coopérative.

Des moyens peu détaillés

Le Conseil dénonce encore des lacunes dans les informations communiquées par les plateformes, « qu’il s’agisse de l’organisation et des étapes de l’instruction (Google, Snapchat, LinkedIn), des moyens humains et automatisés employés (Twitter, Google, Microsoft) ou de l’information transmise aux utilisateurs sur le suivi des signalements (Twitter, Snapchat) ». Il « aurait souhaité que tous les opérateurs précisent les sources, notamment externes, sur lesquelles les équipes de modération s’appuient pour traiter les signalements ».

On apprend au passage que « les effectifs globaux des équipes de modération oscillent entre 15 000 (Facebook) et 15 (Jeuxvideo.com) », deux sites qui n’ont évidemment pas la même popularité mondiale. Le CSA est resté penaud lorsqu’il a tenté d’en savoir un peu plus sur la formation de ces modérateurs et l’organisation du travail. Récolte tout aussi nulle s’agissant des voies de recours ou de la transparence des algorithmes.

Des algorithmes aussi protégés que la recette du Coca Cola

Ce n’est pas parce que la loi invite à cette transparence que l’ensemble des acteurs allait ouvrir l’ADN de leurs services. « Aucune liste complète d’algorithmes n’a été fournie par les opérateurs, même limitée à une description très synthétique de leurs principes de fonctionnement et objectifs poursuivis ».

Le Conseil les avait certes invités à fournir des informations sous une forme confidentielle, mais seul Dailymotion a fait confiance à l’institution nouvellement débarquée sur le web. Quant à Yahoo, le service « a indiqué dans sa déclaration que les algorithmes utilisés sont ceux de Bing et que les modalités de leur gestion relèvent de Microsoft ». Circulez.

Les contenus labellisés de confiance

L’article 11 de la loi invite aussi les opérateurs à promouvoir les contenus issus d'entreprises et d'agences de presse et de services de communication audiovisuelle (les « EAP-SCA »). Wikipédia et Jeuxvideo.com n’y ont pas recours. « Aufeminin ne dispose pas de journalistes et n’a pas conclu de contrats avec des agences de presse ou mis en place d’actions de fact-checking ». Snapchat (pour Discover) et Yahoo Portal estiment non nécessaire un tel dispositif puisqu’ils opèrent déjà une sélection en amont.

Pour les autres, « peu d’éléments permettent de déterminer si les plateformes recherchent, préalablement à l’identification des contenus ou la certification des comptes, si les EAP-SCA participent à des démarches de labellisation ».

Selon le CSA, « les opérateurs ne mentionnent pas d’éventuelles mesures leur permettant de contrôler la véracité des informations liées à l’identité des organes de presse lorsqu’ils n’en sont pas eux-mêmes à l’origine. Seuls deux moteurs de recherche (Google et Microsoft) indiquent procéder à de telles vérifications, sans préciser avec quelle régularité et selon quels moyens ».

Des mesures complémentaires mises en œuvre par les opérateurs

De ces réticences, il ne faut pas nécessairement déduire une passivité. Autres exemples, des plateformes ont mis en œuvre des mesures complémentaires pour lutter contre les fausses informations, non prévues par la loi.

C’est le cas de Facebook contre les « deepfakes », ces vidéos qui pourraient « laisser croire que le sujet de la vidéo tient des propos qu’il n’a en réalité jamais prononcés » ou « produit d’une intelligence artificielle ou d’un apprentissage automatique qui fusionne, remplace ou superpose des contenus dans une vidéo qui semble vraie ».

Google et Microsoft financent aussi la recherche en la matière. « Google a développé les projets Protection Elections et Project Shield qui consistent en un ensemble de mesures de sécurité afin de lutter contre les applications malveillantes et le hameçonnage ». Microsoft a quant à lui axé ses efforts sur son « Programme de défense de la Démocratie » qui rassemble « des outils de lutte contre les attaques informatiques et s’est doté d’une équipe centralisée de sécurité numérique dans le cadre de sa réponse à l’Appel de Christchurch », etc.

Wikipédia sans représentant en France

Les plateformes ont l’obligation de désigner un représentant légal en France. Il endosse alors la casquette d’interlocuteur référant, s’agissant du devoir de coopération avec le CSA.

Tous ont répondu favorablement, victoire ! … sauf la Wikimedia Foundation Inc. qui « n'emploie aucun salarié en France ». « Wikimedia Foundation est dans l'incapacité de nommer un référent légal en France » confirme sur Twitter Pierre-Yves Beaudouin, président de Wikimédia France. Le dossier sera-t-il trainé en justice ? L’obligation avait en tout cas fait tiquer la Commission européenne, comme le rapporte Me Alexandre Archambault, s’agissant d’une contrainte imposée par un État membre à la société de l’information. 

Au final, le CSA invite, incite voire supplie les plateformes… :

  • à continuer d’améliorer leur outil de signalement en termes d’accessibilité, de clarté et d’ergonomie.
  • à prévoir, dans leur formulaire de signalement, une catégorie « Fausse information »
  • à établir des données statistiques sûres et exhaustives
  • à se doter de normes et sources de référence
  • à procéder à des évaluations, en interne, du traitement des signalements
  • à améliorer l’information des utilisateurs
  • à développer et formaliser une procédure d’urgence
  • à fournir plus d’informations sur l’intelligibilité et le fonctionnement des algorithmes
  • à fournir les informations utiles sur les rôles et degrés de la part de curation humaine et de celle des algorithmes dans la détection et le traitement des fausses informations
  • à lui fournir plus d’informations sur les contenus des EAP-SCA mis en avant.
  • à faire preuve de transparence pour celles qui identifient des sources de contenus comme étant « fiables » ou « d’autorité »
  • à développer les partenariats entre plateformes et des fact-checkers
  • à lui fournir le détail de leur procédure de détection et de traitement des comptes propageant massivement de fausses informations.
  • à fournir des informations sur les recettes publicitaires générées par ces comptes
  • à développer l’information aux utilisateurs sur les mesures de lutte contre de tels comptes.
  • à continuer de mettre en place une labellisation claire et directement accessible des contenus promus, aisément visible par l’utilisateur et précisant distinctement l’identité de l’annonceur.
  • à rendre accessibles en français les politiques publicitaires, notamment en matière de publicités trompeuses ou inappropriées,
  • à faire un effort supplémentaire de transparence à son égard s’agissant des mesures permettant aux contenus sponsorisés de gagner en visibilité.
  • à adopter des mesures relatives à la sécurité des marques et à la démonétisation des pages propageant des fausses informations
  • à faire en sorte que leurs bibliothèques publicitaires, notamment pour les contenus promus d’information se rattachant à un débat d’intérêt général, soient accessibles sans difficulté et faciles d’utilisation.
  • à développer des approches multidimensionnelles en matière d’éducation aux médias et à l’information, à destination de tous les publics
  • à nouer des partenariats pluriannuels avec des institutions reconnues et des acteurs majeurs du monde de l’éducation
  • à évaluer l’impact de leurs actions sur le comportement des utilisateurs.
  • à bâtir avec le monde de la recherche des protocoles opérationnels de partage de données et d’exploitation transparente de ces dernières.

Écrit par Marc Rees

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Quelques obligations, beaucoup d'invitations

Onze opérateurs de plateforme ont accepté de coopérer

Une coopération élevée, un degré de précision « très hétérogène »

Des doctrines différentes selon les plateformes

Des moyens peu détaillés

Des algorithmes aussi protégés que la recette du Coca Cola

Les contenus labellisés de confiance

Des mesures complémentaires mises en œuvre par les opérateurs

Wikipédia sans représentant en France

Commentaires (17)


“ont mis en œuvre des mesures complémentaires pour lutter contre la lutte contre les fausses informations, non prévues par la loi.”



Mais c’est l’évidence même, voyons. <img data-src=" />


Je me rappelle, lorsque Youtube était encore balbutiant, comment le CSA avait voulut devenir le gendarme du web, parce que le web finalement, c’était qu’un gros gros média ; les réseaux sociaux, c’était de la presse en ligne. Ces gens qui font des articles sans être journaliste, ces producteurs de divertissement, ces podcasteurs, il fallait que le CSA puisse avoir son mot a dire dessus. Dès fois que l’on dire des gros mots ou que l’on cite des marques, que l’on y glisse de la publicité non régulé comme que l’on cible les jeunes sans la protection de l’état.



Intéressant, comment le point de vue a changé et le débat évolué. Fakenews, Contenus éditorialisés, Vidéo sponso, jeunes qui s’affichent sur internet… Voilà de bien plus solides arguments.


Le juge y a vu, non une fake news, mais une « exagération », non « dénuée de tout lien avec des faits réels »,



Juste ça.

&nbsp;








TexMex a écrit :



Le juge y a vu, non une fake news, mais une « exagération », non « dénuée de tout lien avec des faits réels »,



Juste ça.

&nbsp;





Le CSA - fort avec les faibles et mou envers les puissants



je dirai :

“fort avec les faibles….et faible avec les forts” ! <img data-src=" />








democrite a écrit :



Le CSA - fort avec les faibles et mou envers les puissants





Mais clair ! Le CSA c’est une fake news à lui tout seul.



CSA est l’outil liberticide du pouvoir pour faire taire ceux qui pensent autrement.








democrite a écrit :



CSA est l’outil liberticide du pouvoir pour faire taire ceux qui pensent autrement.





On n’est plus au temps de l’ORTF… Dites moi des exemples où le CSA n’est qu’un instrument de sensure ?



Il n’y a pas de chaine d’opposition au gouvernement.

Toutes les chaînes diffusent les mêmes programmes avec des jeux d’abrutissement de la population qui est déjà pas très fine.


Ce n’est pas le CSA qui est à l’origine de cette décision, mais bien le juge des référés. Et cette décision était en fait tout à fait logique, à la lumière notamment des éclaircissements du conseil constitutionnel.



Enfin, ici il n’est pas question d’être “faible avec les forts”, puisqu’il s’agit à ce jour de la seul et unique décision relative aux fake-news…


Heureusement que tu ne fais pas partie de la population <img data-src=" />

Ce n’est pas le CSA qui fait le programme des chaines de TV, à noter qu’il existe des chaines payées par la redevance qui font des programmes de qualité…


Arte, ne passons pas à côté des chaines compliqués…[]








Tandhruil a écrit :



Heureusement que tu ne fais pas partie de la population <img data-src=" />

Ce n’est pas le CSA qui fait le programme des chaines de TV, à noter qu’il existe des chaines payées par la redevance qui font des programmes de qualité…



Le gros des budgets de FTV va quand même vers des programmes ultra-basiques, tenus par 2 ou 3 maisons de prod…



Aucune idée, mais disons que la plupart des productions FTV ont une approche “culturelle” :

Musique avec Taratata, culture générale avec Question pur un champion, (bon pour les amours j’avoue je n’ai pas trouvé), Géographie histoire avec les séries Meurtres A… ou Le Floch, etc…

Et j’ai déjà vu sur Public Sénat des débats avec les opposants au gouvernement (bon par contre franchement pro européen).



Alors OK ce n’est pas Netflix, mais est ce que c’est leur vocation ?



Et sur le coté élitiste d’Arte, il me semble qu’e ce moment ils diffusent un best of Hellfest <img data-src=" /> (tiens y a pas de smiley :headbang:)


Je ne suis pas français et je ne bouffe pas la merde que vous regardez. C’est pour cela que vous aller encore vous taper Macron et ses sbires liberticides .


Ce n’est que le reflet de la société. 50% de mainstream et le reste du gâteau partagée à géométrie variable.


Tant mieux, qu’il reste dans le poste. <img data-src=" />