Les vraies pistes du rapport Bronner contre les fakes news

A consommer sans modération ?
Droit 11 min
Les vraies pistes du rapport Bronner contre les fakes news
Crédits : Elysee.fr

En octobre, le chef de l’État lançait la commission « Bronner », du nom de son président. Une instance chargée de « dévoiler une série de propositions concrètes dans les champs de l'éducation, de la régulation, de la lutte contre les diffuseurs de haine et de la désinformation ». Elle a rendu hier son rapport de 124 pages (pdf).

Dans les rangs de cette commission de 14 membres, Gérald Bronner, professeur de sociologie à l’Université de Paris, membre de l'Académie nationale de médecine, de l'Académie des technologies, de l'Institut universitaire de France, Roland Cayrol (politologue), Annette Wieviorka (historienne spécialiste de la Shoah de l'histoire des Juifs au XXe siècle) ou encore Aude Favre (journaliste web).

Celle-ci avait cosigné le documentaire diffusé par Complément d’Enquête sur les « fake news » qui avait épinglé Tipeee. Obligeant du coup la plateforme de financement participatif à rappeler le régime de la responsabilité des hébergeurs...

Le rapport « n’a pas vocation à se poser en juge de vérité ou à éradiquer la désinformation ou la mésinformation en ligne, mais à réfléchir aux moyens techniques, juridiques, sociétaux d’en limiter les conséquences négatives sur la vie démocratique », dixit sa conclusion.

Le document, fruit d'une centaine d'auditions menées ces trois derniers mois, contient néanmoins 30 recommandations pour espérer limiter la propagation des contenus « qui nuisent à la vie démocratique » afin de « dissuader les comportements malveillants, sanctionner les pratiques illicites, améliorer la prévention des risques et renforcer la vigilance des utilisateurs ».

Autant d’impérieux leviers quand, aujourd’hui, « la défiance à l’égard des médias, des institutions et du gouvernement est un facteur corrélé tant avec la fréquentation sur Internet de sources d’information non fiables qu’avec l’adhésion aux théories du complot ».

Un mouvement qui s’explique « probablement par le fait qu’une telle défiance conduit les personnes concernées à rechercher des informations sur des sources "alternatives" aux médias traditionnels, qu’elles considèrent comme biaisés, corrompus ou à la solde du pouvoir ».

Sortir de la logique algorithmique, modération XXL des influenceurs

Pour lutter contre les biais de popularité, le rapport préconise plusieurs mesures afin de « sortir d’une logique algorithmique fondée sur un modèle strictement commercial ».

Il suggère de permettre aux utilisateurs de pouvoir désactiver les « métriques de popularité et l’éditorialisation algorithmique », au motif que « plus une personne est exposée à une idée, plus les chances seront grandes qu’elle la fasse sienne et finisse par la diffuser à son tour ».

Autre piste : « Encourager une modération accrue des influenceurs par les plateformes afin de les responsabiliser ». Les plateformes se verraient encourager à modérer plus attentivement ces personnes, dont un claquement de doigts peut modifier l’opinion.

Reste à déterminer à partir de quand un compte important passe au stade d'« influenceur », sachant que les critères sur le réseau social A pourrait être différent du réseau social B… En outre, qu’est-ce qu’une modération plus « attentive » ou « accrue » ?

En balancier, il demande de « donner plus d’influence à la compétence en mettant en avant les comptes d’experts et en amplifiant leur contenu (lorsqu’ils portent sur un sujet relatif à leur expertise) ».

Il faudrait ainsi « veiller à ce que, sur certains sujets fermement établis, le classement algorithmique n’induise pas en erreur le public sur l’état réel des connaissances ». Et « pour cela, encourager un dialogue entre les plateformes et les institutions scientifiques afin que l’existence d’un consensus soit reflétée dans la visibilité accordée aux diverses opinions ».

Questions similaires : qu’est-ce qu’un expert ? Est-ce ceux qui multiplient les propos parfois contradictoires, voire cosmiques, sur les plateaux de TV ? Que veut dire « amplifier un contenu » ? Sous quelles modalités ? Et pourquoi ne pas imposer des règles identiques à la télévision, dans la presse écrite ou à la radio ?

Sans surprise, le document demande d’agir contre les signalements en essaim, qui visent à obtenir la suspension ou le bannissement d’une personne qui ne partage pas telle idéologie. Une manière de se prémunir contre le risque de surmodération. Risque qui avait conduit le Conseil constitutionnel à censurer lourdement la loi Avia, du nom de la députée LREM qui peinait à l’admettre…

Un abattement fiscal pour les plateformes de financement participatif

Autre suggestion : « Réfléchir à une obligation pour les plateformes de financement participatif à indiquer explicitement à leurs utilisateurs toutes les mesures mises en œuvre pour éviter de participer indirectement au financement de projets se compromettant avec l’incitation à la haine ou la propagation de la désinformation ».

L’idée serait de demander à ces plateformes de faire appel à des sociétés « fournissant des évaluations de crédibilité de sites Internet ou à obtenir un label reconnu intégrant la préoccupation de ne pas financer des sites toxiques ».

Une incitation qui prendrait la forme d’un droit à un abattement fiscal sur le bénéfice imposable. Une demande qui montre dans le même temps que les positions de Tipeee dans l’hébergement du projet de financement participatif du documentaire Hold Up n'étaient pas si hors norme...

Contre les ingérences étrangères

Contre les ingérences étrangères, la législation a déjà été taillée pour protéger les processus électoraux. La loi d’octobre 2018 relative à la lutte contre la manipulation de l'information impose une obligation de transparence pour les plateformes, dans les trois mois avant le premier jour d’une élection générale et jusqu’à la fin du processus.

Celles dépassant cinq millions de visiteurs uniques par mois doivent « fournir à l'utilisateur une information loyale, claire et transparente sur l'identité » des personnes derrière les contenus sponsorisés en lien avec la campagne électorale.

Elles doivent détailler « l'utilisation » des données personnelles dans le cadre de la promotion de ces contenus et rendre public le montant des rémunérations reçues en contrepartie, si ce montant est supérieur à 100 € HT. Ces informations sont résumées au sein d'un registre mis à la disposition du public « dans un format ouvert, et régulièrement mis à jour ».

Le texte a introduit une procédure de référé contre les « allégations ou imputations inexactes ou trompeuses », celles de nature à altérer la sincérité du scrutin à venir. Il faut toutefois que les données soient diffusées « de manière délibérée, artificielle ou automatisée et massive », sachant que pour le Conseil constitutionnel, la fausse information doit concerner des allégations ou imputations « dont il est possible de démontrer la fausseté de manière objective ».

Le « caractère inexact ou trompeur » doit être en outre manifeste, tout comme le risque d'altération de la sincérité du scrutin. De plus, ces expressions « ne recouvrent ni les opinions, ni les parodies, ni les inexactitudes partielles ou les simples exagérations ».

Le rapport Bronner demande à ce titre une analyse des données de campagnes d’ingérence étrangère « ayant visé la conduite de la vie démocratique française afin de mieux anticiper le risque », et de mettre en place « un dispositif de coopération entre plateformes, institutions et communauté académique pour réagir rapidement aux opérations détectées ».

Dans ses trente propositions, il suggère aussi la création d’un mécanisme de gestion de crise à l’échelle européenne et d’un groupe de travail au sein de l’OCDE.

Frapper le retweet d’informations inexactes et préjudiciables

Sur le terrain plus juridique, il juge non nécessaire de modifier l’actuel article 27 de la loi de 1881 sur la liberté de la presse. Ce texte serait le « fondement des actions pénales visant la diffusion publique des fausses nouvelles sur les réseaux de communications numériques et les plateformes, ainsi que comme définition de référence pour la détermination de ce qui constitue une fausse nouvelle répréhensible dont le retrait ne porterait pas une atteinte injustifiée à l’exercice de la liberté d’expression ».

Cet article de la loi sur la liberté de la presse réprime « la publication, la diffusion ou la reproduction, par quelque moyen que ce soit, de nouvelles fausses, de pièces fabriquées, falsifiées ou mensongèrement attribuées à des tiers ».

L’infraction suppose que ces faits soient réalisés de mauvaise foi, outre qu’ils ont troublé la paix publique (ou sont susceptible de la troubler). L’amende est alors de 45 000 euros. 

À l’Assemblée nationale, ce rapport parlementaire avait déjà relevé que cette sanction était rarement mise en œuvre. Toujours le doigt sur l’article 27, la Commission des affaires culturelles dénonçait « des inconvénients majeurs eu égard au mode de diffusion actuel des fausses informations », non sans s’expliquer : « ces infractions ne frappent, par définition, que l’émetteur originel d’une fausse information, les personnes participant ensuite à la diffusion d’une information ayant perdu son caractère nouveau échappant à la répression ».

De même, « elles ne permettent pas d’embrasser le comportement de ceux qui, de bonne foi, diffusent des informations fausses et participent à les rendre virales ».

Pour combler cette lacune, le rapport remis au Président de la République hier propose d’ajouter dans la loi sur la confiance dans l’économie numérique (LCEN) « un mécanisme de mise en cause de la responsabilité civile des d’utilisateurs de mauvaise foi de fausses nouvelles pouvant porter préjudice à autrui ».

Il imagine même les esquisses de cette infraction :

« Toute diffusion par voie numérique d’une nouvelle que l’on sait être inexacte et qui porte préjudice à autrui engage la responsabilité civile de celui qui la commet ainsi que de toute personne qui la rediffuse en connaissance de cause.

Pour fixer les dommages et intérêts, la juridiction devrait prendre en considération distinctement :

    1. Les conséquences économiques négatives de la diffusion
    2. Le préjudice moral causé par cette dernière
    3. L’étendue et la vitesse de propagation de la diffusion
    4. Et le niveau d’audience et de popularité numérique de son auteur. »

L’infraction serait réservée au seul univers du numérique. Une manière de frapper les personnes qui partagent un post sur Facebook, ou retweetent un message sur Twitter. Il faudrait démontrer que la personne savait que le message est (manifestement ou non) inexact et qu’il porte donc préjudice à un tiers.

Dans un glissement sémantique, cette infraction serait focalisée sur les nouvelles « inexactes », alors que l’article 27 parle lui « de nouvelles fausses » et que la loi contre la manipulation de l’information distingue les allégations ou imputations « inexactes » de celles qualifiées de « trompeuses ».

Relevons aussi que les opinions, les parodies, les inexactitudes partielles ou les simples exagérations sont oubliées de cette définition proposée dans le rapport.

Quid de ceux qui tweetent ou retweetent le fait que l'Ivermectine soigne le Covid-19, que le vaccin ne protège pas, voire serait plus mortel que le virus ? Il faudrait dans tous les cas de figure, démontrer 1) que l’information est fausse, 2) qu’elle porte préjudice à autrui et surtout 3) que l’internaute savait cette inexactitude. Pas toujours simple.

Quid, par ailleurs, si un internaute retweete une grosse bêtise, sous l’angle humoristique ou de la dérision, mais qui occasionne quelques fâcheries chez un député ou un sénateur ? L’importance de tenir compte du « LOL » en ligne avait pourtant été rappelée par le Conseil constitutionnel…

L’ARCOM contre les diffusions massives de fake news

Autre réforme envisagée : permettre à quiconque de saisir l’ARCOM (le CSA recarrossé avec la Hadopi) lorsqu’il éprouve une difficulté « pour obtenir l’intervention et la coopération d’une plateforme afin de prévenir ou stopper la diffusion massive d’un contenu susceptible de véhiculer une fausse nouvelle pouvant troubler l’ordre public ».

L’ARCOM pourrait alors enjoindre l’intermédiaire afin de trouver des mesures curatives ou préventives, même donc en dehors des périodes électorales, sur lesquelles se focalise avant tout la loi contre la manipulation de l’information.

Pour sécuriser ce dispositif de signalement ou de notification de cette nouvelle autorité, la mission propose d’introduire une disposition dans le Digital Services Act, actuellement examiné au Parlement européen.

L’enjeu serait de reconnaitre « que les fausses nouvelles susceptibles de troubler l’ordre public constituent des contenus répréhensibles, de mettre en place un organe d’expertise extérieur pour coopérer avec les plateformes et de créer un régime de co-régulation entre plateformes, régulateurs et société civile ».

Perdez 10 kg en 2 jours, sans effort

Le document ne se limite pas seulement aux plateformes. Il recommande aussi « aux sites de presse généraliste de bannir de leurs espaces publicitaires les liens sponsorisés renvoyant vers des sites pièges à clics de désinformation ».

Mais cette fois, pas d’obligation, pas d’infraction… juste un gentil encouragement à « ne plus faire appel aux sociétés publicitaires les associant à de tels liens sponsorisés ».

La modération individuelle

« Face aux perturbations informationnelles si complexes à juguler, la meilleure réponse est sans doute la modération individuelle, puisque tout un chacun est devenu un opérateur sur le marché en ligne de l’information », conclut-il.

Il préconise ainsi « la création d’une Grande Cause nationale pour le développement de l’esprit critique » et des actions de formations et de sensibilisations auprès des plus jeunes.

La page dédiée à la mission sur le site de l’Élysée publie également les comptes rendus d’audition, dont celle de Didier Tisseyre, Commandant la cyberdéfense des Armées. En contraste avec le GAFAM-bashing, le ComCyber note « une progression significative du dialogue » avec les géants du numérique.

Si, « en 2017, les discussions n’étaient pas évidentes », lorsque « l’identification et le pointage de comptes problématiques via Pharos ne suscitaient que très peu de réactions des réseaux sociaux notamment », désormais « on voit que les GAFAM prennent de plus en plus leurs responsabilités sur ces questions en réduisant notamment le délai de retrait d'un contenu (passé de 1 semaine à 1 jour, voire 1h selon le sérieux de la menace) ».

Vous n'avez pas encore de notification

Page d'accueil
Options d'affichage
Abonné
Actualités
Abonné
Des thèmes sont disponibles :
Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !