Loi anti-Fake News : le CSA aiguise ses compétences auprès des plateformes

CSA, oui 9
Accès libre
image dediée
Loi
Marc Rees

Le Conseil supérieur de l’audiovisuel a acquis de nouvelles compétences avec la loi contre la diffusion de fausses informations. Elles font déborder son champ d’action de la télévision à Internet. Hier, le CSA a dévoilé un projet de recommandation à destination des plateformes visées par ce nouveau texte.

La loi contre les fausses informations, publiée au Journal officiel le 23 décembre 2018, entend lutter contre les « fake news » en exigeant des opérateurs de plateformes plusieurs mesures de transparence. Elle les oblige à dévoiler l’origine des publicités, aussi bien leur coût que l’identité des annonceurs.

Le texte vise les publicités promouvant des contenus « se rattachant à un débat d'intérêt général ». Ce terme générique ne le rend pas d’application aisée, au point que Twitter comme Google ont pris des mesures pour restreindre si ce n’est interdire ces campagnes sur leur réseau.

La loi contient surtout tout un chapitre qui permet au CSA d’étendre ses tentacules du poste de télévision à l’univers d’Internet. L'autorité se voit en effet confier la tâche d’adresser aux opérateurs de plateformes « des recommandations » visant à améliorer la lutte contre la diffusion des fausses informations, tout en endossant la casquette du contrôleur des mesures mises en œuvre. 

L’article 11 demande aux opérateurs de plateforme en ligne dépassant 5 millions de visiteurs uniques par mois de mettre en œuvre « des mesures en vue de lutter contre la diffusion de fausses informations susceptibles de troubler l'ordre public ou d'altérer la sincérité d'un des scrutins ».

À cette fin, ils ont à mettre en place « un dispositif facilement accessible et visible permettant à leurs utilisateurs de signaler de telles informations ». Autre chose, ils doivent activer « des mesures complémentaires » tout en disposant d’une vaste liberté en la matière.

Bon prince, le législateur a donné quelques exemples, ni impératifs ni limitatifs : transparence des algorithmes, « promotion des contenus issus d'entreprises et d'agences de presse et de services de communication audiovisuelle », lutte contre les comptes propageant massivement des fake news, éducation aux médias et à l'information, etc.

Des mesures, contrôlées par le CSA, qui doivent être rendues publiques, accompagnées d’informations sur les efforts entrepris. À cette fin, les opérateurs doivent adresser chaque année au conseil « une déclaration dans laquelle sont précisées les modalités de mise en œuvre desdites mesures », et désigner un représentant lorsque leur siège est à l’étranger. 

Un bouton d’alerte simple, ergonomique, unifié

C’est dans ce contexte qu’hier, l’autorité a dévoilé son projet de recommandations qu’il entend adresser à ces intermédiaires techniques. Le CSA n’a pas fait dans l’originalité : il reprend les exemples donnés par le législateur qu'il détaille avec un luxe de détails.

Le dispositif de signalement mentionné par le législateur par exemple permettra à chaque internaute de signaler de fausses informations « susceptibles de troubler l'ordre public ou d'altérer la sincérité du scrutin ». Pour le conseil, il serait judicieux de prévoir un bouton « Signaler un contenu » à proximité des contenus ou des comptes. De même, les grandes plateformes devraient opter pour un dispositif commun à toutes les déclinaisons de leur service. Un outil simple, ergonomique, logique.

« Ainsi, l’utilisateur devrait pouvoir accomplir la procédure de signalement en suivant tout au plus trois hyperliens ; l’ensemble des motifs de signalement (contenu haineux, fausses informations…) devrait apparaître dans une seule boîte de dialogue et celle-ci devrait être la même pour un service donné, quel que soit son mode d’accès ».

S’il fait référence aux contenus haineux, c’est que la proposition de loi de la députée LREM Laetitia Avia prévoit justement un mécanisme similaire. Sa crainte serait donc de voir surgir autant de boutons qu’il y a de risques.

Des algorithmes transparents

S’agissant de la transparence des algorithmes, le CSA aimerait que chaque internaute puisse comprendre leurs principes de fonctionnement. Comment ? Le conseil donne ses conseils en cinq points :

  • «la traçabilité de ses données exploitées à des fins de recommandation et de hiérarchisation des contenus, qu’elles soient fournies sciemment ou collectées par l’opérateur de la plateforme en ligne ;
  • une information claire, suffisamment précise et facilement accessible sur les critères ayant conduit à l’ordonnancement du contenu qui lui est proposé et le classement de ces critères selon leur poids dans l’algorithme ;
  • une information claire et précise sur sa faculté, si elle existe, de procéder à des réglages lui permettant de personnaliser le référencement et la recommandation des contenus ;
  • une information claire et suffisamment précise sur les principaux changements opérés dans les algorithmes de référencement et de recommandation, ainsi que sur leurs effets ;
  • un outil de communication accessible permettant l’interaction en temps réel entre lui et l’opérateur, et offrant à l’utilisateur la possibilité d’obtenir des informations personnalisées et précises sur le fonctionnement des algorithmes. »

Les entreprises et agences de presse sur le devant de la scène

La promotion des contenus issus d'entreprises et d'agences de presse et de services de communication audiovisuelle est un sujet beaucoup plus sensible. Dans la logique du législateur, adoptée par le CSA, ces contenus devraient être promus par les plateformes, d’une manière ou d’une autre.

Le CSA veut d’abord que les plateformes identifient les « sources de contenus fiables », au moyen « d’indicateurs clairement visibles par les utilisateurs ». En somme un autocollant « presse de confiance » apposé numériquement sur les messages Facebook, les tweets ou les contenus référencés dans les moteurs, destinés à glorifier certaines sources, pour démagnétiser en creux les non-élus.

Pour se faire, le CSA encourage les intermédiaires « à tenir compte des démarches de labellisation, notamment celles réalisées par les entreprises et agences de presse et les services de communication audiovisuelle » (nous avons questionné le CSA pour savoir de quelles démarches il s'agit ici).

Mieux : les services en ligne concernés devraient mettre en place des « moyens technologiques » pour surréférencer, ou mettre en avant ces informations de confiance, « et en particulier les contenus dits de « fact-checking » dans les résultats des moteurs de recherche, les fils d’actualité et les autres canaux de diffusion opérant par classement automatisé ».

Et un pont en or avec la directive sur le droit d'auteur

Le sujet de la labellisation revient régulièrement sur les écrans, si l’on se souvient des velléités du ministère de la Culture en 2006. D’ailleurs, durant les débats parlementaires sur la loi contre les fausses informations, plusieurs députés LREM et MoDem avaient également souhaité confier au CSA la mission d’attribuer ces labels de confiance. 

Pour les principaux concernés, le bénéfice est en tout cas évident. Outre une surexposition sur les écrans et les rétines, cette mise en avant aura un effet mécanique au regard de l’article 15 de la toute récente directive sur le droit d’auteur. Celle-ci prévoit en effet une compensation pour l’usage fait des titres d’agences ou d’éditeurs de presse sur les plateformes. 

Dit autrement, d’un côté, le CSA demande aux plateformes de mettre en avant ces contenus, qui vont être mécaniquement surexposés et donc davantage partagés. De l’autre, plus ces articles seront partagés, plus la directive assurera des retombées compensatrices pour les professionnels de la presse en ligne concernés. Du gagnant-gagnant.

Bannissement de comptes, éducation aux médias

Ce n’est pas tout. Égrainant les articles 11 et 12 de la loi, le CSA aborde aussi la question des comptes distillant de fausses informations à une échelle trop importante. Contre ces hémorragies de contre-vérités, plusieurs moyens sont suggérés : des avertissements, des suppressions de comptes, des restrictions de droits d’utilisateur ou affectant la portée des contenus, voire des mises en quarantaine. En somme, une sorte de bannissement numérique plus ou moins long. 

Les opérateurs de plateformes en ligne sont aussi encouragés à assurer l’éducation des internautes, par exemple avec « des outils adaptés d’analyse de la fiabilité des sources d’information, tels que des modules vidéo et des guides » ou à nouer des partenariats pour contribuer à l’information et aux outils numériques.

Le CSA aura finalement la possibilité d’exiger des informations des plateformes « en cas de constat d’une manipulation ou d’une tentative de manipulation de l’information susceptible de troubler l'ordre public ou d'altérer la sincérité d'un des scrutins ». Il demande dès à présent aux opérateurs « à faire preuve de la plus grande transparence à l’égard de leurs utilisateurs en cas de survenance d’un tel incident », et à désigner un représentant légal qui assurera les fonctions d'interlocuteur référent en France.


chargement
Chargement des commentaires...