Vous n'avez pas encore de notification

Page d'accueil

Options d'affichage

Abonné

Actualités

Abonné

Des thèmes sont disponibles :

Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !

Loi anti-Fake News : les recommandations du CSA aux plateformes

FactChecking > Mme Michu
Droit 5 min
Loi anti-Fake News :  les recommandations du CSA aux plateformes

À l'approche du début des élections européennes, le Conseil supérieur de l’audiovisuel a publié la recommandation prévue par la loi contre la manipulation de l’information. Facebook, Twitter et les autres se voient notamment priés de mettre en avant les sites de presse et les médias audiovisuels labellisés.

Publiée au Journal officiel le 23 décembre 2018, la loi contre les « Fake News » demande aux opérateurs de plateformes une série de mesures de transparence, en particulier sur l’origine et le coût des publicités promouvant des contenus « se rattachant à un débat d'intérêt général ».

Comme détaillé fin avril, le CSA a gagné à cette occasion de nouveaux crans de compétence, loin de la télévision et de la radio, son univers naturel. L'autorité administrative est chargée en effet du pouvoir d’adresser aux intermédiaires comme Facebook ou Twitter « des recommandations » pour lutter contre les « infox ».

Chacune de ces recommandations vise « à améliorer la lutte contre la diffusion de fausses informations susceptibles de troubler l'ordre public ou de porter atteinte à la sincérité du scrutin ». Et le CSA est en plus chargé d’en contrôler la mise en œuvre.

Un bouton d'alerte uniforme, simple et accessible

Dans ce texte publié lui aussi au Journal officiel, le conseil recommande ainsi chaudement aux acteurs du numérique concernés « de mettre en œuvre les mesures qui suivent et de déployer les moyens humains et techniques nécessaires en vue d'atteindre les objectifs fixés par la loi ».

En première place, l’autorité se fait l’interprète de la loi. Celle-ci exige que les opérateurs mettent en place un bouton d’alerte, soit dans le texte « un dispositif facilement accessible et visible permettant à leurs utilisateurs de signaler de fausses informations susceptibles de troubler l'ordre public ou d'altérer la sincérité du scrutin ».

Fort de ses compétences aiguisées, le CSA plaide pour que cette fonction d’alerte soit intitulée clairement, par exemple en affichant… « Signaler un contenu ».

Cet outil devrait en tout cas être placardé non loin des contenus ou des comptes à signaler. Et celui-ci de demander aux opérateurs d’utiliser cette fonction de manière uniforme sur l’ensemble des déclinaisons de leurs sites ou application. Aux professionnels du Net toujours, il demande encore un « parcours de signalement simple et logique » et une information des utilisateurs sur « l'état d'avancement » de chaque alerte.  

Les sites de presse mis en avant 

La transparence des algorithmes est également à l’honneur. Le CSA « encourage » les opérateurs à informer chaque utilisateur « sur les critères ayant conduit à l'ordonnancement du contenu qui lui est proposé et le classement de ces critères selon leur poids dans l'algorithme ».

Surtout, le conseil souhaite que Twitter, Facebook, YouTube et tous les autres concernés identifient désormais « les sources de contenus issus d'entreprises et d'agences de presse et de services de communication audiovisuelle » (chaine en ligne…).

Comment ? Par l’usage d’un indicateur clairement visible. Pour faire le tri, les opérateurs de plateforme « sont encouragés à tenir compte des démarches de labellisation, notamment celles réalisées par les entreprises et agences de presse et les services de communication audiovisuelle »

En somme, pour distinguer le compte de Monsieur Tout-le-Monde de celui d’un site de presse ou d’une chaîne de TV, les opérateurs pourront scruter les éventuels labels détenus par ces médias. Ceci fait, le CSA demande aux intermédiaires techniques « de déployer des moyens technologiques visant à mettre en avant les informations provenant de ces sources et en particulier les contenus dits de « fact-checking »  dans les résultats des moteurs de recherche, les fils d'actualité et les autres canaux de diffusion opérant par classement automatisé ».

En somme, un surréférencement ou une mise en avant par n’importe quel moyen afin, d’une certaine manière, d’éditorialiser ces contenus aux yeux de tous, loin des contenus lambdas…  

Lutte contre les comptes propageant des fausses informations

Pour lutter contre les fausses informations, ils devront prévoir des solutions destinées à détecter les comptes propageant massivement des fausses informations, associés à un panel de sanctions (avertissement, suppression, mise en quarantaine, restrictions des droits de l'utilisateur ou de la portée des contenus qu'il diffuse, etc.) « dans le respect de la liberté d'expression et de communication ».

Notons qu'il n'utilise pas l'adverbe manifestement, qu'avait introduit le Conseil constitutionnel. Celui-ci avait par exemple exigé que seules les « fake news » manifestement illicites soient retirées sur ordre du juge – et encore à condition qu’elles soient manifestement susceptibles d’altérer le scrutin...

Ce n’est pas tout : « le Conseil recommande aux opérateurs de plateforme en ligne de veiller à distinguer clairement les contenus sponsorisés des autres contenus et encourager le développement d'outils permettant à l'utilisateur d'identifier les critères qui ont conduit la plateforme à lui proposer de tels contenus ».

Il propose aussi que les plateformes appellent à « la vigilance des utilisateurs sur les contenus qui ont fait l'objet de signalements » et que « dans la mesure du possible », soit indiquées « l'existence de contreparties financières, l'ampleur de la diffusion (nombre de vues, type de population ciblée, etc.) » et si ces publicités « ont été générées de manière automatisée ou non ».

Par ailleurs, le Conseil recommande « aux plateformes de mettre en œuvre des mesures afin d'informer les utilisateurs sur l'identité de la personne physique ou la raison sociale, le siège social et l'objet social des personnes morales leur versant des rémunérations en contrepartie de la promotion de contenus d'information se rattachant à un débat d'intérêt général » prévient-il avant de définir ce que sont ces contenus.   

La définition des contenus se rattachant à un débat d'intérêt général

Inspiré par le Conseil d'État et la Cour européenne des droits de l'homme, il souligne que ce sont des sujets « qui touchent le public dans une mesure telle qu'il peut légitimement s'y intéresser, qui éveillent son attention ou le préoccupent sensiblement, notamment parce qu'elles concernent le bien-être des citoyens ou la vie de la collectivité ». Les opérateurs sont ainsi chargés de faire le tri, là encore entre les informations simples des informations devant faire l’objet de telles informations.

Les acteurs en ligne devront en tout cas remplir une déclaration annuelle au plus tard le 31 mars de l'année suivant l'année d'exercice sur laquelle elle porte. Ils devront y détailler les mesures mises en œuvre dans la filiation de ces recommandations.

De son côté, le CSA publiera un bilan périodique de leur application et de leur effectivité. Pour nouer les échanges avec l’autorité, chaque acteur doit en outre désigner au plus vite un représentant légal, qui endossera la fonction de référent en France.

28 commentaires
Avatar de vince120 Abonné
Avatar de vince120vince120- 17/05/19 à 15:25:37

A ce rythme y'aura plus d'avertissements autour d'un tweet que le texte lui même...

Avatar de js2082 INpactien
Avatar de js2082js2082- 17/05/19 à 16:54:10

Sauf que cette loi ne concerne que les acteurs présents sur le territoire français et pour des infractions commises pour leur compte par leurs organes/représentants.

En clair, Facebook France n'est pas concerné car ce n'est pas un opérateur de plateforme en ligne, c'est une société de conseils et relations publiques. C'est Facebook US qui est un opérateur de plateforme en ligne.
Idem pour de nombreuses sociétés de la tech dont la présence sur notre territoire ne consiste qu'en des commerciaux.

Ces obligations ne vont au final que pénaliser les sociétés qui ont leur activité principale en France.

Bref, une bêtise de plus de notre président qui enfonce encore plus le pays.
Champiooooon!!!
 

Avatar de fred42 INpactien
Avatar de fred42fred42- 17/05/19 à 18:39:13

D'où tires-tu que c'est limité aux acteurs présents en France ?
Merci d'être précis, je n'ai rien vu de tel.

Avatar de skankhunt42 Abonné
Avatar de skankhunt42 skankhunt42 - 17/05/19 à 19:00:43

Jean Costentin doit sacrément faire la tronche !

Avatar de js2082 INpactien
Avatar de js2082js2082- 17/05/19 à 19:29:09

fred42 a écrit :

D'où tires-tu que c'est limité aux acteurs présents en France ?
Merci d'être précis, je n'ai rien vu de tel.

Art. L. 163-1:  "Pendant les trois mois précédant le premier jour du mois d'élections générales et jusqu'à la date du tour de scrutin où celles-ci sont acquises, les opérateurs de plateforme en ligne au sens de l'article L. 111-7 du code de la consommation dont l'activité dépasse un seuil déterminé de nombre de connexions sur le territoire français sont tenus"

En clair, si tes services ne sont pas implantés sur le territoire, le nombre de connexion en France sera de 0, le texte sera donc inapplicable.

Et plus généralement, l'article 113-2 du Code pénal fait que la loi pénale française ne s'applique que pour des infractions commises en france

Édité par js2082 le 17/05/2019 à 19:31
Avatar de fred42 INpactien
Avatar de fred42fred42- 17/05/19 à 20:54:36

Si les connexions partent du territoire français, même pour aller sur des serveurs étrangers, les opérateurs de plateforme seront concernés.

De plus, ce n'est pas le code pénal qui est modifié et donc concerné par cette loi. De plus, dans les articles suivants du code pénal, il y a des cas prévus pour des infractions commises à l'étranger.

Et de manière constante, il est considéré que à partir du moment où les utilisateurs de plateforme sont en France, la loi française est applicable.

Avatar de bingo.crepuscule INpactien
Avatar de bingo.crepusculebingo.crepuscule- 18/05/19 à 08:14:42

De toute façon le CSA n'a aucune crédibilité ni légitimité.

Avatar de sephirostoy Abonné
Avatar de sephirostoysephirostoy- 18/05/19 à 08:33:36

C'est le gouvernement qui va prendre cher à force de distiller des fake news toutes les 5 minutes.

Avatar de crocodudule INpactien
Avatar de crocodudulecrocodudule- 18/05/19 à 09:48:20

La définition du CSA d'un sujet d'intérêt général est surtout celle du Conseil d'Etat qui est resté sur le fait qu'il est déterminant que cela peut intéresser potentiellement un grand nombre de personnes.

La CEDH en 2015 et la Cour de cassation en 2017, ont changé leurs fusils d'épaule, ce qui importe c'est la finalité de la publication et plus particulièrement si elle cherche à informer y compris un public restreint comme celui d'une association communale par exemple.

Ca risque d'aboutir à pas mal de trous dans la raquette selon que la plateforme utilise la définition de l'AAI (et donc du Conseil d'Etat) ou celle des Juridictions judiciaires (Cass., CEDH), dernière définition qui est nettement plus large.

Avatar de loser Abonné
Avatar de loserloser- 18/05/19 à 10:14:21

 J'ai bien peur que si, le CSA est légitime puisque c'est la loi qui lui accorde ces nouveaux pouvoirs.
Bon concernant la crédibilité, il n'en a aucune, mais il s'en fout, il n'en a pas besoin :yes:

Il n'est plus possible de commenter cette actualité.
Page 1 / 3
  • Introduction
  • Un bouton d'alerte uniforme, simple et accessible
  • Les sites de presse mis en avant 
  • Lutte contre les comptes propageant des fausses informations
  • La définition des contenus se rattachant à un débat d'intérêt général
S'abonner à partir de 3,75 €