La députée Laetitia Avia revient dans nos colonnes sur sa proposition de loi contre la cyberhaine, désormais en dernière ligne droite. Le texte a été adopté en nouvelle lecture par la commission des lois, il sera en séance mardi à l’Assemblée nationale, avant un dernier round au Sénat.
La commission des lois a adopté cette semaine votre proposition de loi, avec modifications. Doit-on s’attendre à ce que d’autres lignes bougent pour la séance ?
Je ne parlerais pas de lignes qui bougent, mais de continuer toujours le travail parlementaire pour affiner un certain nombre de dispositifs, s’assurer de leur solidité et leur efficacité.
L’article 1er a été particulièrement travaillé au regard de différents éléments : des auditions organisées après le vote à l’Assemblée en première lecture, des déplacements auprès des services de conformité des plateformes, des observations de la Commission européenne et des interrogations soulevées au Sénat.
Sur le reste, j’ai essayé de rester au maximum sur la rédaction des sénateurs et aujourd’hui encore, je suis en train d’expertiser encore un certain nombre d’éléments apportés par la chambre haute pour savoir si on peut les maintenir en l’état ou les affiner.
Lesquels, concrètement ?
Il y a l’amendement sur la viralité, ceux sur l’approche « follow the money » pour tracer le financement des sites haineux. Ce sont des amendements dont je rejoins pleinement les intentions et l’objectif. On doit voir aussi la réaction pour être sûr qu’elle soit « nickel ».
Pour le retrait en 24 heures, les sénateurs voulaient une obligation de moyen, vous préférez toujours une obligation de résultat, pourquoi ?
Pour plusieurs raisons. C’était le cœur du texte à l’origine. C’est une proposition de loi. Si elle est vidée de sa substance, elle n’a plus de raison d’être. Le Conseil d’État le dit très bien dans son avis : donner juste des recommandations aux plateformes nous fait rester dans la situation actuelle.
La loi sur la confiance dans l’économie numérique nous dit aujourd’hui que les plateformes doivent retirer les contenus, mais est-ce qu’elles le font ? Non, car le régime de responsabilité est inopérant. Si on n’a pas un régime de responsabilité fort et contraignant, le travail n’est pas fait.
C’est ça l’objectif : pallier un droit aujourd’hui ineffectif par un droit contraignant. Je regrette que les sénateurs aient balayé d’un revers de main toute l’architecture construite par le Conseil d’État. Moi, j’ai soumis le texte à son approbation et celui-ci a bien distingué un volet judiciaire d’un volet administratif, d’une manière qui me semble très solide.
Dans la version des sénateurs, le volet judiciaire est supprimé, on est uniquement dans l’administratif. Je trouve cela très particulier de la part des sénateurs ! Et ce volet administratif ne donne pas d’obligation de résultat et finalement laisse la main aux plateformes, c’est à elle de décider les objectifs à atteindre, les moyens à atteindre.
Pour moi, c’est un aveu de renoncement.
Vous dites que les plateformes ne retirent pas, mais des tests effectués à la Commission européenne montraient des taux de retrait en moins de 24 heures dépassant les 80 %
Je ne sais pas exactement de quels tests exactement vous parlez, mais ce qu’il faut savoir que les premiers effectués par la Commission l’ont été par certaines entités sur des périodes de testing indiquées. Ce n’est pas comme un test effectué par un citoyen lambda. Il y a en a eu d’autres depuis.
Après, ce que je prends comme éléments d’informations quant à l’effectivité du système est que lorsque des tests plus récents ont été faits, on a eu aussi de plus bons chiffres. Ce qui veut dire que les plateformes sont en mesure de retirer les contenus dans les délais demandés !
Je lisais encore jeudi matin le rapport de transparence d’une petite plateforme qu’on a tendance à oublier, JeuxVideos.com, qui explique que 99 % des contenus haineux sont retirés en 24 heures. Voilà pourquoi j’ai fait obstacle aussi à tous les amendements visant à réduire ce délai à 6 ou 12 heures en expliquant mes doutes sur la capacité des plateformes à le respecter.
Sur le périmètre des infractions que les plateformes devront retirer, est ce que la liste va bouger dans un sens ou un autre ?
Le texte d’origine visait les infractions de la loi de 1881, avec les injures discriminatoires principalement. Le Conseil d’État dans son analyse a préconisé de se rattacher à l’article 6-I-7 de la loi sur la confiance pour l’économie numérique, et donc d’ajouter toutes les infractions potentiellement constitutives d’une atteinte à la dignité humaine.
Ce raisonnement, qui permet de déroger aussi à certaines dispositions du droit européen, est validé par la Commission européenne dans ses observations. La dérogation de la France, nous dit-elle, s’admet au titre de l’atteinte à la dignité humaine sous réserve de s’assurer que l’ensemble du dispositif soit bien ciblé et proportionné.
Sur le champ, je vais voir comment les débats vont se passer en séance parce qu’on a aussi certaines infractions difficilement constatées de façon manifeste. Devra-t-on nettoyer pour donner plus de cohérence, rester dans le champ de ce qui est déjà bien encadré ?
Les contenus violents ou pornographiques, accessibles aux mineurs... en quoi concernent-ils l’atteinte à la dignité humaine ?
Cet article 227-24 du Code pénal, à titre personnel, je trouve qu’il est assez mal rédigé. Heureusement, la jurisprudence est venue l’alimenter et permettre de mieux l’interpréter.
Un arrêt assez clair nous explique que des contenus violents qui seraient dans le cadre d’une exposition ouverte au public ne sont pas dans le périmètre de cet article, même si les mineurs ont accès à cette exposition. Ce n’est pas parce qu’il y a eu accès que l’émetteur serait en infraction.
Le 227-24 traite des contenus qui visent les mineurs. Par exemple, une école ou un réseau social dirigé vers ce public. Ce n’est pas tout contenu sur lequel un mineur peut tomber par hasard.
Et donc, comment va faire la plateforme pour traiter ces contenus ?
C’est exactement ce que je vous disais tout à l’heure. Le seul fait d’avoir un contenu doit nous permettre d’indiquer qu’il est manifestement illicite. Dès lors qu’il faut un faisceau d’indices pour déterminer si on dans l’illicéité ou pas, on n’est pas dans le champ du texte.
C’est aussi pour cela que j’ai précisé l’élément intentionnel dans la rédaction du texte tel qu’adopté par la commission des lois. Dès lors qu’une plateforme doit mener un certain nombre de diligences parce que le contenu en lui-même n’est pas manifestement illicite ou qu’elle estime qu’il ne l’est pas, et du coup qu’elle ira justifier des investigations, poser des questions légitimes… dans ce cas-là, on ne sera pas dans le champ du texte. Elle n’aura pas à se dire qu’elle est sous le couperet d’une sanction pénale parce que l’élément intentionnel ne sera pas réuni.
Enfin, que fait-on de l’obligation de retrait prolongé (stay down) ?
C’est un amendement qui n’était pas dans le texte initial auquel j’ai eu un avis favorable à l’Assemblée. J’ai reçu de nombreuses réactions dès le lendemain du vote parce qu’il posait des problèmes en terme pratique et de conventionnalité, éléments dont j’étais extrêmement consciente et que j’avais transmis aux sénateurs. Les observations de la Commission européenne ont été également dans ce sens.
On est face à une vraie difficulté. Quand on voit l’affaire de Noisiel (voir ici, ndlr), on se dit qu’on ne peut pas ne pas aborder ce sujet, ces vidéos qui se démultiplient en des milliers d’exemplaires et qu’on retrouve sur toutes les plateformes. Quand une affaire comme ça se produit, on traque ces vidéos pendant des semaines et des semaines. Il faut trouver quelque chose. Je ne dis pas qu’il existe une solution aujourd’hui.
Moi j’essaye aussi d’être dans l’encouragement des plateformes à trouver des moyens d’agir, en démultipliant d’efforts en la matière. Est-ce que ce sera dans la loi, je ne sais pas. Est-ce que ce sera dans les éléments que je suivrai de près dans l’application dans la lutte contre les contenus haineux ? Oui.