[Interview] Proposition de loi contre la cyberhaine : les inquiétudes de Tech In France

Liberté d'expression et justice privée
Droit 6 min
[Interview] Proposition de loi contre la cyberhaine : les inquiétudes de Tech In France
Crédits : Richard Villalonundefined undefined/iStock

Tech In France, par la voix de son délégué général Loic Rivière, revient sur les inquiétudes soulevées par la proposition de loi contre la cyberhaine. Comme l’Asic et Syntec Numerique, ce représentant des acteurs du numérique craint des atteintes à la liberté d’expression et d’information.

La proposition de loi Avia entamera son examen en séance aujourd’hui à 15h à l’Assemblée nationale. Deux piliers dans ce dispositif. Le premier, une vaste liste de contenus illicites que devront supprimer les plateformes en 24 heures, sous peine d’amende pénale pouvant atteindre 1,25 millions d’euros. Sont concernés Twitter, Facebook, Dailymotion, YouTube, mais également les moteurs de recherches, notamment. 

Le second, des pouvoirs étendus au profit du CSA qui va devenir leur régulateur. L'autorité administrative pourra même leur infliger des sanctions d’un montant maximum de 4 % de leur chiffre d’affaires mondial en cas de mauvaise coopération, en particulier si ces intermédiaires n'appliquent pas à la lettre ses recommandations. 

Hier, Tech In France, association représentant 400 entreprises du secteur du numérique, a cosigné un appel avec l’Asic et Syntec Numérique pour exprimer ses inquiétudes. Loïc Rivière, son délégué général, nous en explique les raisons. 

Comment les entreprises du secteur que vous représentez accueillent cette proposition de loi ?

Nous n’avons aucune opposition de principe, bien au contraire, sur le fait qu’un texte législatif organise un nouveau dispositif de protection des victimes de la haine en ligne. Pas d’opposition non plus à responsabiliser davantage les plateformes au regard des dispositions antérieures, celles-ci ayant démontré leur inefficacité face à un sujet grave.

En revanche, l’accueil est bien plus frileux au regard des dernières évolutions du texte. Elles en changent complètement la perspective et la portée. D’un texte spécial initialement centré sur la haine en ligne, on aboutit à une proposition de loi de portée beaucoup plus générale.

Que visez-vous en particulier ?

Le périmètre de départ, notamment couplé à ce retrait en 24 heures, innovation majeure de ce texte, a été considérablement élargi en commission des lois en se référant à la LCEN.

Nous sommes passés d’un texte qui visait spécifiquement la cyberhaine – un registre où on peut identifier les victimes, les coupables, dans un univers sémantique relativement défini qui sécurisait en partie les plateformes – à des éléments qui relèvent davantage de la morale publique, des mœurs, de conceptions de la société.

Je veux bien sûr parler de la pornographie, lorsqu’elle est accessible aux mineurs, du proxénétisme et d’autres éléments issus de la LCEN qui vont densifier considérablement le nombre de « contenus gris », ces contenus non manifestement illicites, mais qui en l’espèce relèvent davantage de la morale publique.

Quand on cumule ce périmètre étendu à des questions relevant de la morale publique, le retrait en 24 heures, le fait que les moteurs de recherche, qui sont le visage public d’internet, soient intégrés… tout cela fait peser un risque sur la liberté d’expression et d’information, en confiant des responsabilités exorbitantes aux plateformes.

Peut-on craindre la dérive vers une forme de justice privée, accentuée par cette évolution ?

On peut le craindre en effet. Les plateformes risquent de se retrouver prises dans un étau. D’un côté, la menace de sanctions considérables si elles n’assument pas efficacement ces nouvelles responsabilités. Et de l’autre, la tentation d’appliquer un principe de précaution de retrait sur un certain nombre de contenus dont elles pourraient craindre qu’ils ne soient in fine qualifiés de manifestement illicites et qu’il leur soit donc reproché de ne pas l’avoir retiré.

La viabilité de ce texte ne repose que sur un équilibre fin, un compromis juste entre les responsabilités nouvelles qu’on confie à ces plateformes et les capacités qu’elles auront à les assumer. En étendant considérablement le périmètre, au-delà de l’objet initial de la loi, qui je le rappelle justifiait un régime spécial de retrait, on crée de facto une disproportion entre ces responsabilités et les moyens de les assumer.

Un exemple concret : avec la définition retenue de la « plateforme » et le périmètre nouvellement étendu, des sites spécialisés dans la haine en ligne, qui ont aujourd’hui pignon sur Web, vont probablement ne pas rentrer dans le périmètre parce qu’ils n’atteindront pas le seuil de connexions défini, ou encore parce qu’ils ne pourront être qualités de « plateformes » au regard de la définition posée.

En revanche, les sites pornographiques, qui eux sont des plateformes dont le succès ne s’est pas démenti à travers l’histoire…entreront de facto dans la catégorie couverte. On peut tout à fait imaginer que des associations, pour des raisons de conception de la morale publique qui est la leur, demandent leur interdiction et déréférencement au motif que leur accès est trop aisé pour certains publics.

On pourrait opposer aux plateformes d’augmenter leurs moyens, de démultiplier leurs équipes de modérateurs…

Ce n’est pas seulement une question quantitative, et c’est pour cela que les plateformes demandent à être accompagnées. Plus on va du manifestement illicite vers l’illicite, ou vers des contenus qui relèvent d’autre chose que de la haine en ligne, c’est-à-dire de la morale publique, plus cela exige une appréciation qualitative fine et avertie du sujet.

Cette approche exigera une capacité d’appréciation qui dépasse celles d’un algorithme, voire d’un modérateur parfaitement formé, pour déboucher sur une décision rapide de retrait.

Laetitia Avia nous répondrait à juste titre que dans un tel cadre, nous ne serions pas dans le manifestement illicite et donc dans le cadre de la loi…Mais que dira le juge a posteriori ? Comment se fera le tri dans le traitement massif de données ?

A-t-on une idée des coûts que génère une telle proposition de loi ?

Non, car les situations vont être différentes d’une plateforme à l’autre. Dans leur obligation de moyens, celles-ci devront documenter les investissements consentis pour faire face au sujet. Il est évidemment normal dans le cadre de nouvelles responsabilités que ces entreprises consacrent les ressources nécessaires.

Néanmoins, elles seront loin d’être en capacité de résoudre tous les problèmes. En raison de ses subtilités, la langue française est plus complexe que d’autres à entrer dans les canons de la traduction automatique, de l’intelligence artificielle. On sait aussi très bien qu’il est difficile pour un algorithme ou un modérateur de faire la différence rapidement entre un commentaire qui relève de la haine et celui évidemment critique de cette haine en ligne. Il y aura donc une phase d’apprentissage qui doit être accompagnée.

Nous attendons aussi un investissement des pouvoirs publics. La problématique du RGPD, qui a créé de nouvelles obligations, ne s’est pas traduite par une augmentation des moyens de la CNIL. Elle s’en est plainte à plusieurs reprises. Nous ne voudrions pas que les pouvoirs publics n’investissent pas eux aussi pour renforcer les compétences et moyens humains des régulateurs amenés à traiter de ces sujets, en l’occurrence le CSA.

Que plaidez-vous finalement ?

Pour satisfaire l’objectif initial du texte auquel nous souscrivons pleinement, nous plaidons pour un resserrement du périmètre de ce qui relève vraiment de la haine en ligne. Certaines choses n’ont en fait rien à faire dans ce texte.

Nous avons adressé également des commentaires visant les sanctions. On va faire peser une épée de Damoclès s’agissant de l’obligation de moyens (une sanction de 4 % du chiffre d’affaires mondial, décidée par le CSA). Or, y a-t-il un lien entre le chiffre d’affaires mondial des entreprises et le fait qu’elles aient mal assumé la responsabilité qu’on attendait d’elles en matière de régulation des contenus qui puisse fonder cette évaluation de la sanction ?

Enfin, au vu des effets collatéraux potentiels sur la liberté d’expression et le droit à information, autant d’éléments du bloc de constitutionnalité, il nous paraitrait de bon aloi que le gouvernement saisisse le Conseil constitutionnel, une fois le texte adopté. 

Vous n'avez pas encore de notification

Page d'accueil
Options d'affichage
Abonné
Actualités
Abonné
Des thèmes sont disponibles :
Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !