Loi Avia : les critiques adressées par TECH IN France au Conseil constitutionnel

Livrées par taxi ? 10
Accès libre
image dediée
Crédits : Marc Rees (licence CC-BY SA 3.0)
Justice
Marc Rees

Le Conseil constitutionnel a officiellement été saisi par plus de 60 sénateurs. Il rendra sa décision sur la loi Avia dans moins d’un mois, maximum. Plusieurs organisations privées vont entretemps adresser au juge des « contributions extérieures ». Et c’est déjà le cas de TECH IN France. Nous révélons la lettre adressée par ce syndicat aux neuf Sages.  

Sous la plume de Mes Jean-Sébastien Mariez et Cédric Uzan-Sarano, l’association professionnelle a souhaité apporter sa grille de lecture au texte contre la haine en ligne. Et on comprend sans mal puisque l’organisation professionnelle compte dans ses rangs des services internet et des plateformes, comme Google France ou encore Facebook, et d’autres structures qui seront concernées par la loi Avia.

Quels sont les reproches adressés par TECH IN France ? Dans sa contribution de 20 pages que nous diffusons ci-dessous, elle estime le texte en contrariété avec plusieurs normes fondamentales.

Après avoir retracé l’historique du régime de responsabilité des hébergeurs de contenus, en particulier ces plateformes qui abritent des fichiers pour les diffuser auprès de tiers, elle doute du caractère proportionné « au regard de plusieurs droits et libertés garantis par la Constitution, d’un dispositif légal instaurant désormais une infraction large et très lourdement sanctionnée de non-retrait de contenus illicites ».

Un risque de surcensure

« On estime que les plateformes n’ont pas les moyens de répondre de manière satisfaisante aux exigences de la loi, aussi bien pour les victimes que pour la garantie de la liberté d’expression, au cœur de ces outils » nous confie Loïc Rivière, délégué général de l’association. « On craint qu’en confiant cette nouvelle responsabilité, autrefois dévolue à la justice, on aboutisse finalement à un risque certain de surcensure ou de surblocage des contenus. Quelque part, tout le monde s’en lave les mains : on a un résultat, qui est là, et tant pis pour la liberté d’expression et si cela ne dissuade pas les contrevenants de recommencer dans la minute qui suit ».

Dans sa contribution extérieure, elle considère en effet que l’obligation de retrait devra s’opérer « dans des délais si contraints qu’ils ne permett[ront] pas le contrôle effectif d’un juge, même en référé », avec au surplus un « volume d’information massifs », exigeant « une qualification contextualisée souvent très délicate » et donc « des moyens humains et techniques extrêmement lourds ».

Une atteinte à la liberté d’expression

Voilà pour les grandes lignes. Dans le détail, les deux avocats se concentrent d’abord sur le délai de 24 heures, durant lequel plateformes et moteurs devront retirer les contenus manifestement raccrochés à une série d’infractions.

Pour les deux juristes, ces dispositions risquent de porter « une atteinte disproportionnée à la liberté d’expression et de communication », en raison donc du « phénomène de "surblocage" des contenus en ligne », alors que dans le même temps, les garanties pour l’éviter ne sont pas au rendez-vous.

Comme les sénateurs, l’association estime que, dans ces 24 heures, cette caractérisation ne sera pas simple. « La loi déférée vise un nombre important d’infractions, dont les critères respectifs de qualification sont hétérogènes et, pour certains au moins, complexes ».

Et pour cause, cette qualification « ne résulte pas d’une application binaire, mais de l’appréciation, au cas par cas, des éléments constitutifs de l’infraction en cause au vu du contexte et des circonstances ». Bref, un exercice complexe dans un délai fixe, d’autant que son dépassement sera lourdement sanctionné : l’amende sera de 250 000 par manquement. L’exercice serait suffisamment délicat pour porter d’alleurs un coup de griffe au sacro-saint principe de prévisibilité de la sanction pénale.

Les auteurs de cette contribution regardent avec une certaine nostalgie la mécanique mise en place en 2004. La LCEN, ou loi sur la confiance dans l’économie numérique, obligeait les intermédiaires techniques (aujourd’hui YouTube, Twitter, Facebook, Instagram, et tant d’autres) à retirer « promptement » les contenus « manifestement » illicites. Mais le législateur s’était bien gardé de prévoir un délai.

Cet oubli volontaire avait pour avantage d’offrir « une certaine marge d’appréciation et permettait de saisir le juge en cas de doute – et sans instituer en tant que telle d’infraction de non-retrait ». Soit très exactement aux antipodes de la loi Avia.

Une plateforme professionnelle ou un moteur baignera à l’avenir dans un risque constant, à charge pour elle de déployer des moyens humains et techniques « hors de proportion, et cela d’ailleurs sans garantie d’une compensation appropriée, ce qui est de nature à porter corrélativement et incidemment atteinte à la liberté d’entreprendre, au droit de propriété et au principe d’égalité devant les charges publiques ». Cette absence de compensation a tout autant été signalée par les sénateurs dans leur saisine révélée dans nos colonnes.

Pour TECH IN France, pas de doute : « la loi n’apporte pas les garanties nécessaires pour s’assurer que les limitations ainsi apportées à la liberté d’expression et de communication sont strictement proportionnées à l’objectif d’intérêt général poursuivi ».

L’obligation de retrait en une heure

L’obligation de retrait en une heure des contenus faisant l’apologie ou incitant à ces actes et des contenus pédopornographiques est également épinglée. Cette procédure de blocage administratif est aujourd’hui prévue par l’article 6-1 de la LCEN qui laisse 24 heures à l’intermédiaire pour exécuter une demande de retrait ou de blocage.

Les craintes des deux avocats sont similaires : impossibilité évidente de saisir le juge en référé dans ces 60 minutes, difficulté à qualifier certains contenus d’autant plus que le texte veut faire sauter l’un des garde-fous de l’actuelle législation qui oblige en effet les autorités à contacter l’éditeur puis l’hébergeur et enfin le FAI préalablement.

La situation sera d’autant plus épineuse que TECH IN France profite de la fenêtre pour remettre au chaud les critiques déjà adressées par la personnalité qualifiée désignée par la CNIL. Alexandre Linden, l’intéressé, avait ouvertement critiqué le manque de moyens dévolus à ses missions, alors qu’il est la seule entité extérieure à pouvoir assurer un contrôle de ce blocage administratif.

Pire encore, « sur un plan matériel, il faut préciser que le délai d’une heure se révèlera dans de nombreux cas totalement irréalistes ». Le groupement professionnel rappelle en particulier ces « mesures techniques nécessaires pour retirer le contenu illicite, en particulier si - cas fréquent - il est hébergé à l'étranger », sans oublier les « délais techniquement incompressibles de mise à jour dans les réseaux ».

Le tonneau des Danaïdes

La loi Avia ne porte pas seulement atteinte au droit au recours, impossible dans les 1 ou 24 heures. La crainte est que par sécurité juridique, ces intermédiaires suppriment les contenus notifiés par vague.

Ce risque n’est pas récent. Déjà en 2004, à l’occasion de l’examen de la loi sur la confiance dans l’économie numérique, les commentaires aux cahiers du Conseil constitutionnel notaient que : « les hébergeurs seraient tentés de s'exonérer de leurs obligations en cessant de diffuser les contenus faisant l'objet de réclamations de tiers, sans examiner le bien-fondé de ces dernières. Ce faisant, ils porteraient atteinte à la liberté de communication ».

« La jurisprudence constitutionnelle va dans un sens assez clair, commente quinze années plus tard Loïc Rivière. Elle tolère des entorses à l’exercice plein de la liberté d’expression dans la mesure où existent des contreparties sous forme de recours et à condition qu’il n’y ait pas d’obligations excessives de façon à éviter ce réflexe de surblocage. Ce qui a bien changé depuis la LCEN, c’est d’un, les réseaux sociaux, de deux, le volume des contenus associés, et de trois, la part de contenus gris. Mis bout à bout, on débouche sur un tonneau des Danaïdes où on demande aux plateformes de purger sans vraiment se préoccuper de connaitre les conséquences, les moyens à mettre en œuvre et l’équilibre entre liberté publique et protection des victimes. »

Les contenus gris sont ces contenus qui semblent être illicites sans l’être manifestement. En pure logique juridique, une plateforme devrait le conserver, mais en pratique, elles seront bien inspirées de les supprimer stratégiquement pour évacuer tout risque devant les tribunaux. « Sur les contenus gris, on sait bien que l’intelligence artificielle et l’automatisation atteignent leurs limites. C’est là où les dispositifs technologiques ne sont pas "réplicables" d’un pays à l’autre. Et on sait aussi que les modérateurs ont besoin d’une formation adéquate pour tenir compte à la fois des contenus visés et des modalités de retraits ».

Des sanctions manifestement excessives

Le courrier considère en outre que les sanctions que pourra infliger le CSA sont totalement disproportionnées.

L’autorité administrative pourra infliger une amende d’un montant représentant jusqu’à 4 % du chiffre d’affaires annuel mondial total de l’exercice précédent ou 20 millions d’euros.

Seront concernées, toutes les plateformes ou moteurs ne respectant pas la nouvelle série d’obligations pesant sur leurs épaules. Or, « contrairement à la règle posée par le Conseil constitutionnel, il n’existe pas de lien objectif et direct entre, d’une part, le chiffre d’affaires et donc l’activité des opérateurs concernés et, d’autre part, le manquement réprimé. Et pour cause : la sauvegarde de l’ordre public à laquelle se rattachent les obligations prévues par la loi déférée est étrangère à l’activité des opérateurs concernés ».

Le risque d’une justice privée

Enfin, elle reprend l’une des critiques adressées par les nombreux opposants au texte : le risque d’une justice privée. « Le dispositif issu de la loi déférée, en ouvrant la voie à des demandes massives de retrait de contenus par toute personne sous peine de lourde sanction, sans contrôle administratif ni possibilité effective pour les opérateurs concernés de saisir un juge, autrement dit dans une "boucle purement privée", aboutit à un basculement excessif sur les épaules de ces opérateurs de missions de sauvegarde de l’ordre public, s’apparentant à une délégation disproportionnée de missions de police. »

« Ce qui est véhiculé sur ces plateformes est le miroir de notre société, poursuit le délégué général de TECH IN France. La réponse la plus satisfaisante pour les victimes viendra toujours du côté de la justice, seule habilitée à compenser le préjudice et dissuader les coupables de recommencer ».

Certes, la réponse toute faite pourrait être de demander aux plateformes d’installer une armée de modérateurs pour éponger les contenus haineux en ligne. « Il faudrait déjà nous donner le temps de mettre en place ce dispositif. Et cela vaut aussi bien pour les plateformes que pour le régulateur » réagit Loïc Rivière. « Qu’est-ce qui garantit aux victimes que le 1er juillet tout le monde sera prêt ? » C’est en effet à cette date que la plupart des dispositions entreront en application.

Sur ce point, au niveau européen, « on a l’impression que les dispositifs se multiplient avec des différences d’un pays à l’autre avec un impact d’autant plus fort en terme de moyens. C’est aussi pour cela que la Commission européenne a signalé le risque de fragmentation sur le sujet. Chaque pays veut être précurseur de la future réglementation européenne, mais est-ce comme cela qu’on peut faire une bonne réglementation dans l’Union, alors que la Commission elle-même mène des travaux depuis plusieurs mois ? Nous n’en sommes pas certains ».

Le Conseil constitutionnel n’est pas obligé de suivre ou tenir compte de ces remarques, mais elles ont toujours le mérite d’apporter un éclairage complémentaire à son analyse. La décision est attendue d’ici moins d’un mois.


chargement
Chargement des commentaires...