Loi Avia contre la cyberhaine : les critiques de la Commission européenne

Loi Avia contre la cyberhaine : les critiques de la Commission européenne

Haine en ligne, texte en mire

Avatar de l'auteur
Marc Rees

Publié dans

Droit

25/11/2019 8 minutes
13

Loi Avia contre la cyberhaine : les critiques de la Commission européenne

La proposition de loi française est loin de satisfaire la Commission européenne. Celle-ci a adressé officiellement des « observations » à la France. Derrière l’expression très diplomatique, Next INpact dévoile une pluie de critiques aiguisées contre le texte porté par la députée LREM Laetitia Avia et soutenu par le gouvernement.

Dévoilée dans nos colonnes le 14 mars 2019, la proposition de loi contre la Haine en ligne a terminé son périple devant les députés en juillet. Dans quelques jours viendra l'examen au Sénat.

Entre temps, des grains de sel sont tombés dans les rouages de la procédure législative française, que le gouvernement a voulu « accélérée » pour limiter le jeu de la navette. 

Comme tous les textes imposant des contraintes à la sacro-sainte « société de l’Information », la proposition de loi a dû être notifiée à la Commission européenne. La démarche a été initiée le 21 août dernier.

L’enjeu ? Éviter qu’un État membre ne fasse cavalier seul, fracassant le principe du marché unique. Dans un premier temps, l’exécutif français a aussi sommé Bruxelles de presser le pas. « Le gouvernement français a engagé la procédure d’urgence sur cette proposition de loi et souhaite, compte tenu de la forte sensibilité du sujet illustrée régulièrement dans les actualités récentes, une adoption rapide de la loi », expliquait-il. 

Par cette déclaration, Paris pouvait parier sur un examen exprès et donc peu approfondi. En septembre dernier, patatras : la Commission européenne n’a pas été convaincue par le feu dans la maison, claironné par la France. Elle a imposé le respect de la procédure de droit commun. Au lieu d’un examen TGV, Bruxelles comme les autres États membres ont eu alors trois confortables mois pour examiner la proposition de loi Avia.

Jusqu’au 22 novembre 2019, le texte était ainsi gelé. C'est la période dite de statu quo. La semaine dernière, nouveau rebondissement : la République tchèque a adressé un « avis circonstancié », soit de lourdes critiques, contre la proposition française. Conséquence directe : le terme initial a été repoussé au 23 décembre 2019.

Ce vendredi, nouveau couac. La Commission européenne a adressé cette fois des « observations » officielles à la France. Derrière la douce expression, se cachent de vrais reproches puisés sur l’autel du droit européen, que révèle Next INpact. 

Une restriction disproportionnée à la liberté de circulation 

Selon nos informations, l'institution doute déjà de la compatibilité du texte avec l’article 3 de la directive sur le commerce électronique. En résumé, celui-ci interdit par principe aux États membres de « restreindre la libre circulation des services de la société de l'information en provenance d'un autre État membre ».

Or, pour la commission, la proposition de loi Avia frappe de plein fouet cette règle. Elle impose des restrictions aux prestataires installés dans d’autres États membres comme la nomination d’un représentant en France, un mécanisme de notification spécifique en langue française, une solution de filtrage pour interdire la remise en ligne des contenus « manifestement » haineux, l’obligation de respecter les règles édictées par le Conseil supérieur de l’audiovisuel...

La France a eu beau expliquer que seules les plateformes dépassant un seuil fixé par décret seraient concernées, Bruxelles n’a pas été convaincue. Des grandes plateformes seront bien régulées par un dispositif franco-français, et Paris, en faisant le choix d’une proposition de loi, s’est bien gardée de publier une étude d’impact permettant de jauger les effets de son texte.

observations commission européenne loi avia haine

Certes, les autorités françaises ont préféré jouer sur une autre corde. L’article 3, cette fois en son paragraphe 4, autorise des dérogations à la règle précitée, notamment lorsque les mesures sont « nécessaires » pour « la prévention, les investigations, la détection et les poursuites (…) contre les atteintes à la dignité de la personne humaine ». N'est-ce pas le cas avec la proposition de loi Avia ? 

Seulement, la commission rappelle que le même texte exige des mesures proportionnées à l’objectif poursuivi et surtout prises à l'encontre d'un site qui constitue un risque sérieux et grave. Nouveau souci épinglé : la « PPL » s’applique de manière générale à toutes les plateformes, peu importe leur emplacement en Europe. Pire, la France n’a pas fourni la moindre évaluation sur la proportionnalité des mesures, sans démontrer solidement qu’aucune autre mesure moins coercitive n’était envisageable.

Rappelons que ces arbitrages sont eux aussi typiquement inclus dans les études d’impact, associées aux projets de loi mais non aux propositions de loi.

Une entaille à la responsabilité des hébergeurs 

La Commission européenne craint une autre contrariété, avec cette fois l’article 14 de la directive e-commerce de 2000. Cette disposition encadre le régime de responsabilité des hébergeurs. En substance, ceux-ci deviennent responsables s’ils ne retirent pas un contenu (une vidéo, un texte, etc.) dont ils viennent d'avoir connaissance du caractère illégal. 

Le texte a été transposé en France par la loi sur la confiance dans l’économie numérique de 2004 (LCEN). Ce véhicule fixe les conditions minimales pour que cette « connaissance » soit vérifiée. Il faut notamment respecter religieusement ce formalisme, d’ailleurs recommandé par la Commission européenne et plébiscité par la Cour de justice de l’Union européenne.

En voulant « simplifier l’expérience utilisateur », dixit Laetitia Avia, la proposition de loi fait sauter l'une des obligations, spécialement celle contraignant l'internaute notifiant à fournir l’emplacement exact du contenu litigieux. Cela implique donc pour la plateforme de faire de vastes recherches, en fouillant au besoin de longs textes ou d'interminables vidéo, pour trouver le nœud litigieux. 

En principe, la LCEN impose aussi que la notification définisse « les motifs pour lesquels le contenu doit être retiré, comprenant la mention des dispositions légales et des justifications de faits ». La proposition de loi Avia se contente d'une description de « la catégorie à laquelle peut être rattaché le contenu litigieux » et des « motifs pour lesquels il doit être retiré ». En d’autres termes, il reviendrait finalement à la plateforme (ou juridiquement à l’hébergeur) d’identifier les dispositions légales en cause, ce qui n’est pas simple face à un océan de textes et un déluge de notifications !  

Pour la Commission européenne, ce formalisme semble en conclusion trop en retrait pour mettre notre intermédiaire en situation de réelle « connaissance ». Voilà qui est d’autant plus problématique que celui qui ne retirerait pas un contenu manifestement « haineux » risquerait jusqu’à 1,25 million d’euros d’amende, infligée par un tribunal, voire une sanction de 4 % du chiffre d'affaires mondial, décidée par le CSA.

La commission fait part de ses inquiétudes en décrivant le scénario qui se déroule sous ses yeux : entre ce formalisme réduit à peau de chagrin, cette exigence de réaction en 24 heures sans la moindre flexibilité selon la gravité des infractions et enfin la menace d'une très lourde amende, le risque est de faire peser sur les plateformes une charge bien trop excessive, voire d’entrainer des suppressions automatisées des contenus. Soit... autant d’atteintes à la liberté d’expression.

Empêcher la réapparition d'un contenu déjà retiré : une surveillance généralisée

Les plateformes alertées par un internaute devront non seulement supprimer les contenus « haineux » (dont les contenus pornographiques simplement accessibles aux mineurs), mais empêcher aussi leur réapparition. La mesure a été très critiquée par European Digital Rights.

Cette ONG anticipe en effet la mise en place d’« une obligation de surveillance généralisée, interdite en vertu de l'article 15 de la directive sur le commerce électronique ». Elle devine encore des atteintes à la liberté d’expression, les algorithmes étant incapables de contextualiser les contenus republiés « à des fins éducatives, artistiques, journalistiques ou de recherche, pour exprimer des points de vue polémiques, controversés et dissidents dans le cadre de débats publics ou d'activités de sensibilisation ».

La Commission européenne reprend, toujours selon nos informations, ces critiques. Elle craint que, pour se couvrir du risque de sanction, les plateformes ne censurent automatiquement l’ensemble des contenus, surtout les plus modestes d'entre-elles qui ne bénéficieraient pas des dernières technologies en la matière.

Atteinte à la liberté d’expression, mais aussi atteinte aux données à caractère personnel des utilisateurs ou encore à la vie privée, outre une surveillance généralisée. Autant de fléchettes qui n’ont su être esquivées par les autorités françaises dans les échanges avec l'institution européenne.

Bruxelles demande à la France de reporter la PPL Avia

Au fil de ses « observations », la commission rejoint également EDRi lorsque l’ONG estime que ce texte entre en conflit potentiel avec la prochaine législation sur les services numériques annoncée par la présidente élue, Ursula Von der Leyen. Celle-ci envisage en effet une refonte de la responsabilité des prestataires en ligne, afin de prévenir le morcellement des législations nationales.

Du coup, Bruxelles demande officiellement à la France, comme aux autres États membres qui seraient tentés d'imiter cette stratégie du cavalier seul, de reporter les initiatives nationales, à rebours de la législation européenne en devenir.

Écrit par Marc Rees

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Une restriction disproportionnée à la liberté de circulation 

Une entaille à la responsabilité des hébergeurs 

Empêcher la réapparition d'un contenu déjà retiré : une surveillance généralisée

Bruxelles demande à la France de reporter la PPL Avia

Commentaires (13)


Merci pour ces informations ! Pas moyen de voir le détail du document adressé par la Commission (et la République Tchèque) ?


Les détails sont donnés dans l’actu, s’agissant de la première.

Pour la Cz, je fouille, je fouille ;) 

 




Du coup, Bruxelles demande officiellement à la France, comme aux autres États membres qui seraient tentés d’imiter cette stratégie du cavalier seul, de reporter les initiatives nationales, à rebours de la législation européenne en devenir.





Donc dit moins diplomatiquement, ce texte est mort-né, car on doit attendre la version européenne ? Ou bien la France peut en proposer une nouvelle version ?








Jarodd a écrit :



Donc dit moins diplomatiquement, ce texte est mort-né, car on doit attendre la version européenne ? Ou bien la France peut en proposer une nouvelle version ?





Le texte en lui même souffre de nombreuses défaillances. 

La CE demande aux EM de patienter.



Je vois mal comment la PPL avia pourra survivre en effet.

 



Bref, c’est un “coucouche-panier” poliment adressé au gouvernement français.



Je ne vois pas en quoi en plus ce texte est urgent, si le gouvernement voulait traiter en urgence, cela aurait du être fait dès les 1ère alarmes sur les contenus haineux et non pas une fois ceux-ci bien installés.








tifounon a écrit :



Bref, c’est un “coucouche-panier” poliment adressé au gouvernement français.



Je ne vois pas en quoi en plus ce texte est urgent, si le gouvernement voulait traiter en urgence, cela aurait du être fait dès les 1ère alarmes sur les contenus haineux et non pas une fois ceux-ci bien installés.





L’urgence législative permet d’éviter les débats



La seule façon pour éviter qu’un fichier retiré ne réapparaisse, serait d’utiliser le hash du fichier (sha256, sha512…), et ça voudrait dire que le l’hébergeur tienne à jour une liste des hash des fichiers interdits.



Ca me semble faisable, mais ce qui l’est aussi, c’est de contourner ça : une image ou une vidéo de laquelle on change un simple pixel voit son hash complètement changé.



Cela dit, si le fichier est modifié, ce n’est plus le même fichier, et l’hébergeur pourrait se protéger avec ça.



Ceci montre surtout que le filtrage a priori est techniquement impossible à moins d’utiliser un système de reconnaissance des fichiers non basé sur des hash, mais plutôt sur une IA, ce dont on est encore loin ! Même les “IA” de Google/Youtube se laissent berner pour les vidéos protégées, quand la vidéo est simplement retournée (miroitée) ou que la couleur globale de l’image est légèrement altérée).



Le législateur, encore une fois, est à des années lumières de comprendre la subtilité de tout ça, et à en lire l’article, il demande simplement aux plateformes de se démerder.

Appliquer leur idée reviendrait tout simplement à mettre des personnes dérrière des écrans et à appuyer sur un buzzer dès qu’un fichier interdit apparaît.

Dans le cas de Youtube ou Facebook, on parle alors de millions de personnes dédiés à ça. C’est juste impensable de tout filtrer, ni de le faire sans faux positifs (pour lequel Youtube, par exemple, est connu).


En gros il suffit de changer le nom ?


Non, pas le nom, ce dernier n’entre pas dans le calcul du hash.





Essayes ici :https://lehollandaisvolant.net/tout/tools/checksum/



Tu entres du texte quelconque, calcule le hash, puis tu changes une lettre dans le texte et recalcules le hash. Tu verras qu’il a totalement changé. Le texte, lui, reste totalement lisible.



Tu peux faire pareil avec une image ou n’importe quel fichier (utilises un petit fichier : calculer un hash d’un gros fichier prend des plombes).





Avec un film de vacances en mkv, c’est pareil : ajoutes ou supprimes 5 ms de contenu bidon à la fin du fichier, le film restera visible (et illicite), mais le fichier sera différent et passerait à travers le filtre.



Chaque fichier (dans le monde) a un hash différent. C’est pour ça qu’on utilise ça pour identifier les fichiers. Par contre il est impossible d’obtenir le fichier à partir du hash.





Après les moyens de détection de Youtube ou autres sont autrement plus évolués, mais ils demandent des ressources que les hébergeurs lambda n’ont pas.

Ici je propose juste une idée simple et rapide (mais faillible) pour les hébergeurs et qui semble être conforme à la loi : le fichier sera bien filtré s’il est réuploadé. Mais si le fichier est très légèrement modifié, il passe… mais ce n’est plus le même fichier non plus.


Il me semblait que le nom d’un fichier était inscrit dans le fichier lui même.


Critique lourde mais fondée, à voir ce qui se passera ensuite, la balle est dans le camp français.








le hollandais volant a écrit :



Chaque fichier (dans le monde) a un hash différent. C’est pour ça qu’on utilise ça pour identifier les fichiers. Par contre il est impossible d’obtenir le fichier à partir du hash. 





Non, il y a des collisions. Plusieurs fichiers différents peuvent avoir un hash identique, cela est d’autant plus probable que le nombre de fichiers est grand.









le hollandais volant a écrit :



….



Ceci montre surtout que le filtrage a priori est techniquement impossible à moins d’utiliser un système de reconnaissance des fichiers non basé sur des hash, mais plutôt sur une IA, ce dont on est encore loin ! ..



De plus, si on incite à ce type de progrès technique, on voit très bien ce que pourront en faire les pays totalitaires pour museler la liberté d’expression. Il faut toujours rester très vigilent en la matière, c’est la fable des langues d’Ésope : la pire et la meilleure des chose selon l’usage qu’on en fait