La proposition de loi contre la cyberhaine, ligne par ligne

Du CSA à... la Hadopi, en passant par l'OCLCTIC 41
Accès libre
image dediée
Crédits : Marc Rees (CC-BY-SA 3.0)
Loi
Marc Rees

Next INpact a dévoilé hier la proposition de loi de la députée Laetitia Avia, ce fameux texte promis par Emmanuel Macron, destiné à lutter contre la cyberhaine. Comme ausculté dans notre analyse ligne par ligne, ses dispositions vont en l'état bien plus loin.

On connait désormais le contenu de la proposition de loi Avia. Le texte prévoit tout un arsenal pour lutter contre des propos illicites tenus en ligne. Il contient huit articles, consacrant notamment l’arrivée du Conseil supérieur de l’Audiovisuel sur la problématique de la haine en ligne, pas seulement sur les flux Internet des chaînes de télévision.

Une obligation de retrait en 24 heures

L’article 1er d'abord prévoit un nouveau régime de responsabilité pour certains acteurs et certaines infractions. Ces acteurs sont les plateformes d’hébergement de contenus publics qui dépasseront un seuil de connexion sur le territoire français, fixé par décret (dans le Journal du Dimanche, la députée Laetitia Avia avait suggéré un palier de 2 millions de connexion par mois).

Dit autrement, tous les hébergeurs de contenus d’une certaine importance. YouTube, Facebook, Dailymotion, Twitter seront évidemment concernés, mais aussi le Monde et d’autres grands sites de presse en ligne, s’agissant des zones de commentaires. Par contre, le site Egaliteetreconciliation.fr d’Alain Soral sera hors champ, à supposer qu'il soit en dessous du seuil et qu'il repose, même en partie, sur « la mise en relation de plusieurs parties en vue du partage de contenus publics ».

Ce nouveau régime de responsabilité ne sera activé que dans le cadre d’une liste fermée d’infractions. Techniquement, le texte cite celles des 5ème et 6ème alinéas de l’article 24 et celles des 3ème et 4ème aliénas de l’article 33 de la loi du 29 juillet 1881 sur la liberté de la presse.

Derrière, ces dispositions concernent :

  1. La provocation à la haine ou violence à l'égard d'une personne ou d'un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race, une religion déterminée, à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap. 
  2. L'injure envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée.

Seulement, le texte introduit curieusement un filtre préalable : les plateformes ne devront traiter que les messages « comportant une incitation à la haine ou une injure à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap ». En somme, les infractions à l’identité de genre, pourtant ciblées dans les dispositions de la loi de 1881, échapperont à ce régime de responsabilité.

Que devront faire les plateformes concernées ? Elles auront à supprimer les messages dans les 24 heures d’une dénonciation. Le texte n’a pu faire l’impasse sur la jurisprudence du Conseil constitutionnel de 2004 relative à la loi sur la confiance dans l’économie numérique. Selon les Sages, seuls devront être traités dans ce court laps de temps, les messages « manifestement » haineux ou injurieux.

Il reviendra donc à l’ensemble des sites enregistrant plus de 2 millions d’utilisateurs par mois de faire un tri entre les contenus notifiés manifestement illicites (régime de la loi de 2004), et ceux manifestement illicites mais rattachés à ces infractions spécifiques. Seuls ces derniers devront être supprimés dans les 24 heures, les autres continueront à devoir l’être « promptement », nuance...  

Toutes les plateformes concernées devront savoir faire une sélection fine entre les mauvaises blagues de beaufs et les vraies infractions à la loi de 1881 sur la liberté de la presse.

Cette contrainte n’est pas mince notamment pour les sites connaissant une certaine popularité mais édités par une seule personne. Celle-ci devra être en alerte 24h/24, 365 jours par an.

Autre chose, le texte organise un régime à deux vitesses entre les infractions. Le gouvernement, qui soutient cette proposition, devra déborder d’arguments pour expliquer que le principe d’égalité est bien respecté par la proposition de loi LREM. Si les injures raciales sont concernées, d'autres injures en sont exclues.

Une obligation de retrait supervisée par le CSA, sanction à la clef

L’article 1 confie les clefs de cette régulation à une autorité administrative, et pas n’importe laquelle : le Conseil supérieur de l’Audiovisuel, qui gagne de nouveaux galons dans la régulation sur Internet. Les manquements des plateformes pourront même faire l’objet d’une sanction pécuniaire pouvant atteindre jusqu’à 4 % du chiffre d’affaires mondial.

Le CSA devra respecter la procédure de mise en demeure prévue par la loi de 1986 sur la liberté de communication.

Pour nourrir un échange avec les utilisateurs, les opérateurs auront aussi à mettre en œuvre un dispositif permettant :

  1. en cas de retrait d’un contenu, à l’utilisateur à l’origine de la publication du contenu retiré de contester ce retrait ;
  2. en cas de non-retrait d’un contenu signé, à l’auteur du signalement de contester le maintien de ce contenu.

Le signalement des contenus

À l’article 2, la proposition de loi Avia touche au fragile édifice de la loi de 2004 sur la confiance dans l’économie numérique. Âgé de 19 ans, ce texte organise une présomption de connaissance d’un fait illicite chez l'hébergeur.

Ainsi, « la connaissance des faits litigieux est présumée acquise par [les hébergeurs] lorsqu'il leur est notifié les éléments suivants » :

  • la date de la notification ;
  • si le notifiant est une personne physique : ses nom et prénoms, profession, domicile, nationalité, date et lieu de naissance ;
  • si le requérant est une personne morale : sa forme, sa dénomination, son siège social et l'organe qui la représente légalement ;
  • les nom et domicile du destinataire ou, s'il s'agit d'une personne morale, sa dénomination et son siège social ;
  • la description des faits litigieux et leur localisation précise ;
  • les motifs pour lesquels le contenu doit être retiré, comprenant la mention des dispositions légales et des justifications de faits ;
  • la copie de la correspondance adressée à l'auteur ou à l'éditeur des informations ou activités litigieuses demandant leur interruption, leur retrait ou leur modification, ou la justification de ce que l'auteur ou l'éditeur n'a pu être contacté.

Dit autrement, lorsqu’un hébergeur reçoit une notification respectant ce formalisme, alors il est présumé connaître les faits illicites dénoncés. À lui ensuite de supprimer ceux qui le sont manifestement sous peine d’engager sa responsabilité. En cas de doute, il doit laisser la priorité au juge. 

Le texte Avia modifie ce régime. « La connaissance des faits litigieux sera présumée acquise par [les hébergeurs] lorsqu'il leur est transmis dans le cadre d’un signalement les éléments suivants » :

  • si le notifiant est une personne physique : ses nom, prénoms, adresse électronique ;
  • si le notifiant est une personne morale : sa forme sociale, sa dénomination sociale, adresse électronique ;
  • si le signalant est une autorité administrative : sa dénomination et son adresse électronique ;

ou tout élément d’identification « de quiconque a contribué à la création du contenu ou de l'un des contenus des services dont elles sont prestataires ».

Enfin, la notification devra viser « la catégorie à laquelle peut être rattaché le contenu litigieux, choisie à partir d’une liste dressée par décret et la ou les adresses électroniques auxquelles ce contenu est rendu accessible. »

Fin du principe de subsidiarité 

Par ce trait de plume, Laetitia Avia revoit le régime de responsabilité des hébergeurs, dans les textes. Outre un allégement des informations à communiquer, il ne sera plus nécessaire de respecter le principe de subsidiarité.

Un point très important. Théoriquement, ce principe obligeait jusqu'alors une victime prétendue à contacter d’abord l’auteur de propos litigieux pour ensuite se retourner devant l’hébergeur. Désormais, la demande de suppression pourra être adressée directement à cet intermédiaire technique.

Fait notable, ce régime ne concerne pas seulement les infractions « haineuses » mais éclabousse toutes les branches du droit dont la propriété intellectuelle. Les actions en contrefaçon seront donc facilitées puisque les sociétés de défense de l’industrie culturelle n’auront plus à rechercher préalablement l’éditeur d’un site et à démontrer qu’il est injoignable ou inconnu.  

L'article 2 oblige aussi les plateformes au-dessus du seuil à accuser réception sans délai « de toute notification ». Le notifiant devra être alerté « des suites données à sa demande de retrait dans un délai maximum de 24 h » pour les contenus illicites manifestement haineux ou injurieux. Des suites seront données dans un délai maximum de 7 jours pour tous les autres contenus, ceux simplement illicites ou ceux ne soulevant aucune problématique de liberté d’expression.

Un bouton d’alerte accessible et uniforme à toutes les plateformes

Toutes les plateformes, toujours au-dessus de ce seuil, devront en outre adopter un « dispositif de signalement facilement accessible et uniformisé ». Ce bouton d’alerte permettra de dénoncer en langue française un tweet ou un commentaire directement dans les mains de la plateforme.

Le texte ne dit pas quelle sera l’entité en charge de définir la forme de ce bouton, son emplacement, ses fonctions, les éventuels traitements de données personnelles orchestrés en coulisse. De même le texte ne dit pas que ce bouton doit être « commun » à tous les acteurs, contrairement à ce qui fut dit dans la presse. 

Enfin, l’article 2 prévient que ces plateformes devront « mettre en œuvre les moyens humains ou technologiques proportionnés et nécessaires à un traitement dans les meilleurs délais des signalements reçus ». Twitter, qui draine chaque jour des millions de messages, devra donc prévoir une armée de modérateurs en capacité de traiter toutes les notifications reçues, les vrais comme les plus farfelues.

L’information des victimes (article 3)

Les plateformes auront à fournir aux utilisateurs « une information publique, claire et détaillée sur les dispositifs de recours, y compris judiciaires, dont disposent les victimes de contenus ». Mais cette information ne concerne que les victimes d’incitation à la haine ou d’injure à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap. Non les autres infractions. 

Obligations de transparence (article 4)

Les plateformes devront publier des rapports rendant comptent « des actions et moyens mis en œuvre dans la lutte contre les contenus comportant une incitation à la haine ou une injure à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap ».

C’est le Conseil supérieur de l’audiovisuel qui dressera la liste des informations à rendre publique.

Il pourra adresser aux opérateurs « des recommandations visant à améliorer la lutte contre les contenus illicites ». Il s'assurera « du suivi des obligations reposant sur les opérateurs » et publiera « un bilan périodique ». Pour rédiger ce bilan, il aura la possibilité de recueillir auprès des intermédiaires « toutes les informations nécessaires ». Le conseil devient ainsi l’organe de contrôle des rapports de suppression édités par les plateformes en ligne. 

Identification des auteurs des contenus illicites (article 5)

Selon Laetitia Avia, « les dispositions de la loi pour la confiance dans l’économie numérique comportent d’ores et déjà l’obligation, pour les plateformes, de détenir les éléments nécessaires à l’identification de leurs utilisateurs et de transmettre ces informations aux autorités compétentes », néanmoins, « force est de constater la complexité des démarches judiciaires lorsqu’il s’agit de lever l’anonymat de ces personnes, en particulier auprès d’opérateurs installés à l’étranger ».

En cas de défaillance dans une levée de pseudonymat, la plateforme encourra donc non plus 75 000 euros d’amende mais 250 000, avec toujours la possibilité de condamner les responsables à un an de prison.

Cette élévation de l’échelle des peines est cependant beaucoup plus large que ne le laisse penser l’intitulé de l’article. Elle concerne déjà tous les contenus illicites en ligne, pas seulement ceux relevant de la haine ou l’injure, mais aussi les problèmes de coopération, les difficultés dans les dispositifs de signalement, les retards dans l’information transmise aux autorités compétentes, des défaillances dans la législation sur les jeux en ligne (information et bouton d’alerte) mais également dans la lutte contre le terrorisme (incitation ou provocation) et la pédopornographie. 

Toutes les plateformes étrangères devront également désigner un représentant légal « exerçant les fonctions d’interlocuteur référent sur le territoire français » pour l’application de la future loi Avia.

Blocage et déréférencement administratifs des contenus jugés illicites (article 6)

C’est là aussi un point central, épilogue d’une longue lutte. Laetitia Avia, profitant de la proposition de loi contre les contenus haineux ou injurieux, revoit tout le régime du blocage de site en France.

À ce jour, lorsqu’un tribunal estime qu’un site doit être bloqué, si le site réapparait sous un autre nom de domaine, il faut repasser devant le juge. Celui-ci est alors en compétence pour déterminer si le site 2 est identique au site 1.Le cas s’est vu récemment s’agissant des clones de Libertyland, StreamComplet et VoirFilms.

Seules exceptions à ce blocage judiciaire : les sites faisant l’apologie du terrorisme et pornographiques qui font l’objet d’un blocage administratif entre les mains du ministère de l’Intérieur.

À l’article 6 de la future loi Avia, il est prévu que « l’autorité administrative [pourra] enjoindre aux [FAI] ainsi qu’à tout fournisseur de noms de domaine de bloquer l’accès à tout site, serveur ou à tout autre procédé électronique » de tous les sites « permettant d’accéder aux contenus pour lesquels une décision passée en force de chose jugée a été rendue », « ou donnant accès aux contenus jugés illicites par une décision passée en force de chose jugée ».

L’autorité administrative pourra de la même façon « enjoindre à tout moteur de recherche ou annuaire de faire cesser le référencement des adresses électroniques renvoyant aux contenus pour lesquels une décision passée en force de chose jugée a été rendue, ou donnant accès aux contenus jugés illicites par une décision passée en force de chose jugée. ».

En clair, quand un site réapparaîtra, après avoir été bloqué judiciairement, l’autorité administrative pourra intervenir pour assurer une forme de SAV et enjoindre FAI et fournisseurs de noms de domaine et moteurs de bloquer ses répliques, sans avoir à repasser préalablement par le juge. Laetitia Avia avait d'ailleurs cité le cas de DemocratieParticipative.biz, bloqué en justice mais revenu sur la scène sous une autre URL.

L'autorité administrative... quelle autorité ? 

Remarquons que la députée se garde bien de citer cette fois le CSA. L’usage de l’expression « autorité administrative » pourrait permettre de conjuguer ce dispositif à toutes les sauces. Par exemple, avec une telle rédaction, les ayants droit s’adresseraient directement à la Hadopi, au hasard, pour assurer le blocage des sites miroirs ou de contournement d’un site épinglé par la justice pour de multiples contenus contrefaisants.

La haute autorité qui réclame depuis des années une extension de ses compétences, verrait là son rêve se réaliser, d'autant que Franck Riester a lui-même dénoncé la problématique de ces sites miroirs. Néanmoins, on reste cependant surpris par la rédaction : par exemple, il n'est prévu, dans cette phase administrative, aucune possibilité de discussions entre les parties prenantes avant blocage ou déréférencement sans juge. 

Une certitude : ce texte introduit un système administratif postérieur à toutes les procédures de blocage judiciaire, dès lors qu'un site de contournement est remis en ligne. La démarche dépasse allègrement le seul cadre des contenus haineux. Elle n’est pas neutre puisque ces procédures administratives ne sont pas censées être publiques. L'autorité pourra donc comparer le site 1 et le site 2 dans l’ombre d’un bureau, loin des prétoires. 

Tout aussi certainement, l'article 6-I de la loi sur la confiance dans l'économie numérique utilise déjà l'expression d'« autorité administrative », pour faire référence aux compétences cette fois de l'Office central de lutte contre la criminalité informatique en matière de contenus terros/pédos. Avec la PPL Avia, faut-il deviner une forme d'extension des pouvoirs de l'office à l'égard d'autres contenus ? 

Rapport du Gouvernement au Parlement (article 7)

Le dernier article demande au gouvernement de présenter au Parlement un rapport annuel sur l’exécution de la cette loi et « les moyens consacrés à la lutte contre les contenus illicites, y compris en matière d’éducation, de prévention et d’accompagnement des victimes ». Cet appel du pied concerne « les contenus illicites » donc tous les contenus de ce type, pas seulement ceux rattachés à la proposition de loi.

Le texte doit maintenant faire l'objet d'un dépot à l'Assemblée nationale. Un avis du Conseil d'Etat est également attendu, une simple option pour les propositions de loi. 


chargement
Chargement des commentaires...