Haine en ligne : tour d'horizon des 265 amendements

La tactique du gendarme 34
Accès libre
image dediée
Loi
Marc Rees

La proposition de loi contre la haine sur Internet sera examinée en commission des lois le 19 juin prochain. De ces travaux préparatoires, aboutira le texte destiné à être ausculté puis voté en séance. En prévision de ce premier rendez-vous, plus de 260 amendements ont été déposés. Tour d’horizon. 

Dans ses très grandes lignes, le texte entend obliger les plateformes à supprimer les contenus « haineux » dans le délai très court de 24 heures. En cas de défaillance, le Conseil supérieur de l’audiovisuel pourrait asséner une sanction allant jusqu’à 4 % du chiffre d’affaires mondial (notre analyse complète, ligne par ligne).

Le Conseil d’État, saisi pour avis, a cependant émis plusieurs chaudes recommandations pour revoir ces dispositions. Elles ont été prises en compte par Laetitia Avia, rapporteur du texte, dans sa quarantaine d’amendements déposée depuis en commission des lois.  

Dans ce flot, on assiste, sans surprise, à une refonte de la loi sur la confiance dans l’économie numérique (la LCEN de 2004), avec déjà l’introduction de l’obligation de « retrait renforcé » des contenus manifestement haineux. Elle concernera d’une part l’ensemble des sites « reposant sur la mise en relation de plusieurs parties en vue du partage de contenus publics » et d’autre part, et comme l’avait recommandé le Conseil d’État, les moteurs de recherche

Le seuil d'activation de l'obligation de retrait en 24 heures

Le texte devait initialement s’appliquer aux seuls acteurs dépassant « un seuil, déterminé par décret, de nombre de connexions sur le territoire français ». Dans l’amendement CL91, la députée n’évoque plus qu’un simple « seuil », certes toujours défini par décret.

Cette réécriture, d'après la rapporteure, permettra de « régler le cas particulier des plateformes hébergeant des échanges de contenus à la fois publics et privés ou celui des plateformes qui hébergent un forum de discussion en marge d’une activité principale différente ».

Dans le CL142, plusieurs députés LR voudraient toutefois faire sauter ce seuil afin d’étendre ces obligations à toutes les plateformes. « L'atteinte à l'ordre public et à la dignité des personnes visées par les contenus odieux n'est pas proportionnelle au nombre de vues d'un contenu odieux, mais elle se réalise par la mise en ligne et dès la première vue », justifient-ils. 

Le PS aimerait plutôt imposer un seuil de 500 000 connexions par mois, soit bien loin des 2 millions envisagés par Laetitia Avia. « Il faut éviter que de plus petits opérateurs de plateforme proposant un service de communication au public en ligne tirent parti de leurs dimensions plus modestes pour échapper à la loi », avance le groupe. 

Les infractions concernées : ouverture des vannes

Alors que le texte d’origine ne frappait que certaines infractions, à savoir...

  1. La provocation à la haine ou violence à l'égard d'une personne ou d'un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race, une religion déterminée, à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap.
  2. L'injure envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée.

... Laetitia Avia en rajoute une série au fil de l’amendement CL93. Techniquement, la première version de cette rustine visait les articles 222 33, 225 4 1, 225 5, 225 6, 227 23 et 227 24 du Code pénal. Cela concerne donc :

  • « L’apologie des crimes de guerre, des crimes contre l’humanité, des crimes de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage, des crimes et délits de collaboration avec l’ennemi, des crimes d’atteinte volontaire à la vie ou à l’intégrité physique, d’agression sexuelle, de vol aggravé, d’extorsion ou de destruction, dégradation ou détérioration volontaire dangereuse pour les personnes ;
  • le harcèlement sexuel ;
  • la traite des êtres humains ;
  • le proxénétisme ;
  • la fixation, l’enregistrement ou la transmission de l’image ou de la représentation pornographique d’un mineur en vue de sa diffusion ainsi que l’offre, la mise à disposition, la diffusion, l’importation ou l’exportation d’une telle image ou représentation ; 
  • la fabrication, le transport ou la diffusion d’un message à caractère violent, incitant au terrorisme, pornographique ou de nature à porter gravement atteinte à la dignité humaine ou à inciter des mineurs à se livrer à des jeux les mettant physiquement en danger ainsi que le commerce d’un tel message lorsqu’il est susceptible d’être vu ou perçu par un mineur »

Tous ces contenus devraient donc être supprimés dans les 24 heures par les plateformes situées au-dessus du seuil.

Remarquons que dans cette version initiale, la provocation au terrorisme et son apologie (article 421-2-5 du Code pénal) n'étaient pas incluses. Rien d’anormal, finalement : elles font déjà l’objet de mesures spécifiques beaucoup plus nerveuses à l'article 6-I de la LCEN : blocage, retrait et déréférencement administratif. Ajoutons que la proposition de règlement européen contre le terrorisme introduit lui aussi une obligation de retrait, cette fois en une heure.

Néanmoins, la députée est revenue sur son argumentaire. Dans une version rectifiée, elle a finalement ajoutée la provocation au terrorisme et son apologie. Ces mesures sont censées rester actives, le temps que le règlement soit appliquée.

Un tel inventaire a ouvert un véritable concours Lépine chez d’autres parlementaires. Avec l’amendement CL33, des élus proposent ainsi « d’ajouter le harcèlement scolaire à la liste des contenus que les plateformes numériques se doivent de retirer dans les 24 heures suivant leur signalement. » 

D'autres aimeraient intégrer à cette liste les atteintes à la vie privée (CL36), « l’atteinte à la dignité de la personne humaine » (CL40),  « les contenus comportant une négation ou une contestation des crimes contre l'humanité ou de génocide » (CL70), « les faits de harcèlement, de tous types » (CL193) , les injures relatives à l’apparence physique (CL66), l’état de santé (CL62), le handicap (CL 220) ou à l’appartenance à un groupe social (CL137), voire le revenge porn (CL215).

Dans cet autre amendement, des élus du groupe Libertés et Territoires veulent considérer comme incitation à la haine ou injure à raison de la race et de la religion « tout contenu niant l'existence même de l’État d'Israël ou appelant à sa destruction ».

Des députés LREM estiment nécessaire de préciser que les retraits devraient être opérés, peu importe que les propos litigieux visent des éléments « vrais ou supposés »

Contre l'anonymat, le PS veut imposer la « double identification »

Pour faciliter l’identification des internautes cachés derrière leur écran et pseudo, le groupe socialiste a une idée : imposer la double identification « lors de la création d’un compte sur leur plateforme » (CL80).

Ainsi, ils espèrent « s’assurer que les informations fournies – adresse mail, numéro de téléphone – correspondent bien à ceux utilisés par le possesseur du compte ». Et pour cause, « l’identification serait ainsi facilitée en cas de recherche par les autorités d’un auteur de contenu haineux ».

La question du délai de retrait divise. Plutôt que 24 heures, des députés plaident pour une censure en 48 heures (amendement CL163), « afin de ne pas prendre le risque d'une restriction abusive et arbitraire de la liberté d'expression ». Mais d'autres élus MoDem préfèreraient 12 heures, car « maintenir en ligne les contenus visés pendant une période pouvant s'étendre jusqu'à vingt-quatre heures après leur signalement peut s'avérer particulièrement néfaste pour la personne vers laquelle ces contenus sont dirigés » (CL190).

Dans cette pluie d’amendements venant revoir le fragile équilibre de la loi sur la confiance dans l’économie numérique, la députée Laure de la Raudière (Agir) espère sauver quelques pièces.

Elle voudrait qu’« en cas de doute quant au caractère manifestement illicite du contenu, les opérateurs de plateforme en ligne précités [puissent] saisir le juge judiciaire compétent dans un délai de sept jours ouvrables ». Selon l'élue, cette saisine arrêterait le délai de 24 heures, qui pourrait ensuite repartir mais seulement à compter de la notification de la décision du juge.  

L’imagination est sans fin dans la salve d'amendements. Un député souhaite par exemple que « les opérateurs substituent au contenu illicite un message indiquant que le contenu illicite a été retiré en raison d’un signalement ou, le cas échéant, d’une décision administrative ou judiciaire (CL148). Et on imagine sans mal les difficultés techniques nées d'une telle contrainte, si celle-ci venait à être adoptée.  

Le défaut de retrait, la surcensure

Que se passera-t-il si un opérateur ne supprime pas dans les 24 heures (ou 12 ou 48) un de ces contenus « manifestement haineux » ? La personne physique risquera jusqu’à un an d’emprisonnement, 250 000 euros d’amende et, pour la personne morale, pas moins de 1 250 000 euros d’amende (l'amendement de Laetitia Avia).

Attention néanmoins, c’est le défaut de retrait ou de déréférencement qui est sanctionné par le juge, non le surretrait ou le surdéréférencement.

Ces surcensures ne seront pas sanctionnées devant la justice mais devant le CSA. Et encore, cela ne pourra s'envisager que dans le cadre d’une défaillance répétée à l’obligation de coopération, suivant une mise en demeure restée sans effet.

Au bout du compte, le conseil pourrait infliger « une sanction pécuniaire dont le montant prend en considération la gravité des manquements commis et, le cas échéant, leur caractère réitéré, sans pouvoir excéder 4 % du chiffre d’affaires annuel mondial total de l’exercice précédent ». Un montant inspiré du RGPD. 

Un député aimerait d’ailleurs porter ce plafond à 10 %, quand un autre préfèrerait 6 %.

Le devoir de coopération des opérateurs de plateforme proprement dit est précisé par le CL100 de la rapporteure. L’amendement oblige les intermédiaires techniques à respecter une série de devoirs, donc celui « de se conformer aux recommandations que pourra prendre le Conseil supérieur de l’audiovisuel dans ses prérogatives de supervision du secteur, pour la bonne application par ces opérateurs de l’obligation de retirer ou rendre inaccessible tout contenu manifestement haineux dans les 24 heures suivant sa notification ».  En somme,  le CSA va venir chapeauter un grand nombre de contenus en ligne. Une consécration de plusieurs années de lutte en ce sens, qu'avait déjà rêvé le rapport Lescure en 2013

Retour du formalisme des notifications

Dans sa quarantaine d'amendements, Laetitia Avia revoit également le formalisme des notifications adressées aux intermédiaires techniques.

Au moment de sa proposition de loi initiale, ce formalisme était très allégé. « Il y a la nécessité de simplifier l’expérience utilisateur, de répondre à une réalité quotidienne » nous expliquait l’élue dans une interview. « Soit les principes de notification qui existent au titre de la LCEN ne sont pas respectés – on sait bien que c’est le cas – soit ils le sont, mais cela a un caractère tellement fastidieux et lourd que les dispositions sont contreproductives et dissuasives ». 

Finalement, elle revient sur ses propos avec l’amendement CL97 qui consacre le retour d'un formalisme beaucoup plus épais. « À la suite des auditions conduites par votre rapporteure, en particulier celle des représentants des moteurs de recherche, cet amendement précise que la notification du contenu haineux à l’opérateur de plateforme en ligne devra indiquer la description des faits litigieux et les motifs pour lesquels le contenu notifié contrevient manifestement, d’après le notifiant, à la loi. »

Par contre, le texte valide bien la fin du principe de subsidiarité. Dans la LCEN, une personne s’estimant victime d’un contenu en ligne doit d’abord (tenter de) contacter l’auteur de propos litigieux. C'est seulement après cette étape qu'elle peut se tourner vers l’hébergeur.

Avec la proposition de loi Avia, la demande de suppression pourra être adressée directement à l’intermédiaire technique. Mieux, cette réforme concerne l’ensemble des contenus, pas seulement la cyberhaine. La propriété intellectuelle est donc concernée, ce qui facilitera la mise en cause des hébergeurs puisque les sociétés de défense de l’industrie culturelle n’auront plus à rechercher préalablement l’éditeur d’un site et à démontrer qu’il est injoignable ou inconnu.  

Des autorités alertées de chaque notification adressée aux plateformes

Les autorités seront alertées « promptement » de toutes ces notifications, prévient l’amendement Avia CL111. Les plateformes auront en effet « l’obligation de rendre compte aux autorités publiques des activités haineuses qui leur sont notifiées, afin de faciliter les poursuites à l’encontre des auteurs de ces activités ». 

Quantités d’alertes seront donc adressées aux agents du ministère de l’Intérieur avec de possibles poursuites à la clef.

Le texte initial prévoyait également des mesures pour assurer la pérennité des décisions de blocage judiciaire en dotant une « autorité administrative » du pouvoir d’enjoindre les FAI de les étendre aux sites miroirs. L’amendement Avia CL121 revoit cette économie.

En pratique, lorsqu’une décision judiciaire « interdit la reprise totale ou partielle d’un contenu » porteur de cyberhaine, l’Office central de lutte contre la criminalité informatique (OCLCTIC) pourra être saisie par toute personne intéressée, pour demander aux FAI ainsi qu’à tout fournisseur de noms de domaine « de bloquer l’accès à tout site, serveur ou à tout autre procédé électronique donnant accès aux contenus jugés illicites par ladite décision ».

De même, l’office pourra « demander à tout moteur de recherche ou annuaire de faire cesser le référencement des adresses électroniques donnant accès à ces contenus ».

Si le FAI, le moteur ou le fournisseur de noms de domaine ne donne pas suite, « l’autorité judiciaire peut être saisie, en référé ou sur requête, pour ordonner toute mesure destinée à faire cesser l’accès à ces contenus ». 

Remarquons que le PS aimerait confier cette mission relative aux sites miroirs au seul CSA, et surtout pas à la Hadopi, ni donc à l’OCLCTIC.

Ces nouvelles obligations s’appliqueront à l’ensemble des acteurs proposant leurs services sur le territoire français, même établis à l’étranger. Le texte devrait s’appliquer immédiatement s'agissant du retrait en 24 heures et à partir du 1er janvier 2020 s’agissant du devoir de coopération.

Le CSA, futur contrôleur du blocage administratif

Remarquons pour finir que le texte veut exclure la CNIL du périmètre du blocage administratif. Jusqu’à présent, une personnalité qualifiée désignée par elle était chargée de contrôler ces opérations. Il s’agit pour l'heure du magistrat Alexandre Linden.

Ce contrôle a été utile. Le représentant de la commission a par exemple réussi à faire annuler une demande de retrait et de déréférencement émanant de l'Intérieur devant les juridictions administratives. La même personnalité avait par ailleurs sauvé un tweet humoristique qu’avaient (mal) épinglé les autorités.

Dans son dernier rapport annuel, il avait surtout été très critique sur son manque de moyens. « Cette situation compromet l’effectivité de son contrôle sur l’ensemble des demandes de retrait de contenus, de blocage ou de déréférencement ».

Au détour d’un amendement autour de la proposition de loi contre la cyberhaine, Laetitia Avia ne veut finalement plus que la CNIL régule ces opérations. Elle entend confier ces missions de surveillance… au seul CSA. Une modification « de cohérence » avance l’élue LREM, en guise d’explication. Selon ses confidences, ce transfert a été souhaité par la CNIL.

Contactée, la CNIL « prend acte de cet amendement ». Elle constate qu’ « effectivement, compte tenu du projet de confier au CSA une mission de régulation des contenus, la question de l’autorité compétente pour les missions mentionnées à l’article 6-1 de la LCEN se pose désormais dans des termes nouveaux. En 2014, aucune autre autorité n’exerçait des pouvoirs de cette nature. Il peut dès lors apparaître cohérent d’envisager un regroupement ».

Selon Laetitia Avia, ce transfert adoubé par la CNIL est programmé au 1er janvier 2021, « le temps de s’organiser ».

Remarquons enfin que plusieurs députés profitent de la fenêtre pour toucher à la loi de 1881 afin d’étendre la prescription de 1 an à… 6 ans, s’agissant de « la provocation à la discrimination, à la haine ou à la violence à l'égard d'une personne ou d'un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée ».

D’autres veulent aussi responsabiliser « les acheteurs de publicités digitales », et ce « en leur imposant une obligation de supprimer tout message publicitaire qui serait diffusé sur un site internet ou accolé au compte d’un réseau social affichant des contenus haineux ». Dans cet amendement, il est même proposé « de mettre en place le mécanisme de Name and shame, qui vise à publier la liste des annonceurs dont les contenus sont visibles sur des sites internet diffusant des propos haineux ». 

Le texte sera examiné demain, à partir de 9h30, en commission des lois.


chargement
Chargement des commentaires...