Cyberhaine : la loi Avia, ligne par ligne

Du chinois au français 34
Accès libre
image dediée
Crédits : Marc Rees (licence CC-BY-SA 3.0)
Loi
Marc Rees

La proposition Avia est prête à être loi... avec un contretemps : le texte va être soumis au Conseil constitutionnel par au moins 60 sénateurs Les Républicains (LR). C’est en tout cas ce qu’a annoncé Bruno Retailleau, président du groupe à la chambre haute. Mais que prévoit le texte ? Next INpact vous propose un long format, une explication ligne par ligne.

Les députés ont adopté mercredi la loi contre la haine en ligne. Cet examen en lecture définitive n'a pas suscité de surprise avec une assemblée sous majorité La République En Marche (LREM). Tour d'horizon de l'ensemble des dispositions du texte, en commençant par les obligations de retrait. Car sous couvert de « simplification », la proposition de loi adoptée hier en lecture définitive plus d’un an après son dépôt en procédure accélérée recèle bien des surprises.

Chapitre I : « Simplification » des dispositifs de notification des contenus haineux en ligne

Article 1er-I. Le retrait en une heure des contenus terro et pédo

Suite à un amendement déposé par le gouvernement en dernière ligne droite, le texte revoit profondément le traitement des contenus relevant de l’apologie ou de l’incitation au terrorisme ou encore de la pédopornographie. 

L’article 6-1 de la loi sur la confiance dans l’économie numérique accorde à ces données un régime particulier : celui d’un retrait administratif, et donc sans intervention préalable du juge. Il revient donc aux autorités raccrochées au ministère de l’Intérieur de qualifier les contenus et d’alerter ensuite les sites, hébergeurs, FAI et moteurs.

Ils avaient jusqu'alors 24 heures pour supprimer l’accès ou opérer un déréférencement. L’article 1er de la loi Avia ramène cette fois le délai à 1 heure, ce qui, outre les questions de logistique, imposera aux personnes concernées de se décider en un minimum de temps. L’acteur qui aura procédé à ce nettoyage devra informer dans le même délai l’autorité administrative des suites données. Mercredi, le sujet a été contesté, vainement. 

En séance, la députée Danièle Obono a rappelé « comme l’ont relevé le site spécialisé Next INpact et La Quadrature du Net, que la police n’a pas toujours fait un usage proportionné de son pouvoir de signalement sur internet. Il est notamment fait référence, au début de 2019, au signalement effectué par la police française auprès de Google au sujet d’une caricature présentant Emmanuel Macron et son gouvernement sous les traits du dictateur Pinochet et de ses proches » (notre actualité).

Du côté des LR, Constance le Grip a souligné que le sujet est actuellement à l’étude au sein de l’Union européenne : « Le règlement européen traitant de ce sujet est en cours de discussion. La disposition figurant actuellement à l’article 1er ne serait vraisemblablement pas compatible avec le texte du futur règlement qui devrait résulter des travaux des colégislateurs européens » a-t-elle avancé en séance.

« L’obligation de retrait dans un délai d’une heure fait actuellement l’objet d’un consensus entre les colégislateurs. D’une certaine manière, c’est donc pour nous un appui » a toutefois opposé Nicole Belloubet, avant que la députée Frédérique Dumas ne précise que des discussions perduraient sur l’autorité en charge de décider de ce retrait. La France opte ici pour une autorité administrative non indépendante. D’autres pays européens soutiennent l’intervention d’un juge ou d'une AAI.

Ce blocage administratif est aujourd'hui sous le contrôle d’une personnalité qualifiée désignée par la CNIL. Elle s'était déjà opposée jusque devant la juridiction administrative, à une décision de retrait exigé par l’OCLCTIC pour fait de terrorisme (notre actualité). La proposition de loi Avia dépossède la CNIL de cette compétence.

Demain, le CSA désignera une nouvelle personnalité qualifiée, seul œil extérieur à ces mesures de blocage et retrait administratifs (article 7 alinéa 26 de la loi).

Article 1er-II. Le retrait en 24 heures des contenus « haineux »

C’est là le cœur de la loi. Il s’adresse aux opérateurs de plateforme définis par l’article L.111-7 du Code de la consommation. Selon ce texte, ce sont ceux « qui proposent un service de communication au public en ligne [soit un site] reposant sur la mise en relation de plusieurs parties en vue du partage de contenus publics ».

Avec une telle définition, de nombreux acteurs tombent dans la nasse de cette nouvelle régulation qui ne concerne toutefois que ceux opérant à titre professionnel. Un décret d’application, attendu dans quelques semaines, viendra toutefois fixer un seuil d’activité pour l’enclencher. Toutes les plateformes au-dessus seront donc astreintes à respecter cette obligation de retrait.

Alors que dans le régime de la loi de 2004 sur la confiance dans l’économie numérique, les hébergeurs devaient retirer « promptement » les contenus « manifestement » illicites, il est désormais imposé aux plateformes de partage comme YouTube, Facebook, Instagram, Twitter, TikTok et tant d’autres de les rendre inaccessible en 24 heures après notification.

Cette obligation concerne des contenus « contrevenant manifestement » à une série d’infractions. La liste est limitée…mais lorsqu’on déroule l’éventail, on concrétise bien mieux son champ :

  • Apologie des crimes d’atteinte volontaire à la vie, d’atteinte volontaire à l’intégrité de la personne, d’agression sexuelle, de vol aggravé, d’extorsion, de destruction, de dégradation ou détérioration volontaire dangereuse pour les personnes, des crimes de guerre, des crimes contre l’humanité, des crimes de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage ou des crimes et délits de collaboration avec l’ennemi, y compris si ces crimes n’ont pas donné lieu à la condamnation de leurs auteurs
  • Provocation à la discrimination, à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion
  • Provocation à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap ou ayant provoqué, à l’égard des mêmes personnes, aux discriminations prévues par les articles 225-2 et 432-7 du Code pénal
  • Contestation de l'existence des crimes contre l'humanité, négation, minoration ou banalisation des crimes de génocides, des crimes de réduction en esclavage ou des crimes de guerre
  • Injure commise par les mêmes moyens envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée
  • Injure commise dans les mêmes conditions envers une personne ou un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap
  • Harcèlement sexuel
  • Captation, enregistrement, transmission, offre, mise à disposition, diffusion, importation ou exportation, acquisition ou détention d’image pornographique d’un mineur ; consultation habituelle ou en contrepartie d’un paiement d’un service de communication au public en ligne mettant à disposition des images pornographiques de mineurs
  • Fabrication, transport, diffusion ou commerce de message pornographique susceptible d’être vu ou perçu par un mineur
  • Provocation directe à des actes de terrorisme ou apologie publique de ces actes

L’alinéa 10 de l’article étend cette obligation de retrait aux moteurs de recherche (Bing, Google, etc.). Des amendements avaient encore été déposés contre cette extension, mais Laetitia Avia s’y est opposée : « Les moteurs de recherche ont également une activité d’ordonnancement, d’accélération ou d’exposition des contenus haineux », assure-t-elle.

Comment sera calculé le délai de 24 heures ? Il débutera à partir de la réception d’une notification, c’est-à-dire une alerte adressée par un utilisateur de la plateforme ou du moteur. Plateformes et moteurs ne devront supprimer que les contenus qui contreviennent manifestement aux dispositions de la loi de 1881 ou du Code pénal, énumérées ci-dessus.

Juridiquement, lorsqu’ils auront la certitude que la violation est évidente, le retrait et le déréférencement devront être décidés très rapidement. Là où un juge dispose du temps pour contextualiser, qualifier les propos, ces acteurs devront se fier à leur instinct. Pas simple. Toujours juridiquement, si ces deux types d’acteurs estiment que la violation n’est pas si flagrante, on parle de « contenus gris », alors pas de doute : ils devront laisser en ligne les contenus litigieux.

avia

En pratique, cette démarche en arbre de choix sera beaucoup moins évidente. Déjà, les plateformes de portée mondiale ne peuvent allouer l’ensemble de leurs équipes de modération à la seule France. Surtout, la décision de conserver un « contenu gris » ouvrira une grande incertitude. Pourquoi ? Car saisi par une partie, un tribunal pourra renverser cette décision pour considérer que la violation était bien manifestement illicite. Et l’opérateur de plateforme ou le moteur risquera 250 000 euros d’amende par contenus non supprimés. Selon la Garde des Sceaux, ce montant ne concerne que les personnes physiques. Il serait donc de 1,250 million d’euros s’agissant les personnes morales (montant multiplié par cinq). 

Certes, dit le texte, l’infraction sera intentionnelle. La preuve de l’intention devra être démontrée avant de condamner Google, Twitter ou Facebook. Toutefois, la loi Avia prévient que ce caractère intentionnel pourra « résulter de l’absence d’examen proportionné et nécessaire du contenu notifié ». Ainsi, s’il est démontré que la plateforme n’a pas mis en place l'examen « proportionné et nécessaire » pour supprimer les contenus manifestement rattachés à une infraction, elle sera éligible à la sanction pénale. Et inversement. Reste à savoir ce que recouvre ce critère, source d’insécurité supplémentaire.

Les contenus retirés ne seront pas effacés totalement des serveurs. S’ils disparaissent des écrans des utilisateurs, ils devront être « temporairement conservés par les opérateurs de plateformes pour les besoins de la recherche, de la constatation et de la poursuite des infractions pénales, à la seule fin de les mettre à la disposition de l’autorité judiciaire ».

C’est un décret en Conseil d’État, pris après avis de la CNIL, qui en définira la durée et les modalités de conservation. La question des données personnelles devra se conjuguer avec celle de la prescription pénale. Cette obligation avait été introduite par le Sénat, reprise finalement par Laetita Avia (LREM) lors de la dernière séance (amendement 23).

Article 1er-III. Filtrage des contenus ou republication ordonnée par la justice

Le texte prévoit que l’autorité judiciaire pourra prescrire « en référé ou sur requête » aux opérateurs de plateforme toutes mesures propres à « prévenir ou faire cesser » un dommage occasionné 

  • par un contenu manifestement rattaché à une des infractions de la liste noire (ou)
  • par le retrait d’un contenu par un opérateur

La plateforme pourra donc être contrainte de mettre en place les moyens permettant notamment de prévenir la réapparition d’un de ces contenus. Il s’agit là d’un filtrage ciblé, qui devra en plus être limité dans le temps, sauf à malmener les critères développés par la Cour de justice de l’Union européenne.

Le second point permettra de saisir le même juge pour demander « la republication immédiate du texte en cas d’atteinte à la liberté d’expression », dixit Laetitia Avia. Seulement, on peut craindre que peu d’internautes saisissent la justice pour un tweet trop rapidement retiré par l’hébergeur... plutôt que de le republier, au besoin sous une autre forme ou sur un autre réseau social.

Article 1er-IV. Pouvoir des associations de défense

Cette disposition autorise des associations à demander le retrait des contenus qui les concernent, à l’instar d’une des victimes directement.

Il faut qu'elles aient dans leur statut : le combat contre le racisme ou les discriminations fondées sur l’origine nationale, ethnique, raciale ou religieuse, les violences ou les discriminations fondées sur l'orientation sexuelle ou l'identité de genre, le sexe. Sont concernées encore celles qui assurent la défense des intérêts moraux et l’honneur de la Résistance ou des déportés, la mémoire des esclaves, etc. 

Article 1er-V. sanction des notifications trompeuses

Signaler un contenu sur Twitter ne sera pas sans conséquence pour l’auteur de la notification. Le fait pour une personne d’épingler « un contenu ou une activité comme étant illicite » au sens de la loi contre la haine en ligne, « dans le but d’en obtenir le retrait ou d’en faire cesser la diffusion alors qu’elle sait cette information inexacte est punie d’un an d’emprisonnement et de 15 000 euros d’amende. »

La démonstration de cette infraction ne sera pas simple. Il faudra prouver en effet que l’internaute à l’origine du signalement savait pertinemment que l’information signalée était inexacte et qu’il a agi dans le but de faire retirer ce qui n’avait pas à l’être.

Article 2. Le formalisme des notifications

La notification est l'alerte lancée par un internaute à une plateforme, pour lui signaler la présence d'un contenu litigieux. Laetitia Avia avait voulu revoir à la baisse le formalisme attaché à ces alertes non seulement dans « sa » loi, mais également dans le cœur de la loi sur la confiance dans l’économie numérique (LCEN).

Dans les premières versions du texte, au motif de vouloir « simplifier l’expérience utilisateur », elle se contentait d’exiger que le notifiant se limite à une description de « la catégorie à laquelle peut être rattaché le contenu litigieux » et des « motifs pour lesquels il doit être retiré ». À charge pour la plateforme de se débrouiller pour le retrouver.

Pas simple pour une vidéo de plusieurs heures par exemple ! Elle supprimait ainsi l’obligation prévue dans la loi de 2004 qui oblige l’internaute à définir l’emplacement exact du contenu problématique. Cette mesure cavalière avait été épinglée par la Commission européenne elle-même dans les « observations » qui furent révélées par Next INpact (Les observationsnos commentaires). La députée a donc été contrainte de ravaler ses ambitions pour prévoir ce formalisme.

Voilà ce que prévoit le texte :

  • Lorsque le notifiant est une personne physique, il devra donner ses nom, prénom et adresse électronique
  • Lorsque le notifiant est une personne morale, sa forme sociale, sa dénomination sociale, son adresse électronique
  • Lorsque le notifiant est une autorité administrative : sa dénomination et son adresse électronique

Ces conditions relatives à l’identité seront réputées satisfaites « dès lors que le notifiant est un utilisateur inscrit » sur la plateforme, qu’il est effectivement connecté au moment de procéder à l’alerte et enfin, que l’opérateur a recueilli les éléments nécessaires à son identification.

S’agissant du contenu litigieux. L’utilisateur de Twitter, Facebook, YouTube ou Google Search devra notamment :

  • Décrire le contenu litigieux
  • Préciser sa localisation exacte (son URL, sa localisation dans une vidéo, par exemple)
  • Les motifs légaux pour lesquels le contenu litigieux devrait être retiré ou rendu inaccessible

Ces deux dernières conditions seront réputées satisfaites respectivement dès lors que le site « permet de procéder précisément à cette notification par un dispositif technique directement accessible depuis ledit contenu litigieux » (un bouton d’alerte par exemple, placé sous le tweet). Et que ce site permet d’indiquer la catégorie d’infraction concernée.

Sur le terrain de la loi Avia, si manque l’une de ces informations, le délai de 24 heures ne pourra pas débuter faute pour le service en ligne d’avoir été alerté en suivant ce formalisme.

Sur le terrain du droit de l’hébergement, le respect de ce formalisme permettra de considérer que l’hébergeur est présumé connaître les faits litigieux. À lui de supprimer promptement les contenus manifestement illicites. 

Article 3 - Les associations reconnues d’utilité publique

Une association...

  • reconnue d’utilité publique (RUP),
  • déclarée depuis au moins cinq ans à la date des faits
  • dont l’objet statutaire comporte la protection des enfants,

... pourra être saisie par un mineur à charge pour elle de réclamer auprès de la plateforme le retrait d’un contenu manifestement rattaché à l’une des infractions de la liste. Les opérateurs devront alors accuser réception sans délai de la notification de l’association et l’informer des suites données à la notification ainsi que des motifs de leur décision.

Ceci fait, l’association informera le mineur et, « selon des modalités adaptées à l’intérêt supérieur de l’enfant », ses parents. Le risque d’outing perdure dans le texte. Il suffit d’imaginer qu’une association comporte dans son nom la défense des LGBT pour que le parent devine l’orientation sexuelle de son enfant.

Laetitia Avia a toujours contesté ce risque, au point de nous reprocher lourdement notre article sur le sujet. En dernière ligne droite, elle a jugé finalement plus sécurisant de réserver cette faculté de représentation aux seules associations « RUP », critère qui avait été introduit au Sénat. 

En séance, Philippe Latombe (MoDem) est revenu toutefois à la charge. « Les associations que j’ai contactées à nouveau dimanche dernier m’ont confirmé que c’est bien ainsi qu’elles comprennent le texte. Le Refuge, MAG Jeunes LGBT et l’Inter-LGBT ne sont pas des associations de seconde zone ; elles ont des juristes. Or elles nous alertent contre un risque d’outing dans la sphère familiale, alors même que des violences s’y déroulent… »

Selon la grille de lecture de Philippe Latombe, que nous partageons, « tout ce qui est relatif aux modalités – en particulier les mots « adaptées à l’intérêt supérieur de l’enfant » – ne vise que la façon dont les parents seront informés et ne revient en rien sur l’obligation, inscrite dans le texte, de les informer ».

En clair, l’association a juridiquement toujours l’obligation d’alerter les parents. La seule garantie est qu’en pratique, il faudra espérer qu’elle oublie cette contrainte légale voulue lourdement par Laetitia Avia. L’association pourra contester le défaut de retrait d’un tweet « haineux » et pourra au besoin saisir le juge.

Chapitre II : Le devoir de coopération des plateformes

D’une obligation de résultat (le retrait impératif des contenus raccrochés à la liste des infractions), on glisse ici à une obligation de moyen. C’est à cette occasion que le Conseil supérieur de l’audiovisuel (CSA) se retrouve avec une brouette de nouvelles compétences, bientôt enrichies d’autres dispositions issues de la loi sur l’audiovisuel. Le texte est attendu dans les prochains mois pour transposer la directive SMA et celle sur le droit d’auteur.

Article 4. Les nouvelles obligations pesant sur les opérateurs de plateformes

Les services de partage de contenus comme les moteurs se voient astreints de respecter toute une série d’obligations. Leur mise en œuvre devra être « proportionnée » et « nécessaire ». L’objectif ? La lutte contre les contenus rattachés à la liste afin de protéger la dignité humaine.

Le CSA se voit chargé de veiller au respect de ces obligations et les plateformes doivent se conformer à ses délibérations. Quelles sont ces obligations ?

Mettre en place un système de notification uniforme, rédigé en français, directement accessible et facile d’utilisation. Avec lui, toute personne, et donc pas seulement celles inscrites, pourront alerter l’opérateur de la présence d’un « contenu illicite » (donc pas seulement ceux « contrevenant manifestement » à l’une des infractions de la liste). L’internaute sera averti « des sanctions qu’ils encourent en cas de notification abusive ».

Accuser réception sans délai de cette notification, à condition qu’elle respecte les règles de forme. L’heure et la date seront mentionnées. Ces informations sont importantes puisque c’est à partir de cet instant que le fatidique délai de 24 heures débutera. L’internaute sera alerté des suites et des motifs de la décision dans un nouveau délai de 24 heures s’ils retirent, sinon dans un délai de 7 jours.

Les opérateurs (services de partage et moteurs) devront mettre en œuvre les infrastructures suffisantes, à savoir « les procédures et les moyens humains et, le cas échéant, technologiques proportionnés » pour garantir le traitement des notifications et leur examen approprié, mais aussi pour prévenir les cas de surcensures (ou « retrait injustifié »).

Ils devront encore mettre en place un système de recours interne pour informer l’auteur du contenu de la décision de retrait et des raisons qui l’ont justifiée. Sauf lorsque la notification provient d’une autorité, l’internaute en cause sera informé de sa liberté de contester cette décision, mais aussi « que des sanctions civiles et pénales sont encourues pour la publication de contenus illicites ».  S’ils décident de conserver le contenu, l’internaute cette fois à l’origine du signalement sera informé qu’il peut contester la décision.

Article 5 - Les nouvelles obligations pesant sur les opérateurs de plateformes (suite)

L’article rajoute d’autres obligations de moyen sur les épaules des opérateurs.

Ils doivent diffuser « une information claire et détaillée, facilement accessible et visible » sur les modalités de modération des contenus illicites. La proposition de loi Avia les contraint à ce titre de préciser là encore le risque de sanctions notamment pénales, les voies de recours internes et juridictionnels, les délais, ou encore les sanctions encourues en cas de notification abusive.

Ils auront aussi à rendre des comptes (au CSA) des moyens humains et technologiques mis en œuvre et aux procédures pour se conformer aux obligations de lutte contre les contenus haineux. Cette obligation de reporting est étendue le cas échéant aux contenus illicites que la plateforme identifie elle-même (par exemple par des moyens automatisés) et dans tous les cas aux actions et moyens mis en œuvre et résultats obtenus dans la lutte et la prévention contre ces contenus. Le CSA prendra une délibération pour détailler notamment les indicateurs. Les rapports seront publiés.

Pour la parfaite information des jeunes de moins de 15 ans, ils devront ciseler l’information sur les traitements de données personnelles, mais aussi les informer des risques encourus en cas de diffusion de contenus haineux.

Ce n’est pas tout. Les plateformes devront informer « promptement » les autorités publiques de tous les contenus haineux qui leur seraient signalés par les internautes.

Les plateformes étrangères concernées par la loi Avia devront quant à elles désigner sur le territoire français un interlocuteur référant, recevant les demandes de l’autorité judiciaire et celles du Conseil supérieur de l’audiovisuel.

Enfin, les CGU devront être formulées « en termes précis, aisément compréhensibles, objectifs et non discriminatoires », s’agissant des chapitres relatifs aux contenus haineux. Précisons d’ailleurs que la loi Avia n’exclut pas le contrat. Elle s’ajoute. En ce sens que si un réseau social, au hasard Facebook, ne veut voir ni téton ni poil, il pourra toujours supprimer ces contenus au besoin dénoncés par d’autres utilisateurs, même si la loi Avia ne les interdit pas. 

Article 6. Le quantum des peines revu à la hausse pour la LCEN

La loi Avia ne s’attaque pas seulement aux contenus haineux, elle augmente l’amende encourue dans le droit commun de l’hébergement. Les 75 000 euros prévus par la LCEN si un hébergeur ne respecte pas ses obligations passent à 250 000 euros. En application du droit pénal général, la somme est multipliée par cinq pour les personnes morales (1,25 million d’euros).

Chapitre III : le rôle du Conseil supérieur de l’audiovisuel

Article 7-I. Les pouvoirs du CSA à l’heure de la loi Avia

L’autorité administrative, qui récupérera bientôt les pouvoirs de la Hadopi sous l’égide d’une nouvelle dénomination (Arcom), sera chargée de veiller aux respects des obligations de moyen des plateformes de partage et des moteurs.

Dans ses analyses, il prendra en compte « la pluralité des modèles de ces opérateurs et l’adéquation des moyens mis en œuvre par chacun d’eux à la lutte contre la diffusion de contenus haineux en ligne ». Le gendarme de l’audiovisuel voit donc ses compétences s’étendre sur Twitter, Facebook, TikTok, Instagram, Facebook, Google, Bing, Qwant, et tous les autres acteurs qui dépasseront le seuil d’activité bientôt fixé par décret. Il s’assurera « du suivi » de leurs obligations.

Un rapport annuel dressera le bilan de ces dispositions et de leur effectivité. Pour assurer son contrôle sur ces moyens, le législateur lui offre le pouvoir de réclamer « toutes les informations nécessaires ».

Article 7-II. Les mises en demeure, la question résiduelle des surcensures

Le CSA pourra mettre en demeure l’opérateur de se conformer. S’il constate un manquement, la loi Avia lui offre la liberté (ce n’est pas obligatoire) de « prendre en compte l’application inadéquate par l’opérateur des procédures et des moyens humains et, le cas échéant, technologiques » destinés à « prévenir les retraits excessifs de contenus » et donc les surcensures.

C’est très exactement là que l’on constate l’absence d’équivalence de forme entre la sanction d’un défaut de retrait et la sanction d’un retrait trop généreux. La première s’opère dans le cadre d’une obligation de résultat et est prononcée par un juge. La seconde est conditionnée au bon vouloir du CSA.

Et encore… l’opérateur recevant une mise en demeure ne sera éligible à cette sanction administrative du Conseil que s’il ne se conforme pas à cette missive. Si la défaillance perdure, la plateforme encourra une sanction pécuniaire de 20 millions d’euros ou 4 % de son chiffre d’affaires annuel. C’est un maximum où le CSA aura à prendre en compte à la fois « la gravité des manquements » et le cas échéant, « leur caractère réitéré ».

Ces amendes administratives seront possiblement rendues publiques, au besoin par publication dans la presse ou sur Internet, là encore en fonction de la gravité de chaque dossier. Soulignons encore une fois que l’opérateur pourra toujours s’abriter derrière ses CGU pour expliquer que tels propos lui sont contraires, d’où leur suppression.

Assemblée nationale
L'Assemblée nationale, crédits : Marc Rees

Article 7-III. Les encouragements du CSA

On est ici en plein « droit souple » ou soft law. Le Conseil pourra encourager les plateformes à suivre des caps qu’il déterminera. Évidemment, ces opérateurs pourront décliner poliment ou jeter l'email sans l’avoir lu.

En tout cas le législateur a fixé plusieurs de ces caps. Pourront être mis en œuvre « des outils de coopération et de partage d’informations, dans un format ouvert entre ces opérateurs, dans la lutte contre les infractions » dites haineuses. S’y ajoutent, « des dispositifs techniques proportionnés permettant de limiter, dans l’attente du traitement de la notification d’un contenu (…), le partage de ce contenu et l’exposition du public à celui-ci ».

Avec ce dernier point, la loi de Laetitia Avia souhaite que les tweets signalés soient désactivés des écrans, le temps que la plateforme décide de son sort. On imagine sans mal la situation si un « bot » venait à dénoncer par exemple l’ensemble des tweets du compte d’une députée LREM, au hasard.

Le CSA pourra encore prôner l’usage d’« outils de coopération dans la lutte contre la rediffusion massive de contenus, en particulier de vidéos ou d’images, identiques ou spécifiquement équivalents à ceux retirés » dans les 24 heures.

Empêcher la rediffusion d’un contenu identique ou « équivalent », c’est préparer concrètement la généralisation des solutions de filtrage par exemple par empreintes numériques. Cela suppose aussi l’avènement d’une liste noire des contenus haineux où la plateforme sera invitée à piocher pour comparer à la volée le contenu de chaque publication à venir. La technique est très exactement celle organisée par un autre texte, la directive sur le droit d’auteur, à l’article 17

Pour l'accomplissement des missions, la loi précise que le Conseil supérieur de l'audiovisuel pourra obtenir « toutes les informations nécessaires au contrôle des obligations » de moyens, « y compris l’accès aux principes et méthodes de conception des algorithmes ainsi qu’aux données utilisées par ces algorithmes pour se conformer à ces obligations ».

Chapitre IV : « Amélioration » de la lutte contre la diffusion de contenus haineux en ligne

Article 8. Les sites miroirs, la liste noire

Lorsqu’une décision de blocage sera rendue par la justice, l’« autorité administrative » (elle n’est pas désignée plus précisément) pourra demander aux fournisseurs d’accès, aux moteurs, aux exploitants d’annuaire et autres services de référencement, d’étendre la décision aux sites « reprenant le contenu du service visé par ladite décision en totalité ou de manière substantielle. »

Ces acteurs pourront ne pas suivre cette recommandation. Auquel cas la justice pourra intervenir pour les y contraindre. La liste noire des sites bloqués sera tenue à jour par l’autorité administrative. Elle sera tenue à disposition des annonceurs et du monde de la publicité, avec l’espoir qu’ils coupent les vivres des sites « haineux ».

Article 9. Name and Shame

Les annonceurs seront tenus de rendre publique au minimum une fois par an sur leurs « sites Internet » l’existence de relations avec les noms inscrits sur la liste noire. Et devront le faire savoir dans leur rapport annuel (s’ils sont tenus d’en adopter un).

Chapitre V : Réponse pénale à l’égard des auteurs de contenus haineux en ligne

Article 10. Un parquet et un tribunal spécialisés pour juger la haine en ligne

Selon Nicole Belloubet, « le Gouvernement a souhaité la création d’un parquet spécialisé, qui pourra mieux organiser la répression de ces infractions. Rompu aux usages et aux problématiques du numérique, ce sera vraisemblablement le parquet de Paris, qui disposera d’une compétence concurrente pour intervenir sur ces dossiers ».

La Garde des Sceaux promet de publier « une circulaire à l’ensemble des parquets afin d’indiquer comment ce parquet spécialisé devra articuler son action avec celle des parquets et tribunaux locaux ».

Ce parquet « devra jouer un rôle central dans le traitement des plaintes adressées en ligne. Son rôle sera en outre essentiel pour apporter une réponse pénale à des faits mettant en cause plusieurs individus, par exemple dans le cas de raids numériques discriminatoires ou lorsque de nombreuses plaintes concernent une seule et même publication ».

Une juridiction spécialisée sera désignée « pour traiter ces affaires garantira la cohérence à la réponse pénale et à la jurisprudence en la matière ». Sa compétence sera concurrente avec les juridictions normalement compétentes, territorialement.

Article 11. Interdiction d’adresser des messages à une victime

Dans le cadre d’un contrôle judiciaire ordonné par le juge d'instruction ou celui des libertés et de la détention, le Code de procédure pénale prévoit différentes obligations visant la personne mise en examen qui encourt une peine d'emprisonnement correctionnel ou une peine plus grave.

Après mis à jour de la liste à l’article 138 du Code de procédure pénale, l’intéressée pourra être tenue de « ne pas adresser de messages à la victime, de façon directe ou indirecte, par tout moyen, y compris par voie électronique ».

Une personne cette fois condamnée pourra de même se voir interdire « d’adresser des messages à la victime, de façon directe ou indirecte, par tout moyen, y compris par voie électronique. »

Article 12. Juge unique

Dans certains jugements, un tribunal peut n’être composé que d'un seul magistrat exerçant les pouvoirs conférés au président. En substance, l’article 12 prévoit que le délit de refus de retrait d’un message manifestement illicite en 24 heures fera partie de ces cas.

Remarquons qu’un internaute se plaignant d’une surcensure de la part de Twitter devra faire face un tribunal composé normalement, s’il entend faire réactiver son tweet...

Articles 13, 14, 15 et 19. Élèves et profs sensibilisés à la lutte contre la haine en ligne

Avec la loi Avia, le Code de l’éducation prévoit que dans les écoles et les établissements d’enseignement, « la formation à l'utilisation responsable des outils et des ressources numériques » contribuera aussi à la lutte contre la haine en ligne.

Il a été aussi spécifié que dans les écoles, les collèges et les lycées, la mission d'information sur les violences portera également sur les contenus en ligne. Les instituts nationaux supérieurs du professorat et de l'éducation devront également organiser des formations de sensibilisation à la lutte contre la diffusion des contenus haineux.

L’article 19 prévoit des mesures spécifiques pour les îles Wallis et Futuna, en Polynésie française, en Nouvelle-Calédonie et dans les Terres australes et antarctiques françaises

Article 16. L’observatoire de la haine en ligne

Cet observatoire assurera le suivi et l’analyse des contenus « haineux ». Il associera les opérateurs, associations, administrations et chercheurs concernés « par la lutte et la prévention contre ces infractions ».

Cet observatoire sera placé « auprès du Conseil supérieur de l’audiovisuel, qui en assure le secrétariat ». Ses missions et sa composition sont fixées par le CSA lui-même.

Article 17. Rustine de la loi de 2004

La loi de 2004 sur la confiance dans l’économie numérique est corrigée pour que l’adverbe « manifestement » soit inscrit en dur, alors qu’il n’était qu’une émanation de la jurisprudence du Conseil constitutionnel.

Article 18. Date d’entrée en vigueur

Reprenant un amendement adopté par le Sénat en nouvelle lecture, les députés ont décidé de repousser l’entrée en vigueur de l’article 1er. Cela vaut aussi bien pour l’obligation de résultat que de moyen. 

En séance, Laetitia Avia a expliqué qu’« il convient de raison garder et de laisser quelques semaines aux plateformes pour qu’elles puissent se conformer aux obligations qu’il leur impose ». D’autres dispositions de la loi seront d’application directe ou repoussées au 1er janvier 2021.

Seul hic, si la France décide de notifier les nouvelles dispositions importantes de sa loi, celles-ci seront gelées pour une période de trois mois, le temps que la Commission européenne et les autres États membres les examinent. Impossible alors d’envisager une application immédiate ou au 1er juillet.

Le texte sera susceptible d’évoluer selon les résultats de la saisine promise par le groupe LR au Sénat.


chargement
Chargement des commentaires...