Cyberhaine : la loi Avia, ligne par ligne

Cyberhaine : la loi Avia, ligne par ligne

Du chinois au français

Avatar de l'auteur
Marc Rees

Publié dans

Droit

15/05/2020 30 minutes
34

Cyberhaine : la loi Avia, ligne par ligne

La proposition Avia est prête à être loi... avec un contretemps : le texte va être soumis au Conseil constitutionnel par au moins 60 sénateurs Les Républicains (LR). C’est en tout cas ce qu’a annoncé Bruno Retailleau, président du groupe à la chambre haute. Mais que prévoit le texte ? Next INpact vous propose un long format, une explication ligne par ligne.

Les députés ont adopté mercredi la loi contre la haine en ligne. Cet examen en lecture définitive n'a pas suscité de surprise avec une assemblée sous majorité La République En Marche (LREM). Tour d'horizon de l'ensemble des dispositions du texte, en commençant par les obligations de retrait. Car sous couvert de « simplification », la proposition de loi adoptée hier en lecture définitive plus d’un an après son dépôt en procédure accélérée recèle bien des surprises.

Chapitre I : « Simplification » des dispositifs de notification des contenus haineux en ligne

Article 1er-I. Le retrait en une heure des contenus terro et pédo

Suite à un amendement déposé par le gouvernement en dernière ligne droite, le texte revoit profondément le traitement des contenus relevant de l’apologie ou de l’incitation au terrorisme ou encore de la pédopornographie. 

L’article 6-1 de la loi sur la confiance dans l’économie numérique accorde à ces données un régime particulier : celui d’un retrait administratif, et donc sans intervention préalable du juge. Il revient donc aux autorités raccrochées au ministère de l’Intérieur de qualifier les contenus et d’alerter ensuite les sites, hébergeurs, FAI et moteurs.

Ils avaient jusqu'alors 24 heures pour supprimer l’accès ou opérer un déréférencement. L’article 1er de la loi Avia ramène cette fois le délai à 1 heure, ce qui, outre les questions de logistique, imposera aux personnes concernées de se décider en un minimum de temps. L’acteur qui aura procédé à ce nettoyage devra informer dans le même délai l’autorité administrative des suites données. Mercredi, le sujet a été contesté, vainement. 

En séance, la députée Danièle Obono a rappelé « comme l’ont relevé le site spécialisé Next INpact et La Quadrature du Net, que la police n’a pas toujours fait un usage proportionné de son pouvoir de signalement sur internet. Il est notamment fait référence, au début de 2019, au signalement effectué par la police française auprès de Google au sujet d’une caricature présentant Emmanuel Macron et son gouvernement sous les traits du dictateur Pinochet et de ses proches » (notre actualité).

Du côté des LR, Constance le Grip a souligné que le sujet est actuellement à l’étude au sein de l’Union européenne : « Le règlement européen traitant de ce sujet est en cours de discussion. La disposition figurant actuellement à l’article 1er ne serait vraisemblablement pas compatible avec le texte du futur règlement qui devrait résulter des travaux des colégislateurs européens » a-t-elle avancé en séance.

« L’obligation de retrait dans un délai d’une heure fait actuellement l’objet d’un consensus entre les colégislateurs. D’une certaine manière, c’est donc pour nous un appui » a toutefois opposé Nicole Belloubet, avant que la députée Frédérique Dumas ne précise que des discussions perduraient sur l’autorité en charge de décider de ce retrait. La France opte ici pour une autorité administrative non indépendante. D’autres pays européens soutiennent l’intervention d’un juge ou d'une AAI.

Ce blocage administratif est aujourd'hui sous le contrôle d’une personnalité qualifiée désignée par la CNIL. Elle s'était déjà opposée jusque devant la juridiction administrative, à une décision de retrait exigé par l’OCLCTIC pour fait de terrorisme (notre actualité). La proposition de loi Avia dépossède la CNIL de cette compétence.

Demain, le CSA désignera une nouvelle personnalité qualifiée, seul œil extérieur à ces mesures de blocage et retrait administratifs (article 7 alinéa 26 de la loi).

Article 1er-II. Le retrait en 24 heures des contenus « haineux »

C’est là le cœur de la loi. Il s’adresse aux opérateurs de plateforme définis par l’article L.111-7 du Code de la consommation. Selon ce texte, ce sont ceux « qui proposent un service de communication au public en ligne [soit un site] reposant sur la mise en relation de plusieurs parties en vue du partage de contenus publics ».

Avec une telle définition, de nombreux acteurs tombent dans la nasse de cette nouvelle régulation qui ne concerne toutefois que ceux opérant à titre professionnel. Un décret d’application, attendu dans quelques semaines, viendra toutefois fixer un seuil d’activité pour l’enclencher. Toutes les plateformes au-dessus seront donc astreintes à respecter cette obligation de retrait.

Alors que dans le régime de la loi de 2004 sur la confiance dans l’économie numérique, les hébergeurs devaient retirer « promptement » les contenus « manifestement » illicites, il est désormais imposé aux plateformes de partage comme YouTube, Facebook, Instagram, Twitter, TikTok et tant d’autres de les rendre inaccessible en 24 heures après notification.

Cette obligation concerne des contenus « contrevenant manifestement » à une série d’infractions. La liste est limitée…mais lorsqu’on déroule l’éventail, on concrétise bien mieux son champ :

  • Apologie des crimes d’atteinte volontaire à la vie, d’atteinte volontaire à l’intégrité de la personne, d’agression sexuelle, de vol aggravé, d’extorsion, de destruction, de dégradation ou détérioration volontaire dangereuse pour les personnes, des crimes de guerre, des crimes contre l’humanité, des crimes de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage ou des crimes et délits de collaboration avec l’ennemi, y compris si ces crimes n’ont pas donné lieu à la condamnation de leurs auteurs
  • Provocation à la discrimination, à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion
  • Provocation à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap ou ayant provoqué, à l’égard des mêmes personnes, aux discriminations prévues par les articles 225-2 et 432-7 du Code pénal
  • Contestation de l'existence des crimes contre l'humanité, négation, minoration ou banalisation des crimes de génocides, des crimes de réduction en esclavage ou des crimes de guerre
  • Injure commise par les mêmes moyens envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée
  • Injure commise dans les mêmes conditions envers une personne ou un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap
  • Harcèlement sexuel
  • Captation, enregistrement, transmission, offre, mise à disposition, diffusion, importation ou exportation, acquisition ou détention d’image pornographique d’un mineur ; consultation habituelle ou en contrepartie d’un paiement d’un service de communication au public en ligne mettant à disposition des images pornographiques de mineurs
  • Fabrication, transport, diffusion ou commerce de message pornographique susceptible d’être vu ou perçu par un mineur
  • Provocation directe à des actes de terrorisme ou apologie publique de ces actes

L’alinéa 10 de l’article étend cette obligation de retrait aux moteurs de recherche (Bing, Google, etc.). Des amendements avaient encore été déposés contre cette extension, mais Laetitia Avia s’y est opposée : « Les moteurs de recherche ont également une activité d’ordonnancement, d’accélération ou d’exposition des contenus haineux », assure-t-elle.

Comment sera calculé le délai de 24 heures ? Il débutera à partir de la réception d’une notification, c’est-à-dire une alerte adressée par un utilisateur de la plateforme ou du moteur. Plateformes et moteurs ne devront supprimer que les contenus qui contreviennent manifestement aux dispositions de la loi de 1881 ou du Code pénal, énumérées ci-dessus.

Juridiquement, lorsqu’ils auront la certitude que la violation est évidente, le retrait et le déréférencement devront être décidés très rapidement. Là où un juge dispose du temps pour contextualiser, qualifier les propos, ces acteurs devront se fier à leur instinct. Pas simple. Toujours juridiquement, si ces deux types d’acteurs estiment que la violation n’est pas si flagrante, on parle de « contenus gris », alors pas de doute : ils devront laisser en ligne les contenus litigieux.

avia

En pratique, cette démarche en arbre de choix sera beaucoup moins évidente. Déjà, les plateformes de portée mondiale ne peuvent allouer l’ensemble de leurs équipes de modération à la seule France. Surtout, la décision de conserver un « contenu gris » ouvrira une grande incertitude. Pourquoi ? Car saisi par une partie, un tribunal pourra renverser cette décision pour considérer que la violation était bien manifestement illicite. Et l’opérateur de plateforme ou le moteur risquera 250 000 euros d’amende par contenus non supprimés. Selon la Garde des Sceaux, ce montant ne concerne que les personnes physiques. Il serait donc de 1,250 million d’euros s’agissant les personnes morales (montant multiplié par cinq). 

Certes, dit le texte, l’infraction sera intentionnelle. La preuve de l’intention devra être démontrée avant de condamner Google, Twitter ou Facebook. Toutefois, la loi Avia prévient que ce caractère intentionnel pourra « résulter de l’absence d’examen proportionné et nécessaire du contenu notifié ». Ainsi, s’il est démontré que la plateforme n’a pas mis en place l'examen « proportionné et nécessaire » pour supprimer les contenus manifestement rattachés à une infraction, elle sera éligible à la sanction pénale. Et inversement. Reste à savoir ce que recouvre ce critère, source d’insécurité supplémentaire.

Les contenus retirés ne seront pas effacés totalement des serveurs. S’ils disparaissent des écrans des utilisateurs, ils devront être « temporairement conservés par les opérateurs de plateformes pour les besoins de la recherche, de la constatation et de la poursuite des infractions pénales, à la seule fin de les mettre à la disposition de l’autorité judiciaire ».

C’est un décret en Conseil d’État, pris après avis de la CNIL, qui en définira la durée et les modalités de conservation. La question des données personnelles devra se conjuguer avec celle de la prescription pénale. Cette obligation avait été introduite par le Sénat, reprise finalement par Laetita Avia (LREM) lors de la dernière séance (amendement 23).

Article 1er-III. Filtrage des contenus ou republication ordonnée par la justice

Le texte prévoit que l’autorité judiciaire pourra prescrire « en référé ou sur requête » aux opérateurs de plateforme toutes mesures propres à « prévenir ou faire cesser » un dommage occasionné 

  • par un contenu manifestement rattaché à une des infractions de la liste noire (ou)
  • par le retrait d’un contenu par un opérateur

La plateforme pourra donc être contrainte de mettre en place les moyens permettant notamment de prévenir la réapparition d’un de ces contenus. Il s’agit là d’un filtrage ciblé, qui devra en plus être limité dans le temps, sauf à malmener les critères développés par la Cour de justice de l’Union européenne.

Le second point permettra de saisir le même juge pour demander « la republication immédiate du texte en cas d’atteinte à la liberté d’expression », dixit Laetitia Avia. Seulement, on peut craindre que peu d’internautes saisissent la justice pour un tweet trop rapidement retiré par l’hébergeur... plutôt que de le republier, au besoin sous une autre forme ou sur un autre réseau social.

Article 1er-IV. Pouvoir des associations de défense

Cette disposition autorise des associations à demander le retrait des contenus qui les concernent, à l’instar d’une des victimes directement.

Il faut qu'elles aient dans leur statut : le combat contre le racisme ou les discriminations fondées sur l’origine nationale, ethnique, raciale ou religieuse, les violences ou les discriminations fondées sur l'orientation sexuelle ou l'identité de genre, le sexe. Sont concernées encore celles qui assurent la défense des intérêts moraux et l’honneur de la Résistance ou des déportés, la mémoire des esclaves, etc. 

Article 1er-V. sanction des notifications trompeuses

Signaler un contenu sur Twitter ne sera pas sans conséquence pour l’auteur de la notification. Le fait pour une personne d’épingler « un contenu ou une activité comme étant illicite » au sens de la loi contre la haine en ligne, « dans le but d’en obtenir le retrait ou d’en faire cesser la diffusion alors qu’elle sait cette information inexacte est punie d’un an d’emprisonnement et de 15 000 euros d’amende. »

La démonstration de cette infraction ne sera pas simple. Il faudra prouver en effet que l’internaute à l’origine du signalement savait pertinemment que l’information signalée était inexacte et qu’il a agi dans le but de faire retirer ce qui n’avait pas à l’être.

Article 2. Le formalisme des notifications

La notification est l'alerte lancée par un internaute à une plateforme, pour lui signaler la présence d'un contenu litigieux. Laetitia Avia avait voulu revoir à la baisse le formalisme attaché à ces alertes non seulement dans « sa » loi, mais également dans le cœur de la loi sur la confiance dans l’économie numérique (LCEN).

Dans les premières versions du texte, au motif de vouloir « simplifier l’expérience utilisateur », elle se contentait d’exiger que le notifiant se limite à une description de « la catégorie à laquelle peut être rattaché le contenu litigieux » et des « motifs pour lesquels il doit être retiré ». À charge pour la plateforme de se débrouiller pour le retrouver.

Pas simple pour une vidéo de plusieurs heures par exemple ! Elle supprimait ainsi l’obligation prévue dans la loi de 2004 qui oblige l’internaute à définir l’emplacement exact du contenu problématique. Cette mesure cavalière avait été épinglée par la Commission européenne elle-même dans les « observations » qui furent révélées par Next INpact (Les observationsnos commentaires). La députée a donc été contrainte de ravaler ses ambitions pour prévoir ce formalisme.

Voilà ce que prévoit le texte :

  • Lorsque le notifiant est une personne physique, il devra donner ses nom, prénom et adresse électronique
  • Lorsque le notifiant est une personne morale, sa forme sociale, sa dénomination sociale, son adresse électronique
  • Lorsque le notifiant est une autorité administrative : sa dénomination et son adresse électronique

Ces conditions relatives à l’identité seront réputées satisfaites « dès lors que le notifiant est un utilisateur inscrit » sur la plateforme, qu’il est effectivement connecté au moment de procéder à l’alerte et enfin, que l’opérateur a recueilli les éléments nécessaires à son identification.

S’agissant du contenu litigieux. L’utilisateur de Twitter, Facebook, YouTube ou Google Search devra notamment :

  • Décrire le contenu litigieux
  • Préciser sa localisation exacte (son URL, sa localisation dans une vidéo, par exemple)
  • Les motifs légaux pour lesquels le contenu litigieux devrait être retiré ou rendu inaccessible

Ces deux dernières conditions seront réputées satisfaites respectivement dès lors que le site « permet de procéder précisément à cette notification par un dispositif technique directement accessible depuis ledit contenu litigieux » (un bouton d’alerte par exemple, placé sous le tweet). Et que ce site permet d’indiquer la catégorie d’infraction concernée.

Sur le terrain de la loi Avia, si manque l’une de ces informations, le délai de 24 heures ne pourra pas débuter faute pour le service en ligne d’avoir été alerté en suivant ce formalisme.

Sur le terrain du droit de l’hébergement, le respect de ce formalisme permettra de considérer que l’hébergeur est présumé connaître les faits litigieux. À lui de supprimer promptement les contenus manifestement illicites. 

Article 3 - Les associations reconnues d’utilité publique

Une association...

  • reconnue d’utilité publique (RUP),
  • déclarée depuis au moins cinq ans à la date des faits
  • dont l’objet statutaire comporte la protection des enfants,

... pourra être saisie par un mineur à charge pour elle de réclamer auprès de la plateforme le retrait d’un contenu manifestement rattaché à l’une des infractions de la liste. Les opérateurs devront alors accuser réception sans délai de la notification de l’association et l’informer des suites données à la notification ainsi que des motifs de leur décision.

Ceci fait, l’association informera le mineur et, « selon des modalités adaptées à l’intérêt supérieur de l’enfant », ses parents. Le risque d’outing perdure dans le texte. Il suffit d’imaginer qu’une association comporte dans son nom la défense des LGBT pour que le parent devine l’orientation sexuelle de son enfant.

Laetitia Avia a toujours contesté ce risque, au point de nous reprocher lourdement notre article sur le sujet. En dernière ligne droite, elle a jugé finalement plus sécurisant de réserver cette faculté de représentation aux seules associations « RUP », critère qui avait été introduit au Sénat. 

En séance, Philippe Latombe (MoDem) est revenu toutefois à la charge. « Les associations que j’ai contactées à nouveau dimanche dernier m’ont confirmé que c’est bien ainsi qu’elles comprennent le texte. Le Refuge, MAG Jeunes LGBT et l’Inter-LGBT ne sont pas des associations de seconde zone ; elles ont des juristes. Or elles nous alertent contre un risque d’outing dans la sphère familiale, alors même que des violences s’y déroulent… »

Selon la grille de lecture de Philippe Latombe, que nous partageons, « tout ce qui est relatif aux modalités – en particulier les mots « adaptées à l’intérêt supérieur de l’enfant » – ne vise que la façon dont les parents seront informés et ne revient en rien sur l’obligation, inscrite dans le texte, de les informer ».

En clair, l’association a juridiquement toujours l’obligation d’alerter les parents. La seule garantie est qu’en pratique, il faudra espérer qu’elle oublie cette contrainte légale voulue lourdement par Laetitia Avia. L’association pourra contester le défaut de retrait d’un tweet « haineux » et pourra au besoin saisir le juge.

Chapitre II : Le devoir de coopération des plateformes

D’une obligation de résultat (le retrait impératif des contenus raccrochés à la liste des infractions), on glisse ici à une obligation de moyen. C’est à cette occasion que le Conseil supérieur de l’audiovisuel (CSA) se retrouve avec une brouette de nouvelles compétences, bientôt enrichies d’autres dispositions issues de la loi sur l’audiovisuel. Le texte est attendu dans les prochains mois pour transposer la directive SMA et celle sur le droit d’auteur.

Article 4. Les nouvelles obligations pesant sur les opérateurs de plateformes

Les services de partage de contenus comme les moteurs se voient astreints de respecter toute une série d’obligations. Leur mise en œuvre devra être « proportionnée » et « nécessaire ». L’objectif ? La lutte contre les contenus rattachés à la liste afin de protéger la dignité humaine.

Le CSA se voit chargé de veiller au respect de ces obligations et les plateformes doivent se conformer à ses délibérations. Quelles sont ces obligations ?

Mettre en place un système de notification uniforme, rédigé en français, directement accessible et facile d’utilisation. Avec lui, toute personne, et donc pas seulement celles inscrites, pourront alerter l’opérateur de la présence d’un « contenu illicite » (donc pas seulement ceux « contrevenant manifestement » à l’une des infractions de la liste). L’internaute sera averti « des sanctions qu’ils encourent en cas de notification abusive ».

Accuser réception sans délai de cette notification, à condition qu’elle respecte les règles de forme. L’heure et la date seront mentionnées. Ces informations sont importantes puisque c’est à partir de cet instant que le fatidique délai de 24 heures débutera. L’internaute sera alerté des suites et des motifs de la décision dans un nouveau délai de 24 heures s’ils retirent, sinon dans un délai de 7 jours.

Les opérateurs (services de partage et moteurs) devront mettre en œuvre les infrastructures suffisantes, à savoir « les procédures et les moyens humains et, le cas échéant, technologiques proportionnés » pour garantir le traitement des notifications et leur examen approprié, mais aussi pour prévenir les cas de surcensures (ou « retrait injustifié »).

Ils devront encore mettre en place un système de recours interne pour informer l’auteur du contenu de la décision de retrait et des raisons qui l’ont justifiée. Sauf lorsque la notification provient d’une autorité, l’internaute en cause sera informé de sa liberté de contester cette décision, mais aussi « que des sanctions civiles et pénales sont encourues pour la publication de contenus illicites ».  S’ils décident de conserver le contenu, l’internaute cette fois à l’origine du signalement sera informé qu’il peut contester la décision.

Article 5 - Les nouvelles obligations pesant sur les opérateurs de plateformes (suite)

L’article rajoute d’autres obligations de moyen sur les épaules des opérateurs.

Ils doivent diffuser « une information claire et détaillée, facilement accessible et visible » sur les modalités de modération des contenus illicites. La proposition de loi Avia les contraint à ce titre de préciser là encore le risque de sanctions notamment pénales, les voies de recours internes et juridictionnels, les délais, ou encore les sanctions encourues en cas de notification abusive.

Ils auront aussi à rendre des comptes (au CSA) des moyens humains et technologiques mis en œuvre et aux procédures pour se conformer aux obligations de lutte contre les contenus haineux. Cette obligation de reporting est étendue le cas échéant aux contenus illicites que la plateforme identifie elle-même (par exemple par des moyens automatisés) et dans tous les cas aux actions et moyens mis en œuvre et résultats obtenus dans la lutte et la prévention contre ces contenus. Le CSA prendra une délibération pour détailler notamment les indicateurs. Les rapports seront publiés.

Pour la parfaite information des jeunes de moins de 15 ans, ils devront ciseler l’information sur les traitements de données personnelles, mais aussi les informer des risques encourus en cas de diffusion de contenus haineux.

Ce n’est pas tout. Les plateformes devront informer « promptement » les autorités publiques de tous les contenus haineux qui leur seraient signalés par les internautes.

Les plateformes étrangères concernées par la loi Avia devront quant à elles désigner sur le territoire français un interlocuteur référant, recevant les demandes de l’autorité judiciaire et celles du Conseil supérieur de l’audiovisuel.

Enfin, les CGU devront être formulées « en termes précis, aisément compréhensibles, objectifs et non discriminatoires », s’agissant des chapitres relatifs aux contenus haineux. Précisons d’ailleurs que la loi Avia n’exclut pas le contrat. Elle s’ajoute. En ce sens que si un réseau social, au hasard Facebook, ne veut voir ni téton ni poil, il pourra toujours supprimer ces contenus au besoin dénoncés par d’autres utilisateurs, même si la loi Avia ne les interdit pas. 

Article 6. Le quantum des peines revu à la hausse pour la LCEN

La loi Avia ne s’attaque pas seulement aux contenus haineux, elle augmente l’amende encourue dans le droit commun de l’hébergement. Les 75 000 euros prévus par la LCEN si un hébergeur ne respecte pas ses obligations passent à 250 000 euros. En application du droit pénal général, la somme est multipliée par cinq pour les personnes morales (1,25 million d’euros).

Chapitre III : le rôle du Conseil supérieur de l’audiovisuel

Article 7-I. Les pouvoirs du CSA à l’heure de la loi Avia

L’autorité administrative, qui récupérera bientôt les pouvoirs de la Hadopi sous l’égide d’une nouvelle dénomination (Arcom), sera chargée de veiller aux respects des obligations de moyen des plateformes de partage et des moteurs.

Dans ses analyses, il prendra en compte « la pluralité des modèles de ces opérateurs et l’adéquation des moyens mis en œuvre par chacun d’eux à la lutte contre la diffusion de contenus haineux en ligne ». Le gendarme de l’audiovisuel voit donc ses compétences s’étendre sur Twitter, Facebook, TikTok, Instagram, Facebook, Google, Bing, Qwant, et tous les autres acteurs qui dépasseront le seuil d’activité bientôt fixé par décret. Il s’assurera « du suivi » de leurs obligations.

Un rapport annuel dressera le bilan de ces dispositions et de leur effectivité. Pour assurer son contrôle sur ces moyens, le législateur lui offre le pouvoir de réclamer « toutes les informations nécessaires ».

Article 7-II. Les mises en demeure, la question résiduelle des surcensures

Le CSA pourra mettre en demeure l’opérateur de se conformer. S’il constate un manquement, la loi Avia lui offre la liberté (ce n’est pas obligatoire) de « prendre en compte l’application inadéquate par l’opérateur des procédures et des moyens humains et, le cas échéant, technologiques » destinés à « prévenir les retraits excessifs de contenus » et donc les surcensures.

C’est très exactement là que l’on constate l’absence d’équivalence de forme entre la sanction d’un défaut de retrait et la sanction d’un retrait trop généreux. La première s’opère dans le cadre d’une obligation de résultat et est prononcée par un juge. La seconde est conditionnée au bon vouloir du CSA.

Et encore… l’opérateur recevant une mise en demeure ne sera éligible à cette sanction administrative du Conseil que s’il ne se conforme pas à cette missive. Si la défaillance perdure, la plateforme encourra une sanction pécuniaire de 20 millions d’euros ou 4 % de son chiffre d’affaires annuel. C’est un maximum où le CSA aura à prendre en compte à la fois « la gravité des manquements » et le cas échéant, « leur caractère réitéré ».

Ces amendes administratives seront possiblement rendues publiques, au besoin par publication dans la presse ou sur Internet, là encore en fonction de la gravité de chaque dossier. Soulignons encore une fois que l’opérateur pourra toujours s’abriter derrière ses CGU pour expliquer que tels propos lui sont contraires, d’où leur suppression.

Assemblée nationale
L'Assemblée nationale, crédits : Marc Rees

Article 7-III. Les encouragements du CSA

On est ici en plein « droit souple » ou soft law. Le Conseil pourra encourager les plateformes à suivre des caps qu’il déterminera. Évidemment, ces opérateurs pourront décliner poliment ou jeter l'email sans l’avoir lu.

En tout cas le législateur a fixé plusieurs de ces caps. Pourront être mis en œuvre « des outils de coopération et de partage d’informations, dans un format ouvert entre ces opérateurs, dans la lutte contre les infractions » dites haineuses. S’y ajoutent, « des dispositifs techniques proportionnés permettant de limiter, dans l’attente du traitement de la notification d’un contenu (…), le partage de ce contenu et l’exposition du public à celui-ci ».

Avec ce dernier point, la loi de Laetitia Avia souhaite que les tweets signalés soient désactivés des écrans, le temps que la plateforme décide de son sort. On imagine sans mal la situation si un « bot » venait à dénoncer par exemple l’ensemble des tweets du compte d’une députée LREM, au hasard.

Le CSA pourra encore prôner l’usage d’« outils de coopération dans la lutte contre la rediffusion massive de contenus, en particulier de vidéos ou d’images, identiques ou spécifiquement équivalents à ceux retirés » dans les 24 heures.

Empêcher la rediffusion d’un contenu identique ou « équivalent », c’est préparer concrètement la généralisation des solutions de filtrage par exemple par empreintes numériques. Cela suppose aussi l’avènement d’une liste noire des contenus haineux où la plateforme sera invitée à piocher pour comparer à la volée le contenu de chaque publication à venir. La technique est très exactement celle organisée par un autre texte, la directive sur le droit d’auteur, à l’article 17

Pour l'accomplissement des missions, la loi précise que le Conseil supérieur de l'audiovisuel pourra obtenir « toutes les informations nécessaires au contrôle des obligations » de moyens, « y compris l’accès aux principes et méthodes de conception des algorithmes ainsi qu’aux données utilisées par ces algorithmes pour se conformer à ces obligations ».

Chapitre IV : « Amélioration » de la lutte contre la diffusion de contenus haineux en ligne

Article 8. Les sites miroirs, la liste noire

Lorsqu’une décision de blocage sera rendue par la justice, l’« autorité administrative » (elle n’est pas désignée plus précisément) pourra demander aux fournisseurs d’accès, aux moteurs, aux exploitants d’annuaire et autres services de référencement, d’étendre la décision aux sites « reprenant le contenu du service visé par ladite décision en totalité ou de manière substantielle. »

Ces acteurs pourront ne pas suivre cette recommandation. Auquel cas la justice pourra intervenir pour les y contraindre. La liste noire des sites bloqués sera tenue à jour par l’autorité administrative. Elle sera tenue à disposition des annonceurs et du monde de la publicité, avec l’espoir qu’ils coupent les vivres des sites « haineux ».

Article 9. Name and Shame

Les annonceurs seront tenus de rendre publique au minimum une fois par an sur leurs « sites Internet » l’existence de relations avec les noms inscrits sur la liste noire. Et devront le faire savoir dans leur rapport annuel (s’ils sont tenus d’en adopter un).

Chapitre V : Réponse pénale à l’égard des auteurs de contenus haineux en ligne

Article 10. Un parquet et un tribunal spécialisés pour juger la haine en ligne

Selon Nicole Belloubet, « le Gouvernement a souhaité la création d’un parquet spécialisé, qui pourra mieux organiser la répression de ces infractions. Rompu aux usages et aux problématiques du numérique, ce sera vraisemblablement le parquet de Paris, qui disposera d’une compétence concurrente pour intervenir sur ces dossiers ».

La Garde des Sceaux promet de publier « une circulaire à l’ensemble des parquets afin d’indiquer comment ce parquet spécialisé devra articuler son action avec celle des parquets et tribunaux locaux ».

Ce parquet « devra jouer un rôle central dans le traitement des plaintes adressées en ligne. Son rôle sera en outre essentiel pour apporter une réponse pénale à des faits mettant en cause plusieurs individus, par exemple dans le cas de raids numériques discriminatoires ou lorsque de nombreuses plaintes concernent une seule et même publication ».

Une juridiction spécialisée sera désignée « pour traiter ces affaires garantira la cohérence à la réponse pénale et à la jurisprudence en la matière ». Sa compétence sera concurrente avec les juridictions normalement compétentes, territorialement.

Article 11. Interdiction d’adresser des messages à une victime

Dans le cadre d’un contrôle judiciaire ordonné par le juge d'instruction ou celui des libertés et de la détention, le Code de procédure pénale prévoit différentes obligations visant la personne mise en examen qui encourt une peine d'emprisonnement correctionnel ou une peine plus grave.

Après mis à jour de la liste à l’article 138 du Code de procédure pénale, l’intéressée pourra être tenue de « ne pas adresser de messages à la victime, de façon directe ou indirecte, par tout moyen, y compris par voie électronique ».

Une personne cette fois condamnée pourra de même se voir interdire « d’adresser des messages à la victime, de façon directe ou indirecte, par tout moyen, y compris par voie électronique. »

Article 12. Juge unique

Dans certains jugements, un tribunal peut n’être composé que d'un seul magistrat exerçant les pouvoirs conférés au président. En substance, l’article 12 prévoit que le délit de refus de retrait d’un message manifestement illicite en 24 heures fera partie de ces cas.

Remarquons qu’un internaute se plaignant d’une surcensure de la part de Twitter devra faire face un tribunal composé normalement, s’il entend faire réactiver son tweet...

Articles 13, 14, 15 et 19. Élèves et profs sensibilisés à la lutte contre la haine en ligne

Avec la loi Avia, le Code de l’éducation prévoit que dans les écoles et les établissements d’enseignement, « la formation à l'utilisation responsable des outils et des ressources numériques » contribuera aussi à la lutte contre la haine en ligne.

Il a été aussi spécifié que dans les écoles, les collèges et les lycées, la mission d'information sur les violences portera également sur les contenus en ligne. Les instituts nationaux supérieurs du professorat et de l'éducation devront également organiser des formations de sensibilisation à la lutte contre la diffusion des contenus haineux.

L’article 19 prévoit des mesures spécifiques pour les îles Wallis et Futuna, en Polynésie française, en Nouvelle-Calédonie et dans les Terres australes et antarctiques françaises

Article 16. L’observatoire de la haine en ligne

Cet observatoire assurera le suivi et l’analyse des contenus « haineux ». Il associera les opérateurs, associations, administrations et chercheurs concernés « par la lutte et la prévention contre ces infractions ».

Cet observatoire sera placé « auprès du Conseil supérieur de l’audiovisuel, qui en assure le secrétariat ». Ses missions et sa composition sont fixées par le CSA lui-même.

Article 17. Rustine de la loi de 2004

La loi de 2004 sur la confiance dans l’économie numérique est corrigée pour que l’adverbe « manifestement » soit inscrit en dur, alors qu’il n’était qu’une émanation de la jurisprudence du Conseil constitutionnel.

Article 18. Date d’entrée en vigueur

Reprenant un amendement adopté par le Sénat en nouvelle lecture, les députés ont décidé de repousser l’entrée en vigueur de l’article 1er. Cela vaut aussi bien pour l’obligation de résultat que de moyen. 

En séance, Laetitia Avia a expliqué qu’« il convient de raison garder et de laisser quelques semaines aux plateformes pour qu’elles puissent se conformer aux obligations qu’il leur impose ». D’autres dispositions de la loi seront d’application directe ou repoussées au 1er janvier 2021.

Seul hic, si la France décide de notifier les nouvelles dispositions importantes de sa loi, celles-ci seront gelées pour une période de trois mois, le temps que la Commission européenne et les autres États membres les examinent. Impossible alors d’envisager une application immédiate ou au 1er juillet.

Le texte sera susceptible d’évoluer selon les résultats de la saisine promise par le groupe LR au Sénat.

Écrit par Marc Rees

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Chapitre I : « Simplification » des dispositifs de notification des contenus haineux en ligne

Chapitre II : Le devoir de coopération des plateformes

Chapitre III : le rôle du Conseil supérieur de l’audiovisuel

Chapitre IV : « Amélioration » de la lutte contre la diffusion de contenus haineux en ligne

Chapitre V : Réponse pénale à l’égard des auteurs de contenus haineux en ligne

Commentaires (34)


Marc, comme toujours, tu assures <img data-src=" />

Grâce à tes articles de fond (ultra) fouillés, je comprends bien mieux les sujets traités.



De plus c’était vraiment un plaisir de te lire dans le 1er magazine. Vivement le deuxième !


Merci Marc, toujours au top.


Merci à vous<img data-src=" />. J’espère que cela sera utile à ceux qui n’ont pas bien compris la petite révolution qu’engage cette loi…



&nbsp;Saisine du Conseil constit ce week-end m’indiquent mes sources.


Gros boulot encore, chapeau !



De ton point de vue, Conseil Constitutionnel n’est-il pas définitivement noyauté par “les méchants” ?

J’ai pas d’exemple précis, mais il me semble qu’il a été assez mou du genou ces derniers temps, nan ?


J’ai pas fini de lire mais merci beaucoup Marc.

J’ai une question déjà, sur l’obligation des plateformes d’avoir un système de signalement en français, ça veut dire qu’une plateforme uniquement anglophone sera purement interdite en France?

Dans la même veine, les contenus supprimés sous le coup de cette loi ne le seront pas à l’étranger? Dans l’exemple de google, il suffirait d’accéder au .co.uk pour voir le contenu? Ca a l’air aussi inutile qu’ingérable…


Après lecture de ton article plus du texte, mes points additionnels :





  • &nbsp;La notification donnant lieu au retrait en 24h doit suivre les formes de la notification LCEN à l’exception notable de “la copie de la correspondance adressée à l’auteur ou à l’éditeur des informations ou activités litigieuses demandant leur interruption, leur retrait ou leur modification, ou la justification de ce que l’auteur ou l’éditeur n’a pu être contacté” : bah oui pourquoi s’embêter avec le contradictoire ? Notre avocate préférée semble n’en avoir cure. Cette dérogation au contradictoire est confirmée et renforcée par le II de l’article 2 qui l’inscrit même dans l’article 6.I.5. Il n’en reste pas moins que, comme tu le précises, les plateformes pourront jouer sur le contenu de la notification, et notamment “la description du contenu litigieux, sa localisation précise et, le cas échéant, la ou les adresses électroniques auxquelles il est rendu accessible” et “les motifs légaux pour lesquels le contenu litigieux devrait être retiré ou rendu inaccessible” pour s’acheter un peu de répit.

  • Si les plateformes sont obligées par l’article 4 de mettre en place des dispositifs de notification, ces derniers ne doivent pas forcément inclure l’URL du contenu en cause ou de catégories d’infractions. Si j’étais juriste chez Google je reverrais tous les formulaires et je les rendrais les plus simples possible :3

  • Article 4 : dispositif de notification à destination des français mais dans la langue d’utilisation du service… perso j’ai Facebook en leet speak, Laetitia Avia veut vraiment forcer Facebook à me traduire le petit formulaire ? et dans les 12039819 autres langues dispos ?

  • Intéressant de noter que le référé/la requête de filtrage sont soumis au principe de subsidiarité de l’article 6.I.8, au moins à vouloir paraitre intelligents et renvoyer à ce qui était déjà écrit ils n’ont pas tout cassé. Je suis moins optimiste que toi en revanche sur le caractère ciblé du filtrage au vu de l’arrêt Facebook de la CJUE sur le sujet. Je m’intéresse aussi à la prévention d’un dommage : j’ai hâte de saisir le juge pour prendre toute mesure utile aux fins de prévenir des retraits de contenus qui seraient susceptibles de me causer un dommage :p Attention Google, VOUS DEVEZ MAINTENIR CE CONTENU EN LIGNE SOUS PEINE D’ASTREINTE

  • J’ai vraiment du mal à comprendre la prompte notification aux autorités des contenus haineux : on envisage vraiment communiquer la liste précise de tout ce qui sera retiré ? Bonne chance au ptit gars du Ministère de l’Intérieur qui va recevoir les notifs’

  • Pas sûr que la possibilité que les sanctions ne soient pas publiques tienne au regard du principe de publicité de la justice, le CSA agissant comme une juridiction au sens de la CEDH dans ce cadre là




Pavé César.



J’ai bien fait de faire du café, va me falloir du temps pour lire ça.



Par contre je regarde le texte de loi et je vois :



“Est qualifiée d’opérateur de plateforme en ligne toute personne physique ou morale proposant, à titre professionnel, de manière rémunérée ou non, un service de communication au public en ligne”.



Donc à titre non professionnel ça passe ? <img data-src=" />





Et quand je vois : “des crimes de réduction en esclavage “, donc c’est fini, il n’est plus possible de poster des vidéos du jeu Fallout: New Vegas ? <img data-src=" />


Je viens de voir ça, le professionnel change tout. A priori Mastodon et le Fédivers ne tombe pas sur le coup de cette loi du coup.

Ca veut aussi dire qu’un particulier organisant une manifestation sur Mobilizon par exemple ne pourra voir son contenu enlevé de manière abusive par un flic sous prétexte que c’est terroriste par exemple?




Article 10. Un parquet et un tribunal spécialisés pour juger la haine en ligne





Ah, c’est bien ça. Parce que l’impossibilité de poursuivre les auteurs était la principale justification à l’existence de cette loi.

Du coup on garde cet article 10 et on peut supprimer tous les autres <img data-src=" />





J’ai bon?


Pourquoi tant de haine du gouvernement envers la population.<img data-src=" />


Merci Marc pour ces explications, ça me permet de mieux comprendre ce qu’implique ce genre de textes pas très compréhensibles pour quelqu’un hors du domaine.


De toute façon c’est déjà le cas au niveau technique si c’est une instance de particulier avec de grand délais de modération (ou même une perso), le délais de une heure, voir 24h ne sera pas tenu <img data-src=" />



Vu le fonctionnement du fediverse, le flic peut brailler comme il veut, le contenu a une grande probabilité de rester (genre une instance auto-hébergé sur lequel tu as l’event qui fédère les autres) et de dépasser le délais.



Après la question que je me pose c’est pour une association, est-ce qu’on rentre dans du “professionnel” ?



Parce qu’avec mon instance PeerTube, ça risque d’être casse couille ce bordel. D’un côté ils nous font chier avec leur souveraineté national et de l’autre ils poussent les gens vers les services de Google/Facebook vu que c’est les seuls avec la puissance de frappe nécessaire pour cette loi (et encore, même pas sûr).



Mais c’est normal, le fediverse c’est dangereux <img data-src=" />, ils ne peuvent pas avoir le même contrôle (bien que l’avantage c’est que ça responsabilise quand même l’hébergeur de l’instance, pour ça que j’aime ce modèle où tu es libre, mais tu es quand même responsable devant la loi où est l’instance, contrairement par exemple à Zer0net à travers Tor où là tu as un site web impossible à censurer et introuvable).








Kazer2.0 a écrit :



Et quand je vois : “des crimes de réduction en esclavage “, donc c’est fini, il n’est plus possible de poster des vidéos du jeu Fallout: New Vegas ? <img data-src=" />



Ni les chaines de production de certains sous-traitants asiatiques … <img data-src=" />



Et en vidéo, ça donnera :https://www.youtube.com/watch?v=NfeB8Tg1wKg



Merci pour cet article !


Il est rapide le mozinor bordel <img data-src=" />


Merci pour tout LREM.



J’ai bien lu ou chaque “signalement” est transmis au “parquet numérique” ?



Quelle horreur cette loi. Quelle horreur cette nana.



Jz f



Mais qu’est ce qu’on a fait à internet ?





PS :


Je fais partie d’une “minorité” sujette à discrimination que cette loi est sensée “protéger”.

Et je pense que cette loi n’a que pour but de censurer la plèbe, tout en lui faisant les poches et est faite par des gens qui ont une profonde haine d’internet - dont Laetitia AVIA n’est qu’une apparatshrek représentative.

Vous pouvez remercier LREM.



QUESTIONS :





  1. J’ai bien lu ou chaque “signalement” est transmis au “parquet numérique” ou à “l’autorité/arcom” ??



  2. Je n’a rien vu de tel dans la loi, mais est-ce qu’un intermédiaire ou sous-traitant ou délégataire de service public, sera chargé de traiter ces signalements / plaintes / ou d’apporter des moyens techniques ? Un peu comme TMG (dont Thierry Lhermitte est actionnaire) pour “flasher” les adresses IP dans la loi HADOPI ?


Pourquoi je ne peux pas éditer mes propres posts ?

Merci de supprimer cette merde, j’ai posté plus bas.








NI a écrit :



Quelle horreur cette nana.





Oui c’est la pire des races, elle appartiens à une “minorité” qui abusent à longueur de journée de la discrimination tout en ce faisant passer pour une putain de victime. C’est du même acabit que le voleur même filmé la main dans le sac ira dire “mais c’est pas moi”. Avec cette même justice de merde qui ne condamnera pas le voleur car c’est que son 10 ème vole dans le mois.



ps : Quand j’utilise race, c’est la race des raclures et pas le fait qu’elle soit noire.

&nbsp;





NI a écrit :



Je fais partie d’une “minorité” sujette à discrimination que cette loi est sensée “protéger”.

Et je pense que cette loi n’a que pour but de censurer la plèbe, tout en lui faisant les poches et est faite par des gens qui ont une profonde haine d’internet - dont Laetitia AVIA n’est qu’une apparatshrek représentative. Vous pouvez remercier LREM.





Je t’invite à la troller sur tweeter pour lui faire comprendre que cette loi est débile.

&nbsp;





NI a écrit :



Mais qu’est ce qu’on a fait à internet ?





Tout à réellement commencé le jours ou les gens ont commencés à créer des compte sur les réseaux sociaux pour suivre des gens connus. Maintenant ces gens peuvent même y participer pendant qu’ils font caca au milieu de la foret.



D’un autre côté ont entend pas souvent parler des gens qui ce font condamner pour menace de mort, avec un suivis à la clef, surtout dans les médias. Si machin qui à dis “ je vais violer ta fille ” ce prenais 5000€ d’amende ou alors 40h de TIG à récurer des chiottes avec photo à l’appuie ça en refroidirais plus d’un.









skankhunt42 a écrit :



D’un autre côté ont entend pas souvent parler des gens qui ce font condamner pour menace de mort, avec un suivis à la clef, surtout dans les médias. Si machin qui à dis “ je vais violer ta fille ” ce prenais 5000€ d’amende ou alors 40h de TIG à récurer des chiottes avec photo à l’appuie ça en refroidirais plus d’un.







C’est oublier le biais du “ça n’arrive qu’aux autres” qui démontre l’inefficacité des mesures de répression sans moyens accordés derrière pour les appliquer.



Cf le code de la route, si demain le législateur inscrit dans la loi que rouler avec un portable au volant est passible de prison à vie immédiate, sans moyen de mise en oeuvre de la loi ça ne changera rien.









SebGF a écrit :



C’est oublier le biais du “ça n’arrive qu’aux autres” qui démontre l’inefficacité des mesures de répression sans moyens accordés derrière pour les appliquer. Cf le code de la route, si demain le législateur inscrit dans la loi que rouler avec un portable au volant est passible de prison à vie immédiate, sans moyen de mise en oeuvre de la loi ça ne changera rien.





Le pire c’est que dans le cas présent rouler avec un portable c’est déjà passible de prison à vie immédiate… Pas besoin d’un truc automatiser pour en mettre plein la tronche au haineux sur internet. Mais c’est sur que si derrière il y à personne pour appliquer une sentence ça ne sert à rien.



Je pas cette merde sent vraiment le sapin, il pourrais y avoir des détournement potentiels ?





Le pire c’est que dans le cas présent rouler avec un portable c’est déjà passible de

prison à vie immédiate….



ah, bon ?

j’ai loupé un truc !








vizir67 a écrit :



ah, bon ? j’ai loupé un truc !





C’était pour continuer l’exemple de seb sous une image. Le portable c’est la haine et internet est la voiture. Et cette cher madame évier c’est le mec qui tente de te caler un radar tout les 10m et qui n’hésitera pas à te mordre pour y arriver.



&nbsp;









NI a écrit :



Je fais partie d’une “minorité” sujette à discrimination que cette loi est sensée “protéger”.

Et je pense que cette loi n’a que pour but de censurer la plèbe, tout en lui faisant les poches et est faite par des gens qui ont une profonde haine d’internet - dont Laetitia AVIA n’est qu’une apparatshrek représentative.

Vous pouvez remercier LREM.



QUESTIONS :





  1. J’ai bien lu ou chaque “signalement” est transmis au “parquet numérique” ou à “l’autorité/arcom” ??



  2. Je n’a rien vu de tel dans la loi, mais est-ce qu’un intermédiaire ou sous-traitant ou délégataire de service public, sera chargé de traiter ces signalements / plaintes / ou d’apporter des moyens techniques ? Un peu comme TMG (dont Thierry Lhermitte est actionnaire) pour “flasher” les adresses IP dans la loi HADOPI ?





    Commentaire très drole.

    Commençant par “Je fais partie d’une minorité” et se finissant par du name shaming.



    Tu es le parfait exemple du bon participant sur les réseaux sociaux qui hait ce genre de loi.



j’avais en tête :




  • amende de 135 Euros



  • perte de 3 points



    mais, ça ne ‘doit’ plus être ça ! <img data-src=" />








carbier a écrit :



…se finissant par du name shaming…







Thierry Lhermitte a publiquement soutenu Hadopi, le flicage d’Internet contre la vie privée et la suppression d’Internet pour ceux qui se partage des fichiers: il doit assumer publiquement sa haine des pauvres <img data-src=" />



Tu confonds un intérêt ou une opinion avec un caractère de la personnalité (que la loi Avia est sensé protégé). C’est très grave ce que tu dis. Etre actionnaire ne fait même pas partie du secret des affaires (et quand bien même).


« Le 15 octobre 2010, invité de l’émission C à vous sur France 5, il prend position en faveur de la loi Hadopi destinée à lutter contre le piratage des œuvres. Il défend le principe de cette loi, mais reconnaît qu’elle est très, très imparfaite15. Il est par ailleurs un des administrateurs de la société Trident Media Guard (TMG), prestataire choisi fin janvier 2010 par le gouvernement français pour la mise en œuvre de cette loi16,17. »



&nbsp;https://fr.wikipedia.org/wiki/Thierry_Lhermitte








joma74fr a écrit :



Tu confonds un intérêt ou une opinion avec un caractère de la personnalité (que la loi Avia est sensé protégé). C’est très grave ce que tu dis. Etre actionnaire ne fait même pas partie du secret des affaires (et quand bien même).





Le name shaming concernant un intérêt, une opinion, ou quoi que ce soit d’autre reste du name shaming.

C’est à dire attaquer publiquement quelqu’un, que ce soit une personnalité ou pas, sur les réseaux sociaux par rapport à une opinion négative qu’on a sur elle.

Si tu dois commencer à attaquer tous les actionnaires (soit en direct, soit via des FCP clés en main) de chaque boite qui vous file des boutons, cela va vous prendre du temps.



Tu as compris que tu avais fait une allusion à l’outing dans ton précédent commentaire au moins ?



Ou alors tu penses vraiment que contester un projet de loi est moralement répréhensible. Dans ce cas, il faudra peut-être que je pense à remplir une “attestation dérogatoire” de contestation au prochain commentaire que je ferais ?








ProFesseur Onizuka a écrit :



Thierry Lhermitte a publiquement soutenu Hadopi, le flicage d’Internet contre la vie privée et la suppression d’Internet pour ceux qui se partage des fichiers: il doit assumer publiquement sa haine des pauvres <img data-src=" />



Et il est actionnaire et administrateur de TMG.



J’ai du mal à voir le rapport entre le piratage et le fait d’être pauvre… Je ne suis pas sur que les pauvres soient ceux qui téléchargent le plus de données illégales.



Quand on voit aujourd’hui des NAS à plusieurs centaines d’euros avec abonnements payants à usenet, hébergeur de seedbox et/ou vpn, je ne suis pas sur que ça corresponde aux priorités des “pauvres”.


Gros morceau, merci pour les explications !