La proposition de loi Avia passe le cap de l’Assemblée nationale

Au tour du Sénat 49
Accès libre
image dediée
Crédits : Richard Villalonundefined undefined/iStock
Loi
Marc Rees

Les députés ont achevé hier soir l’examen de la proposition de loi Avia contre les contenus haineux sur Internet. Tour d’horizon des principales dispositions, amendées puis adoptées au fil des débats.

La députée Laetitia Avia n’aura plus qu’à attendre l’adoption formelle de son texte la semaine prochaine pour espérer ensuite un vote conforme au Sénat, ou bien un passage en commission mixte paritaire. Ce n’est qu’à la rentrée que sa proposition de loi passera sur le grill des sénateurs. En attendant, son texte a été remanié profondément au fil des débats.

Que devront retirer les plateformes ?

Si aujourd’hui, depuis la loi de 2004, les hébergeurs (YouTube, Dailymotion, Facebook, Twitter, etc.) doivent supprimer les contenus « manifestement illicites », et ce le plus rapidement possible (« promptement »), il revenait au juge de définir le spectre de ces deux adverbes.

La loi Avia contraint les plateformes, mais également les moteurs de recherches, à supprimer en moins de 24 heures les contenus rattachés à toute une série d’infractions déterminées. Cela va des appels à la haine en raison du sexe, la négation des crimes contre l’humanité, les injures discriminatoires, l’apologie du terrorisme, mais également les contenus pornographiques ou violents dès lors que ces deux derniers sont simplement accessibles aux mineurs.

Les plateformes concernées seront celles qui mettent à disposition des contenus mis en ligne par des internautes au profit du public. Toutes ne seront pas impactées par la loi. Le gouvernement fixera une série de seuils de connexion au-delà duquel ces obligations de retrait seront obligatoires.

En cas de non retrait, l’intermédiaire risquera jusqu’à 1,25 million d’euros d’amende infligée par un tribunal.

Il reviendra toujours à la plateforme de déterminer si le contenu en cause est bien manifestement illicite. Elle devra dès lors laisser en ligne les contenus qui ne présentent pas ces caractéristiques.

L’élargissement des pouvoirs des plateformes et moteurs a été plusieurs fois dénoncé en hémicycle, les opposants critiquant le virage vers une sorte de justice privée, soit une atteinte à la souveraineté des États. Tous les amendements visant à introduire le juge plus en amont ont été repoussés par la majorité LREM, même ceux qui auraient permis à Twitter par exemple de saisir une juridiction en cas de doute sur le caractère manifestement illicite d’un contenu.

Y aura-t-il du filtrage ?

Sans doute. L’amendement 349 porté par le groupe LREM a été adopté. Plateformes et moteurs devront empêcher la rediffusion d’un contenu qui a fait l’objet d’un retrait dans le cadre de la loi Avia.

Chaque intermédiaire aura la liberté de choisir les moyens à mettre en place, mais cette disposition implique nécessairement la création d’une liste noire, puis une comparaison en temps réel avec les contenus que les internautes souhaitent mettre en ligne.

Une telle mécanique, qui n’est encadrée par aucune limite temporelle, risque d’être en contrariété avec l’interdiction de surveillance généralisée de la directive de 2000 sur le commerce électronique.

Les plateformes seront ici dans une situation complexe, notamment pour des articles de presse qui reprendraient un passage enregistré dans la liste noire.

Les surcensures seront-elles sanctionnées pénalement ?

Seul l’est le défaut de retrait d’un contenu qui n’avait plus à rester accessible. Les surcensures ne seront pas sanctionnées par une infraction. Les amendements qui souhaitaient contraindre cette équivalence des formes ont été repoussés.

En revanche, les plateformes et moteurs devront mettre les moyens appropriés pour éviter ces coups de ciseaux trop généreux. Et c’est seulement dans un tel cadre que le Conseil supérieur de l’audiovisuel pourra les punir, avec une amende pouvant atteindre 4 % du chiffre d’affaires mondial.

La sanction est cependant différente : le défaut de retrait sera puni individuellement dans le cadre d’une obligation de résultat. La surcensure ne sera punie qu’en cas de comportements répétés, dans le cadre d’une obligation de moyens.

Il n’y a donc pas d’équilibre ; il existe un délit pour non-retrait, mais pas de délit pour retrait abusif. En d’autres termes, si Facebook démontre avoir mis assez d’outils pour tenter d’éviter la surcensure, qu’il a donc fait de son mieux, le réseau échappera aux foudres du CSA, quand bien même aura-t-il retiré illégalement des gigas d’images, propos, vidéos, musiques… considérées comme haineuses ou violentes.

En séance, Laetitia Avia a souligné que les utilisateurs avaient un autre levier : attaquer ces retraits illégitimes sur le terrain contractuel. D’ailleurs, il a été adopté un amendement pour obliger les plateformes et moteurs à bien détailler leurs conditions générales d’utilisation. Cependant, une action devant le juge judiciaire peut prendre des mois, si ce n’est plus. Et elle est à la charge de l’utilisateur.

Que deviendront les contenus retirés ?

Ils seront effacés, mais seulement en surface. Un amendement a été adopté pour que les plateformes les conservent « pour une durée maximale d’un an pour les besoins de recherche, de la constatation et de la poursuite des infractions pénales, et seulement afin de mettre à disposition de l’autorité judiciaire des informations ».

En ce sens, les hébergeurs devront mettre au frais ce stock, à charge pour la justice de picorer ces éléments, et d’exiger en outre la transmission des métadonnées (adresse IP, nom, prénom, pseudo, etc.) de leur auteur.

Qui pourra réclamer le retrait ?

Les utilisateurs d’abord, et même toute personne ou association œuvrant contre les discriminations. Celles-ci pourront d’ailleurs « exercer les droits reconnus à la partie civile », du moins « lorsque ce délit porte sur un contenu qui constitue une infraction pour laquelle l’association peut exercer les mêmes droits ». Des mesures spécifiques ont été prévues pour les mineurs, pour cause de RGPD.

Le formalisme des notifications a été allégé. Un utilisateur connecté sur une plateforme n’aura pas à renseigner ses nom, prénom, etc. Son simple statut d’utilisateur justifiera son intérêt juridique à réclamer le retrait.

Laure de la Raudière aurait aimé que les notifiants communiquent une pièce d’identité à la plateforme. Son amendement a été écarté. Elle a dénoncé les risques de sursignalement visant le contenu d’un compte, risque reconnu par Cédric O, qui a rappelé néanmoins que ces actions seront pénalement sanctionnées.

La crainte est toutefois que Facebook, Twitter, ou n’importe quelle plateforme concernée fassent de l’excès de zèle : effacer les contenus signalés par une pluie d’internautes abrités sous des VPN ou installés à l’étranger, pour éviter le délit de défaut de retrait. En somme, les dénonciations abusives risquent bien d’atteindre la liberté d’expression, de communication et d’information.

Les suites des signalements seront communiquées non seulement au notifiant, mais aussi à l’auteur du contenu, dans les sept jours.

Et quid de la procédure ?

Le gouvernement a fait adopter un amendement pour introduire dans notre droit un parquet et un tribunal spécialisés dans le numérique. Une 17e chambre, spécialisée dans la haine en ligne…

Ils s’occuperont des contenus haineux publics. C’est le parquet qui contactera les FAI pour avoir l’identification des IP des auteurs des contenus haineux. Selon la typologie des infractions (faits isolés ou raids numériques provenant de multiples points du territoire), la compétence reviendra au tribunal du lieu du domicile de l’auteur ou bien restera entre les mains de ces instances spécialisées.

Les victimes pourront aussi porter plainte en ligne, voire se rendre à la gendarmerie ou au commissariat le plus proche pour entamer ces actions.

Quel sera le rôle du CSA ?

Après la loi contre les fake news, le Conseil supérieur de l’audiovisuel gagne de nouveaux crans de compétences. Il pourra élaborer des recommandations à destination des plateformes et moteurs, et les contraindre à les respecter. Les mal-comprenants pourraient se voir infliger la sanction administrative de 4 % du C.A. mondial.

Par ce biais, l’autorité – dotée de nouveaux pouvoirs de contrôle – devient finalement le régulateur des contenus en ligne, comme il l’est sur la TV et la radio. On est ici au-delà du symbolique. C’est un vrai virage amorcé en France pour cette instance qui fut introduite dans notre paysage pour gérer initialement la rareté des ressources hertziennes.

Le CSA ne sera pas seul. Un observatoire de la haine en ligne a été ajouté au fil des débats. Selon les vœux des députés LREM, il assurera « le suivi et l’analyse de l’évolution des contenus » à retirer. Il travaillera « avec les opérateurs, associations et chercheurs concernés, en prenant en compte la diversité des publics concernés, notamment les mineurs ». Il pourra faire des propositions sur la sensibilisation, la prévention, la répression ou encore le suivi des victimes.

Quelles sont les autres mesures adoptées ?

L’OCLCTIC gagne de nouvelles compétences à l’occasion de la proposition de loi Avia. L’office pourra enjoindre FAI, hébergeurs et autres moteurs à bloquer l’accès à un site qui a déjà fait l’objet d’une décision judiciaire en ce sens.

Cette mesure permettra d’étendre ce blocage judiciaire aux miroirs d’un service en ligne, sans passer par la case juge.

Autre point à relever, les élèves seront sensibilisés aux questions de haine en ligne. Ajoutons que l’auteur d’un contenu haineux pourra se voir interdire par la justice d’adresser des messages à sa victime « de façon directe ou indirecte, par tout moyen, y compris par voie électronique. »


chargement
Chargement des commentaires...