Haine en ligne : ce que prévoit la proposition de loi Avia après le vote du Sénat

Haine, peine, LCEN 17
Accès libre
image dediée
Crédits : Marc Rees (licence CC-BY-SA 3.0)
Loi
Marc Rees

Le 17 décembre, le Sénat a voté, non sans la modifier profondément, la proposition de loi contre la haine en ligne. Les différences avec la version adoptée par les députés doivent maintenant être arbitrées en commission mixte paritaire. Next INpact vous propose une analyse ligne par ligne du texte, en l’état. 

La proposition de loi contre la haine en ligne est en dernière ligne droite. Ce texte organise une réforme de la responsabilité des hébergeurs comme YouTube, Facebook ou Twitter. C’est une nouvelle poussée après celle de la directive sur le droit d’auteur

La proposition rédigée, portée et défendue par la députée Laetitia Avia (LREM) ambitionne cette fois de lutter contre les contenus dits haineux. L’idée initiale fut de contraindre les intermédiaires à supprimer ces contenus dans un délai très court - 24 heures - sous peine d’une amende de 1,25 million d’euros par oubli. Cependant, plébiscité par les députés, ce régime a été revu et profondément corrigé par les sénateurs. 

Cette correction s’explique en partie par les foudres bruxelloises. Comme l’a révélé Next INpact, la Commission européenne avait adressé un courrier d’une dizaine de pages pour critiquer le cœur du dispositif. La France ne pouvait prendre le risque d’une guerre frontale, qui aurait été arbitrée par la Cour de justice de l’Union européenne (l’avis, nos explications). 

Plus d’infractions, plus de concours de la part des hébergeurs

Dans l’article 1er de la proposition modifiée par les sénateurs, on ne retrouve plus cette obligation de retrait en 24 heures. Il modifie avant tout la liste des infractions pour lesquelles les hébergeurs sont tenus d’apporter tout spécialement leur concours. 

À ce jour, cette liste concerne :

  • L’apologie des crimes d'atteinte volontaire à la vie, d'atteinte volontaire à l'intégrité de la personne, d'agression sexuelle, de vol aggravé, d'extorsion, de destruction, de dégradation ou détérioration volontaire dangereuse pour les personnes, des crimes de guerre, des crimes contre l'humanité, des crimes de réduction en esclavage ou d'exploitation d'une personne réduite en esclavage ou des crimes et délits de collaboration avec l'ennemi
  • Les cris ou chants séditieux
  • La provocation à la discrimination, à la haine ou à la violence à l'égard d'une personne ou d'un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion
  • La provocation à la haine ou à la violence à l'égard d'une personne ou d'un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap
  • Le harcèlement sexuel
  • La traite des êtres humains
  • Le proxénétisme
  • La pédopornographie
  • La fabrication, transport, diffusion ou commerce de message violent ou pornographique susceptible d'être vu ou perçu par un mineur
  • La provocation directe à des actes de terrorisme ou apologie publique de ces actes 

Les sénateurs ajoutent à cette liste déjà conséquente :

  • L'incitation à la haine à l'égard de personnes à raison de leur genre
  • Les injures envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée, de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap.

Pour ces infractions, les hébergeurs devront « mettre en place un dispositif facilement accessible et visible permettant à toute personne de porter à leur connaissance ce type de données ». Ils devront tout autant « informer promptement les autorités publiques compétentes » et « rendre publics les moyens qu'elles consacrent à la lutte contre ces activités illicites ».

Message de substitution, conservation des preuves 

Lorsqu’un de ces messages sera donc supprimé, Twitter ou Facebook devra lui substituer une annonce expliquant « qu’il a été retiré en raison de son caractère illicite » (alinéa 4). 

La suppression ne sera que de façade puisque les contenus litigieux resteront accessibles aux autorités judiciaires durant un délai que devra définir un décret en Conseil d’État, pris après avis de la CNIL (alinéa 5). 

Retour du formalisme, après les critiques européennes 

L’article 1 ter A revient sur le formalisme des notifications adressées par les internautes aux hébergeurs. Pour mémoire, ces notifications sont juridiquement très importantes puisqu’elles placent YouTube, Facebook ou Twitter en situation de « connaissance » effective du fait potentiellement illicite, à charge pour cet acteur d’en assumer la responsabilité s’il décide de ne pas le supprimer. 

Laetitia Avia avait voulu alléger ces règles de forme afin, nous confiait-elle, de « simplifier l’expérience utilisateur ». 

De fait, elle n’exigeait plus que la localisation exacte du contenu litigieux soit soufflée à l’hébergeur, laissant ce dernier dans l’expectative. En sortie d’Assemblée nationale, la proposition de loi se contentait aussi d'une simple description de « la catégorie à laquelle peut être rattaché le contenu litigieux » et des « motifs pour lesquels il doit être retiré ». 

Ces deux mesures en retrait ont été mal accueillies par la Commission européenne dans l’avis révélé dans nos colonnes : « la recherche active d’un tel emplacement incombe ainsi à la plateforme, qui devra par exemple parcourir de nombreux contenus (comme de longues vidéos ou de longs textes) » regrettait l’institution. De plus, « les plateformes en ligne pourraient être amenées à évaluer toutes les dispositions nationales concernant toutes les catégories de contenus relevant de l’article premier du projet notifié ».

Au Sénat, ces remarques ont été prises en compte : lorsqu'il signale un contenu qu'il pense être manifestement illicite, l’internaute devra indiquer « la description du contenu litigieux, sa localisation précise et, le cas échéant, la ou les adresses électroniques auxquelles il est rendu accessible ». Il aura aussi à préciser « les motifs légaux pour lesquels le contenu litigieux devrait être retiré ou rendu inaccessible ». 

Une exception a été ajoutée s’agissant de la liste des infractions précitées. Les personnes notifiant des contenus odieux se voient dispensées d’ajouter à leur notification, la preuve des démarches entreprises préalablement pour contacter leur auteur. 

Des notifications adressées par une association 

L’article 1er ter B permet à une association reconnue d’utilité publique de notifier un contenu contrevenant manifestement aux dispositions pénales inscrites à l’article 7 de la loi sur la confiance dans l’économie numérique (la liste précitée, là encore). 

L’association devra être âgée de plus de cinq ans et son objet statutaire comporter la protection des enfants. Enfin, elle aura à être saisie par un mineur. Les intermédiaires techniques devront accuser réception sans délai de cette notification puis l’informer des suites données ainsi que des motifs de leur décision. L’association pourra contester « s’il y a lieu le défaut de retrait ou de déréférencement du contenu, sans préjudice du droit d’agir des représentants légaux du mineur concerné ». 

De nouvelles obligations pour les opérateurs de plateformes

À l’article 2, sont orchestrées de nouvelles obligations pour certains acteurs. 

Il s’agit d’une part des opérateurs de plateforme, lesquels ne se confondent pas parfaitement avec les hébergeurs. Selon la définition portée par le Code de la consommation, on trouve en effet derrière tous les sites de mise en relation « de plusieurs parties en vue du partage de contenus publics ». Ces obligations ne seront appliquées que si leur activité sur le territoire français dépasse un ou plusieurs seuils déterminés par décret en Conseil d’État. 

D’autre part, le CSA pourra étendre ces obligations à une plateforme (ou un site) à l’activité plus modeste si elle acquiert en France « un rôle significatif pour l’accès du public à certains biens, services ou informations en raison de l’importance de son activité et de la nature technique du service proposé ». 

Quelles seront ces obligations ?   

D’abord, respecter les consignes et modalités techniques définies par le CSA pour lutter contre les contenus odieux en ligne. Sont donc consacrés de nouveaux pouvoirs entre les mains de cette instance calibrée à l’origine pour la télévision et la radio.

Ensuite, ils devront mettre en place « un dispositif de notification uniforme directement accessible et facile d’utilisation permettant à toute personne de signaler un contenu illicite dans la langue d’utilisation du service. »

Ils auront à accuser réception sans délai de toute notification qui leur est adressée, du moins celle suivant les règles formelles.

Ce n’est pas tout. Ils devront mettre en œuvre « les procédures et les moyens humains et, le cas échéant, technologiques proportionnés permettant de garantir le traitement dans les meilleurs délais des notifications reçues et l’examen approprié des contenus notifiés, ainsi que de prévenir les risques de retrait injustifié ».

Ils auront à prévoir des dispositifs de contre-notification et d’appel, sauf cas particulier (demandes de retrait adressées par les autorités publiques). 

Retour du délai de 24 heures, une obligation de moyen, non de résultat

Le texte n’évacue finalement pas le délai de 24 heures voulu par Laetitia Avia. Les opérateurs de plateformes, qu’ils soient très importants ou désignés par le CSA, devront accomplir « les diligences proportionnées et nécessaires au regard de la nature du contenu et des informations dont ils disposent pour retirer ou rendre inaccessibles dans les vingt-quatre heures les contenus manifestement illicites qui leur sont notifiés. »

Ce délai ne concerne que la liste des infractions spécifiques, toujours celles pour lesquels les intermédiaires doivent apporter leur concours. L’auteur d’une notification sera informé des suites données et des motifs de la décision. 

Il y a tout de même une importante différence avec la version adoptée par les députés. Si l’Assemblée nationale imposait une obligation de résultat (un retrait en moins de 24 heures, ou bien une sanction), le Sénat se contente d’une obligation de moyen. Le sénateur Christophe-André Frassa, durant les débats, a imaginé des circonstances exceptionnelles où l’intermédiaire n’aurait pas à respecter ce délai : « afflux massif de signalements difficiles à évaluer, pannes imprévisibles, etc. »  

Un représentant légal en France

L’article 3 ajoute d’autres obligations comme celle visant à fournir « une information claire et détaillée, facilement accessible et visible, présentant à leurs utilisateurs les modalités de modération des contenus illicites ». Une autre contraint à rendre des comptes sur les moyens humains et technologiques pour se conformer à la présente loi. 

Les acteurs devront tout autant lors de l’inscription à l’un de leurs services d’un mineur âgé de moins de quinze ans « prévoir une information à destination du mineur et du ou des titulaires de l’autorité parentale sur l’utilisation civique et responsable dudit service et les risques juridiques encourus en cas de diffusion par le mineur de contenus haineux ». 

Trois dernières obligations font leur apparition dans le paysage législatif français : désigner un représentant légal en France, chargé de recevoir notamment les demandes des autorités judiciaires et du CSA. Formuler en termes « précis, aisément compréhensibles, objectifs et non discriminatoires les conditions générales d’utilisation ». Enfin, mettre en place des moyens pour supprimer les comptes d’utilisateurs « ayant fait l’objet d’un nombre de notifications par plusieurs personnes », du moins lorsqu' « au vu de ce faisceau d’indices », est constatée une contravention sérieuse aux infractions « odieuses ».

L’article 3 bis confirme l’aggravation des peines. L’hébergeur ou le FAI qui violerait la loi sur la confiance dans l’économie numérique (LCEN) risquera 250 000 euros d’amendes (contre 75 000 euros aujourd’hui). Rappelons que ce montant, infligé par un tribunal, vaut pour les personnes physiques. Il est multiplié par cinq pour les personnes morales.

Le rôle du CSA dans la lutte contre la haine en ligne

L’article 4 s’attache au rôle du Conseil supérieur de l’audiovisuel dans la lutte contre les contenus haineux. Il est chargé de veiller au respect des nouvelles dispositions introduites par le législateur. Il peut à ce titre adresser aux opérateurs des recommandations et surveiller le respect de leurs obligations. Il peut recueillir auprès d’eux toutes les informations nécessaires et publie chaque année un bilan d’application. 

S’agissant de son pouvoir de sanction, le CSA pourra d’abord adresser à l’acteur peu coopérant une mise en demeure. « Dans l’appréciation du manquement de l’opérateur, le Conseil supérieur de l’audiovisuel prend en compte le caractère insuffisant ou excessif du comportement de l’opérateur en matière de retrait des contenus portés à sa connaissance ou qu’il constate de sa propre initiative » prévient le texte modifié par le Sénat. 

Une sanction administrative portée à 4 % du C.A. mondial 

L’opérateur qui ne donnerait pas (correctement) suite à une mise en demeure risquera alors 20 millions d’euros ou 4 % du chiffre d’affaires annuel mondial total de l’exercice précédent (le montant le plus élevé étant retenu). Deux seuils inspirés du RGPD. Ce montant sera proportionné à la gravité du manquement, mais ne dépendra pas par exemple du degré de coopération comme le prévoit le règlement du 25 mai (article 83). Ces mises en demeure et sanctions pourront être rendues publiques. 

Une dose de « soft law » 

La proposition de loi a également une composante de « droit souple ». Le Conseil supérieur de l’audiovisuel pourra encourager les opérateurs à mettre en œuvre plusieurs mesures comme « des dispositifs techniques proportionnés facilitant, dans l’attente du traitement de la notification d’un contenu illicite, la désactivation ou la limitation temporaire des fonctionnalités qui permettent de multiplier ou d’accélérer l’exposition du public à ce contenu, et notamment les possibilités de partage, d’interaction, ou d’envoi de messages liés à ce dernier ». 

Les sénateurs ont également prévu que le CSA pourra inciter Twitter, YouTube, Facebook ou Instagram à adopter « des standards techniques communs d’interopérabilité entre services de communication au public en ligne, conformes à l’état de l’art, documentés et stables, afin de favoriser le libre choix des utilisateurs entre différentes plateformes ». Cette mesure n’est cependant qu’une invitation : les concernés pourront l’ignorer sans conséquence juridique. 

Selon l’article 4 I bis A, le CSA se voit reconnu le droit de recueillir auprès des opérateurs « toutes les informations nécessaires » et notamment les « principes et méthodes de conception » de leurs algorithmes. Le secret des affaires ne pourra lui être opposé. 

Le CSA, contrôle du blocage administratif des sites

L’article 4 I ter modifie l’article de la loi sur la confiance dans l’économie numérique relatif au blocage administratif des sites soit pour apologie ou incitation au terrorisme, soit pour diffusion de contenus pédopornographiques. Aujourd’hui, c’est une personnalité de la CNIL qui contrôle les mesures de blocage décidées par l’OCLCTIC (voir cette actualité de février 2019).

Avec la proposition de loi Avia, « bye bye » la CNIL, bonjour le CSA. C’est en effet une personnalité désignée par le régulateur des télécoms qui sera chargée de contrôler les policiers.

L’article 6 de la « PPL » change d’ailleurs les règles procédurales en matière de blocage judiciaire cette fois. Actuellement, un juge ne peut ordonner le blocage d’un site directement entre les mains d’un FAI que si l’hébergeur est inconnu. La proposition de loi supprime ce passage obligé, laissant donc au juge la liberté de s’adresser directement à l’un ou l’autre. Précision de rigueur : cette mesure vaut pour tous les contenus, non pas seulement les contenus « haineux ». 

Plus de latitude dans le blocage judiciaire

Le même article traite aussi des mesures de blocages judiciaires. Lorsqu’une décision ordonne « toute mesure propre à empêcher l’accès » à un site, dont le contenu relève des infractions « haineuses », alors l’autorité administrative pourra, d’instinct ou saisie par toute personne intéressée, demander aux FAI de bloquer l’accès à tout site reprenant le contenu litigieux, soit parce que la reprise est totale soit parce qu’elle est substantielle.

La demande pourra viser également les moteurs de recherche, dans les mêmes conditions. Si le FAI ou le moteur refuse, l’autorité judiciaire pourra être saisie. 

« Follow the money »

À l’article 6 bis AA est abordée la question des annonceurs publicitaires. Ils devront publier et tenir à jour une cartographie au minimum mensuelle des emplacements de leurs annonces, tels que communiqués par les vendeurs d’espaces. 

Christophe-André Frassa avait soutenu cette initiative en commission, en ce qu’elle vise « à s'attaquer au financement de sites diffusant de façon quasi-professionnelle de tels discours (« follow the money ») et [joue] sur le risque réputationnel pour les annonceurs (« name and shame ») ».  

Une juridiction spécialisée, mais non exclusive

L’article 6 bis A permet de désigner par décret un tribunal et un parquet spécialisés en matière de lutte contre la haine en ligne. « Cette spécialisation n'entraîne pas d'unification du contentieux au sein de cette juridiction ou des poursuites à l'initiative de ce seul parquet, explique le rapport de la commission des lois, puisque la compétence exercée le sera de manière concurrente et permettra en conséquence de traiter les affaires dans le ressort le plus adéquat ».

Obligation pour un internaute de ne pas adresser de message à une victime

L’article 6 bis B enrichit les mesures de contrôle judiciaire ordonnées par le juge d'instruction ou par le juge des libertés et de la détention. Il pourra ainsi donner à l’auteur d’un contenu haineux en ligne l’ordre de « ne pas adresser de messages à la victime, de façon directe ou indirecte, par tout moyen, y compris par voie électronique ». 

Ces mêmes mesures pourront être décidées par la juridiction de condamnation ou le juge de l'application des peines.

Une autre disposition prévoit que le tribunal correctionnel sera composé d'un seul magistrat pour traiter des affaires relatives au refus de retirer un message manifestement haineux. Plusieurs mesures finales concernent le Code de l’éducation. Les élèves et les enseignants seront sensibilisés aux questions relatives aux contenus haineux en ligne.

À l’article 7, la proposition de loi modifiée par les sénateurs instaure, auprès du CSA, « un observatoire des contenus illicites en ligne ». Il aura pour mission le suivi et l’analyse de l’évolution des contenus visés par ce texte, « en lien avec les opérateurs, associations et chercheurs concernés, en prenant en compte la diversité des publics concernés, notamment les mineurs ».

Un agenda d'application s’étendant jusqu’au 1er janvier 2021

Enfin, l’article 9 détaille l’agenda d’entrée en application. Les pouvoirs relatifs au CSA sont par exemple repoussés au 1er janvier 2021. D’ici là, l’institution devrait être renommée ARCOM, suite à l’entrée en vigueur de la future loi sur l’audiovisuel qui lui attribue les compétences de la Hadopi

Le 7 janvier, le texte fera l'objet d'une commission mixte paritaire (où siègent sept députés et sept sénateurs), afin de trouver un compromis entre le texte de l'Assemblée et celui du Sénat. La PPL sera en commission des lois le 13 janvier et le 20 en séance à l'Assemblée. Faute d'accord, le dernier mot sera donné à cette dernière. 


chargement
Chargement des commentaires...