Article 17 : à la CJUE, des conclusions nuancées sur l’obligation de filtrage

Article 17 : à la CJUE, des conclusions nuancées sur l’obligation de filtrage

Coucou Paris

Avatar de l'auteur
Marc Rees

Publié dans

Droit

15/07/2021 17 minutes
7

Article 17 : à la CJUE, des conclusions nuancées sur l’obligation de filtrage

L’article 17 de la directive Droit d’auteur de 2019 avait été lourdement critiqué lors des débats européens. Ce jour, l’avocat général Henrik Saugmandsgaard Øe propose des clefs pour considérer le texte dans les clous des grands principes. Il plaide pour le rejet de la requête polonaise qui dénonce des atteintes à la liberté d’expression.

Le nouveau régime de responsabilité des acteurs comme YouTube et Facebook tranche avec celui initié par la directive de 2000 sur le commerce électronique.

Le texte précédent rend responsables les hébergeurs des seuls contenus illicites notifiés qu’ils choisiraient de conserver. Dit autrement, ils ne sont pas responsables lorsqu’ils suppriment promptement ces contenus. Un régime qui oblige donc les sociétés de défense des industries culturelles à identifier et signaler un océan de mises à disposition qu’elles estiment illicites.

Par contraste, l’article 17 de la directive de 2019 change la donne. En vigueur dans le seul, mais gigantesque univers des droits d’auteur et droits voisins, ce régime d’exception rend responsables les plateformes de partage dès le premier octet illicite mis en ligne par les internautes.

Corolaire de cette responsabilité directe, elles doivent obtenir l’autorisation de chaque titulaire de droits pour chaque image, musique, dessin, vidéo, etc. mis en ligne à chaque instant. Sinon ? Elles risquent une action en contrefaçon. 

« Les fournisseurs de services de partage devraient donc être automatiquement responsables à chaque fois qu’une oeuvre ou un objet protégé est illégalement mis en ligne sur leurs services. À ce titre, ils pourraient être notamment condamnés à verser aux titulaires de droits concernés des dommages-intérêts potentiellement conséquents » résume encore l’avocat général dans ses conclusions (point 31).

Cette épée de Damoclès est volontairement absurde. Si l'on ne retient qu'elle, elle est même l’acte de mort du web participatif. Elle a néanmoins objectif d'inciter les grands acteurs à signer des accords de licence, idéalement beaucoup plus rémunérateurs pour les industries culturelles.

Une manière de combler le « Value Gap », ce fameux écart dans la répartition de la valeur dont se plaignent les sociétés de gestion collective depuis des années.

Pour éviter cette mort annoncée d’un pan entier du web, la directive prévoit qu’à défaut de tels accords, les grands prestataires de services de partage peuvent malgré tout échapper à ce régime juridique très dur, s'ils s’efforcent de déployer différentes solutions en l’état de l’art, visant à retirer les contenus notifiés (« notice and take down »), empêcher leur téléchargement ou enfin leur retour en ligne (« notice and stay down »).

Une « surveillance préventive [qui] prendra, en règle générale, la forme d’un filtrage de ces contenus, réalisé à l’aide d’outils informatiques » prévient l’avocat général.

Si celui-ci a été amené à rendre ses conclusions sur ce fameux article 17, c’est dans le contexte d’une procédure initiée par la Pologne. Celle-ci considère en effet ce régime, attentatoire à la liberté d’expression et d’information, deux libertés protégées par la Charte des droits fondamentaux de l’Union européenne.

À titre principal, l’État membre a demandé à la Cour l’annulation de deux alinéas de l’article 17, ceux relatifs au cœur du filtrage. Comme la Commission européenne et la France, Henrik Saugmandsgaard Øe a considéré qu’une telle frappe chirurgicale était impossible, car elle reviendrait à « réviser » l’article 17 et l’équilibre porté par le législateur européen.

À titre subsidiaire, Varsovie a réclamé la suppression pure et simple de cet article. Requête sur laquelle se concentre l’avocat général dans ses conclusions.

Les craintes polonaises sont ainsi résumées : afin d’être exonérées de toute responsabilité, les plateformes vont nécessairement mettre en place des solutions de filtrage des contenus. « Or, résument les conclusions, cette surveillance préventive constituerait une limitation dans l’exercice du droit à la liberté d’expression, garanti à l’article 11 de la Charte. Cette limitation ne serait pas compatible avec cet instrument dès lors qu’elle porterait atteinte au "contenu essentiel" de ce droit fondamental ou, à tout le moins, qu’elle ne respecterait pas le principe de proportionnalité ».

L’article 17 impose bien en pratique le filtrage, selon l'avocat général

Le régime engagé par l’article 17 entraîne l’obligation d’un blocage permanent des contenus dénoncés par les ayants droit. Pour la Pologne, c’est donc nécessairement l’obligation d’une surveillance préventive de l’ensemble des contenus mis en ligne par les utilisateurs.

Au point 61 et 62 de ses conclusions, l’avocat général crève déjà l’abcès sémantique.

Durant les débats, les ayants droit ont dit et répété que cet article 17 n’imposait nullement le filtrage des contenus, que pareilles affirmations étaient le fruit de l’imagination des opposants, pour certains téléguidés par Google, etc. Une interprétation que ne partage pas l'avocat général :

« Ainsi que le soutient la République de Pologne, il me semble que les dispositions attaquées obligent bien les fournisseurs de services de partage, dans bon nombre de situations, à utiliser ces outils de reconnaissance de contenu. Selon moi, le législateur de l’Union a simplement changé de méthode entre la proposition de directive et son adoption en tant que directive 2019/790. Plutôt que de prévoir directement une obligation de mettre en place de tels outils, il les a imposés indirectement, par le truchement des conditions d’exonération de responsabilité prévues à ces dispositions ».

Effectivement les gros mots « filtrage » ou « reconnaissance des contenus » ne sont pas ouvertement cités – ils auraient fait tache avant le vote de la directive, mais ils dégoulinent bien à chaque ligne du texte qui frappe les grandes plateformes mettant à disposition un océan de contenus mis en ligne par les internautes, dans une finalité commerciale.

« Je perçois difficilement par quels moyens, autres que l’utilisation d’un outil de reconnaissance automatique leur permettant de filtrer les contenus téléversés sur leurs services, ces fournisseurs pourraient raisonnablement "garantir l’indisponibilité" des oeuvres et objets protégés identifiés par les titulaires de droits et "empêcher qu’ils soient téléversés dans le futur" sur leurs services, conformément aux objectifs visés aux dispositions attaquées. »

Dans ses conclusions, il insiste pour appeler un chat, un chat :

« Afin de démontrer, conformément aux dispositions attaquées, qu’ils ont fourni leurs "meilleurs efforts, conformément aux normes élevées du secteur en matière de diligence professionnelle" pour "garantir l’indisponibilité" des oeuvres et objets protégés identifiés par les titulaires de droits et "empêcher qu’ils [soient] téléversés dans le futur" sur leurs services, les fournisseurs de services de partage doivent, dans bon nombre de cas, mettre en place des outils de reconnaissance automatique de contenu, afin de filtrer les contenus que les utilisateurs mettent en ligne et, le cas échéant, de bloquer certains d’entre eux avant leur téléversement. »

Ce filtrage version article 17 est-il conforme à la Charte ?

Filtrage d'une main... mais dans l'autre main, l’avocat général n’a pas eu de mal à souligner que la mise en ligne de contenus pouvait évidemment relever de la liberté d’expression ou d’information. « Une telle mise en ligne est également susceptible de concerner d’autres libertés voisines. En particulier, lorsque les contenus en question constituent l’expression artistique des utilisateurs qui les téléversent, leur mise en ligne relève de l’exercice de la liberté des arts, garantie à l’article 13 de la Charte ainsi qu’à l’article 10 de la CEDH ».

Nécessairement, existe donc un entrechoquement entre liberté des internautes d’un côté et obligations de filtrage pesant sur les plateformes, de l’autre.

Dit autrement, l’article 17 concilie-t-il correctement ces deux blocs ?

La Pologne pense que non lorsqu’elle dénonce une « censure générale automatisée de nature préventive », soit une ingérence disproportionnée dans l’espace occupé par la liberté d’information ou de communication.

Parlement, Conseil et notamment la France, qui est intervenue spécialement dans ce dossier, ne voient aucune trace de « censure » ou d'« ingérence » dans ces libertés.

L’avocat général rejoint au contraire le camp polonais lorsqu’il leur répond que « le filtrage est, par nature, une "mesure préventive" de contrôle des informations diffusées sur ces services, et les mesures de blocage pouvant en résulter constituent des "restrictions préalables", au sens de la jurisprudence de la Cour EDH », en ce sens que « les informations que les utilisateurs entendent mettre en ligne sont contrôlées, et celles considérées comme susceptibles d’emporter une telle atteinte sont restreintes préalablement à leur diffusion ».

Conclusion : « Le filtrage et le blocage de contenus avant leur diffusion entraînent (…) une "ingérence" dans la liberté du public de recevoir des informations ».

Mieux encore, par définition, les plateformes visées par l’article 17 ne pourront obtenir de licence pour l’ensemble des œuvres hébergées, tellement les hypothèses sont plurielles. Dès lors, « le recours au mécanisme d’exonération prévu à l’article 17 (…) sera, pour ces fournisseurs, non pas une "possibilité", mais une nécessité, sauf à supporter un risque démesuré de responsabilité ».

Voilà donc décrites les ombres de cet article, adopté malgré de nombreuses critiques venues notamment de la société civile.

L’étape suivante dans les conclusions a constitué à mesurer la légitimité de cette atteinte, puisque la liberté d'information ou de communication n'est pas absolue. Cependant, « des limitations à l’exercice de cette liberté ne sont admissibles à condition que celles-ci, premièrement, soient "prévues par la loi", deuxièmement, respectent le "contenu essentiel" de cette liberté et, troisièmement, respectent "le principe de proportionnalité" », rappelle-t-il, avant d’éprouver l’un après l’autre chacune de ces conditions.

Une ingérence prévue par la loi ?

Oui, puisque le texte est prévu dans une directive. Certes, concède-t-il, « les dispositions attaquées contiennent plusieurs notions ouvertes – "quantité importante d’oeuvres protégées par le droit d’auteur ou d’autres objets protégés" ; "meilleurs efforts" ; "normes élevées du secteur en matière de diligence professionnelle", etc. – générant un degré d’incertitude quant aux opérateurs économiques visés et aux obligations qui leur sont imposées », mais plus qu'un flou, il y voit surtout des expressions taillées pour apporter une « certaine souplesse » au cadre.

Surtout, pour aiguiser la prévisibilité des acteurs économiques, il lance un appel de pied à la Cour pour que celle-ci clarifie ces expressions, soit dans cet arrêt attendu dans quelques mois, soit dans les suivants.

Une ingérence qui respecte le cœur de la liberté d’expression ?

Contrairement à la Pologne, l'avocat général considère que le noyau dur de cette liberté est préservé. En témoigne une disposition de la directive de 2015 qui préserve une autre issue de celle de 2000 sur le commerce électronique. Elle prévoit que les intermédiaires ne pourront être soumis à une « obligation générale de surveiller les informations qu’ils transmettent ou stockent ».

« Cette disposition empêche que l’information en ligne soit soumise à une surveillance préventive généralisée, déléguée à ces intermédiaires. Elle garantit, en cela, qu’Internet reste un espace libre et ouvert », réagit l’avocat général.

Selon lui les obligations de filtrage prévues par l’article 17 sont donc des obligations « spécifiques », non « générales », visant à rechercher des infractions particulières.

Un principe de proportionnalité respecté ?

Cette dernière condition est double : la limitation à la liberté d’expression doit être « nécessaire » et « répondre effectivement à un objectif d’intérêt général reconnu par l’Union ou au besoin de protection des droits et libertés d’autrui ».

La seconde condition est remplie puisqu’il s’agit de protéger un droit de propriété (le droit d’auteur). La première tout autant : la mesure est appropriée, en ce qu’elle permet aux titulaires de droits de lutter contre les contenus illicites en ligne.

Elle est « nécessaire », car elle permet aux titulaires de droits de s’opposer aux utilisations illicites bien plus efficacement que dans le système antérieur. Et enfin proportionné eu égard au préjudice des titulaires de droits, « à la quantité gigantesque de contenu », « à la rapidité de l’échange d’informations sur Internet », sachant que ces obligations ne vont concerner que quelques plateformes, pas toutes.

« J’observe que les fournisseurs de services de partage, par la promotion des contenus qu’ils effectuent, exercent une certaine influence sur les informations auxquelles le public accède. Ces aspects tendent, dans une certaine mesure, à rapprocher ces fournisseurs des intermédiaires traditionnels tels que les éditeurs, de sorte qu’il peut être proportionné d’adopter, en ce qui les concerne, un régime de responsabilité spécifique, différent de celui applicable aux autres hébergeurs ».

Il concède l’existence d’un « risque important pour la liberté d’expression, à savoir celui d’un "sur-blocage" de contenus licites », là où pour se prémunir d’une responsabilité directe, les plateformes « empêchent de manière systématique la mise à disposition, sur leurs services, de tous les contenus reproduisant les oeuvres et les autres objets protégés pour lesquels ils ont reçu des "informations pertinentes et nécessaires" ou une "notification suffisamment motivée" de ces derniers, y compris ceux ne portant pas atteinte à leurs droits. »

Ses conclusions rappellent néanmoins que la directive réserve la possibilité pour les internautes de profiter de plusieurs exceptions et limitations (citation, critique, caricature, parodie, pastiche, etc.), soit autant de nuances, reconnait l’avocat général, qui ne sauront être prises en compte dans les algorithmes de filtrages comparant simplement une base d’empreintes avec les contenus uploadés.

Pour limiter ce risque, il exige aussi des garanties suffisantes, qu’il recherche… et constate dans la directive.

Des garanties suffisantes, mais non interprétées comme le voudrait la France

Parmi ces garanties, le texte reconnaît aux internautes des droits opposables, dont celui consistant à se prévaloir des exceptions et limitations. « Il s’ensuit, concrètement, que les fournisseurs des services de partage ne sont pas légalement autorisés à bloquer ou retirer les contenus faisant des utilisations légitimes d’oeuvres ou d’autres objets protégés au motif que ces contenus contreviennent au droit d’auteur ».

Mieux : les plateformes sont soumises à une obligation de résultat, en ce sens qu’elles ne peuvent « empêcher la mise à disposition (…) des contenus reproduisant de manière légitime des œuvres et autres objets protégés, quand bien même [ceux-ci] auraient été identifiés par les titulaires de droits ».

La Pologne doute néanmoins, insistant sur l’incapacité des outils à faire une sélection entre le vil piratage et le bénéfice effectif d’une exception opposable.

Relevons que pour la France (et l’Espagne), une mesure permet de répondre à cette difficulté : les traitements des plaintes. Un traitement a posteriori, une fois la lame de la censure passée.

Pour la Commission, le Parlement ou encore le Conseil, au contraire, la prise en compte de ces exceptions et limitations doit  au contraire s’effectuer dès le système de filtrage, afin d’éviter les blocages systématiques.

Henrik Saugmandsgaard Øe « se rallie » à l’interprétation des institutions européennes. Il s’en explique longuement, en relevant notamment que selon la directive, l’article 17 « n’affecte en aucune façon » les utilisations légitimes. « Or, si les contenus concernés devaient être systématiquement bloqués ex ante, à charge pour les utilisateurs de formuler une plainte pour en obtenir la mise en ligne, ces utilisations légitimes seraient, à l’évidence, "affectées" d’une certaine manière ».

À la France, intervenue pour défendre bec et ongles une lecture très rigide de cet article 17 et se satisfaisant de ce système de recours, l’avocat général répond que « le blocage préventif de l’ensemble des contenus reproduisant les oeuvres et autres objets protégés identifiés par les titulaires de droits aurait pour effet de faire systématiquement reposer le fardeau de l’inaction sur les utilisateurs, puisque la diffusion des contenus légitimes ne pourrait pas avoir lieu sans que ceux-ci formulent une plainte, avec succès ».

Et celui-ci d’insister : « Si ces utilisateurs devaient systématiquement faire valoir leurs droits dans le cadre du dispositif de traitement des plaintes, il est fort probable qu’une partie significative d’entre eux renoncerait à le faire, faute, notamment, de connaissances suffisantes pour évaluer si l’utilisation qu’ils font de ces objets est légitime ».

Non sans souligner que « le danger, à cet égard, serait qu’une protection maximale de certaines créations intellectuelles se fasse au détriment d’autres formes de création tout aussi socialement souhaitables ».

« J’invite la Cour à affirmer sans ambages, dans son arrêt à venir, qu’il s’agit là de la juste interprétation de cet article 17 », indique-t-il. Pour lui, le filtrage doit effectivement prévenir la mise en ligne de contenus illicites, mais sans empêcher le bénéfice des exceptions et autres utilisations licites.

Filtrage du manifestement illicite, maintien des parodies

Dans la suite de ses conclusions, il estime que l’article 17 ne devra conduire qu’à détecter les contenus manifestement illicites, au regard des empreintes et autres informations pertinentes qui auront été fournies par les ayants droit.

Dans un tel cas, ces mises en ligne seront présumées illicites, à charge pour l’utilisateur de démontrer qu’elles ne le sont en réalité pas (« par exemple, le fait qu’ils disposent d’une licence, ou que l’oeuvre est en réalité dans le domaine public »).

« À l’inverse, dans toutes les situations équivoques – courts extraits d’oeuvres repris dans des contenus plus longs, oeuvres "transformatives", etc. »,  les contenus devront être préservés de mesures préventives de blocage. Ils seront présumés licites.

Pour gérer en pratique le mode opératoire, les conclusions réclament que des solutions pratiques soient définies non « de manière opaque par ces seules parties privées, mais de manière transparente sous la supervision d’autorités publiques ». 

« Si, à mes yeux, le risque de préjudice grave et imminent généré par une tentative de mise en ligne d’un contenu manifestement contrefaisant est de nature à justifier une mesure de blocage préventif de ce contenu, lesdits titulaires ne peuvent pas exiger le "risque zéro" quant aux éventuelles violations de leurs droits » ajoute-t-il.

C’est donc après des conclusions très nuancées, éloignées de la vision rugueuse plaidée par la France, qu’il plaide pour un rejet de la procédure initiée par la Pologne. La balle est maintenant dans le camp de la Cour de justice de l’UE, qui reste libre de suivre ou non ses orientations.

Le fait est que cette première décision et les suivantes un jour ou l’autre sur la rampe vont permettre de détailler à la fois les ombres de l’article 17, mais aussi de capitonner les risques pour la liberté d’expression. N’en déplaise à la France. 

Écrit par Marc Rees

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

L’article 17 impose bien en pratique le filtrage, selon l'avocat général

Ce filtrage version article 17 est-il conforme à la Charte ?

Une ingérence prévue par la loi ?

Une ingérence qui respecte le cœur de la liberté d’expression ?

Un principe de proportionnalité respecté ?

Des garanties suffisantes, mais non interprétées comme le voudrait la France

Filtrage du manifestement illicite, maintien des parodies

Fermer

Commentaires (7)


” Pour gérer en pratique le mode opératoire, les conclusions réclament que des solutions pratiques soient définies non « de manière opaque par ces seules parties privées, mais de manière transparente sous la supervision d’autorités publiques ».”



Je suis pas très bien sûr de comprendre cette partie.



Cela veux dire que Youtube ne pourra pas faire son filtre comme il veux mais ils devront montrer de façon transparente comment il marche sous la supervision d’une autorité public (ARCOM en France ?).



Ou cela concerne plutôt juste les négociations entre ayants droit et les plateformes ?



Merci de la précision :)


Il y a un point que je ne pige pas : l’avocat général reconnait que l’article 17 est un filtrage qui ne dit pas son nom, mais en même temps il admet que les intermédiaires ne pourront être soumis à une « obligation générale de surveiller les informations qu’ils transmettent ou stockent », et en déduit sur les libertés sont préservées ? C’est pourtant l’exact opposé non ?


En bref : A cause de cet article 17, qui entraine en pratique pour les plate-formes l’utilisation d’un outil de détection et de filtrage plus ou moins automatisé, y a-t-il risque pour la liberté d’expression ?




  • La Pologne (qui m’en bouche une couette sur ce coup-là) dit que ouais.



  • L’avocat général dit que nan.




Alors, où est la Vérité Vraie, Grand Mêêêêtre ? Qu’ére-je ? S’once ? Comment se doigte ? Par où vers-je thon ? L’as-t-on profond dedans le fut ?


Sur la difficulté à reconnaitre une oeuvre utilisée dans un cadre légal, n’est-ce pas possible (souhaitable) de donner à l’utilisateur la possibilité de ‘tagger’ préventivement l’utilisation pour dire aux robots: j’estime ceci légal ? Ainsi la responsabilité de l’infraction reviendrait dans le camps de l’utilisateur.
Autre point: si tout est automatisé, l’idée (que je trouve ingénieuse) de policiers américains pour éviter de retrouver les vidéos de leurs actions sur Internet devrait mieux marcher (je ne me souviens plus si j’avais lu ceci initialement sur NI, c’est cité ici).


Malin!! :yes:
Utiliser de la musique populaire pour que les robots de YouTube, Instagram & Co bloquent automatiquement le live ou la vidéo, fallait y penser!!



Après c’est gênant pour des représentants de l’État qui ne devraient avoir rien à cacher quand ils accueillent le citoyens.


Soriatane

Malin!! :yes:
Utiliser de la musique populaire pour que les robots de YouTube, Instagram & Co bloquent automatiquement le live ou la vidéo, fallait y penser!!



Après c’est gênant pour des représentants de l’État qui ne devraient avoir rien à cacher quand ils accueillent le citoyens.


Effet sympa: les vidéos des meetings de campagne seront bloqués. Ca forcera les candidats à réfléchir un peu plus sérieusement à ça.


Quand le pognon percute la liberté d’expression (et donc la démocratie)… Monde de merde.