Article 17 : la justice européenne valide le filtrage, s'il respecte les exceptions au droit d'auteur

Article 17 : la justice européenne valide le filtrage, s’il respecte les exceptions au droit d’auteur

#Boncourage

Avatar de l'auteur
Marc Rees

Publié dans

Droit

26/04/2022 10 minutes
5

Article 17 : la justice européenne valide le filtrage, s'il respecte les exceptions au droit d'auteur

Au terme d’un arrêt de 31 pages, la Cour de justice de l’Union européenne rejette le recours de la Pologne contre l’article 17 de la directive droit d’auteur. L’article orchestre une obligation de filtrage sur l’ensemble des plateformes comme YouTube. Le juge européen a néanmoins multiplié les rappels aux garanties que devront respecter les États membres.

Varsovie avait vu d’un mauvais œil cette pierre angulaire de la directive de 2019. Ce nouveau régime de responsabilité oblige les grands hébergeurs comme YouTube ou Dailymotion à filtrer les contenus selon des modalités dépendant de leur âge ou de leur taille.

Une directive de 2000 sur le commerce électronique a rendu ces hébergeurs responsables des contenus illicites signalés qu’ils choisissent de conserver. L’article 17 de la directive sur le droit d’auteur a changé la donne s’agissant de l’immense océan des contenus protégés par le droit d’auteur.

Dans ce régime d’exception, les plateformes de partage sont désormais responsables immédiatement de tous les contenus illicites mis en ligne par les internautes. Pour « liciter » ces contenus, ces intermédiaires doivent alors passer des accords de licence avec les sociétés de gestion collective et les titulaires de droits pour chaque image, musique, dessin, vidéo, etc. mis en ligne à chaque instant. Une manière de rééquilibrer le « partage de valeur » et combler le « value gap » entre le monde de la tech et les industries culturelles.

À défaut de signer de tels accords de licence, les grands prestataires de services de partage peuvent malgré tout échapper à ce régime juridique s'ils s’efforcent de déployer différentes solutions en l’état de l’art, pour retirer promptement les contenus signalés (« notice and take down »), empêcher la mise en ligne des contenus pour lesquels les titulaires de droits ont fourni des empreintes et autres informations pertinentes (« notice and stay down »). Et en amont, ces intermédiaires doivent démontrer en plus avoir fourni les meilleurs efforts pour obtenir l’autorisation des titulaires de droits.

C’est ce régime qu’a épinglé la Pologne dans un recours visant plusieurs de ces étages qu’elle estime peu en phase avec les droits fondamentaux, liberté d’expression et d’information en tête. Et pour cause : afin d’exonérer la responsabilité des plateformes, cet échafaudage juridique soutenu par la France les oblige concrètement à surveiller les contenus mis en ligne. Et aux yeux de Varsovie, les garanties qui viennent compenser cette atteinte aux droits et libertés ne sont pas au rendez-vous.

L’article 17 organise bien une obligation de filtrage

D’entrée, la Cour de justice de l’UE a relevé que les dispositions ciblées par Varsovie (le point b et le point c de l’article 17, paragraphe 4) étaient indétachables du reste de l’article 17. Le procès chirurgical s’est donc transformé en une remise en cause intégrale de l’article en cause.

Elle n’a pas été bernée par les discours entendus durant les débats parlementaires venus des sociétés de gestion collective comme la SACEM. Avec de telles obligations, des acteurs comme YouTube, et autres fournisseurs de services de partage d’un grand nombre de contenus sont bien « contraints de recourir à des outils de reconnaissance et de filtrage automatiques ». D’ailleurs, « ni les institutions défenderesses ni les intervenants (dont la France, ndlr) n’étaient en mesure, lors de l’audience devant la Cour, de désigner des alternatives possibles à de tels outils ».

La Cour en déduit naturellement qu’ « un tel contrôle et un tel filtrage préalables sont de nature à apporter une restriction à un moyen important de diffusion de contenus en ligne et à constituer, ainsi, une limitation du droit garanti à l’article 11 de la Charte», qui protège la liberté d’expression.

Ceci posé, l’enjeu de l’arrêt de grande chambre a été de déterminer si cette atteinte à la liberté d’expression et d’information est bien proportionnée. Pour la Pologne, les garanties sont insuffisantes, ce que contestent le Parlement, le Conseil, l’Espagne, la Commission et la France en chœur.

Un article 17 apte et nécessaire, mais…

Dans ce traditionnel exercice de poids et mesures, la CJUE relève que les limitations à ces libertés sont bien « prévues par la loi », en l’occurrence une directive européenne, transposée par chaque État membre. Autre certitude : l’article 17 ne doit pas aboutir à ce que les opérateurs prennent des mesures qui affecteraient des contenus non attentatoires au droit d’auteur et aux droits voisins. En clair, les usages licites ne doivent donc pas être bloqués par les filtres, lesquels se doivent d’être « strictement ciblées pour permettre une protection effective du droit d’auteur ».

Partant, la décision considère que l’article 17 n’est pas seulement « apte » mais aussi « nécessaire » dans le cadre de la protection de la propriété intellectuelle. Et la juridiction considère que l’article n’entraîne pas de restriction disproportionnée aux droits fondamentaux. La Cour s’en explique par une série de rappels, qui sont autant de coups de semonce adressés à l’ensemble des États membres, dont la France.

directive droit d'auteur article 17 article 13

Notre schéma de l'article 13 (devenu article 17) Crédits : Next INpact

…un article qui doit respecter de multiples garanties

Par exemple, un « système de filtrage qui risquerait de ne pas suffisamment distinguer entre un contenu illicite et un contenu licite, de telle sorte que son déploiement pourrait avoir pour effet d’entraîner le blocage de communications à contenu licite, serait incompatible avec le droit à la liberté d’expression et d’information ».

Les juges européens rangent dans le tiroir des contenus « licites » qui doivent donc passer ces filtres ceux élevés dans le domaine public, ceux mis en ligne à titre gratuit par l’auteur, et ceux relevant des exceptions au droit d’auteur. Les plateformes doivent en conséquence laisser passer les contenus mis en ligne « aux fins spécifiques de la citation, de la critique, de la revue, de la caricature, de la parodie ou du pastiche ».

En outre, la mise en œuvre du filtrage est conditionnée à la transmission des informations techniques (en pratique des empreintes). Cette transmission de ces données est une « condition préalable » à la mise en responsabilité des fournisseurs de services. Sans ces empreintes, « ces derniers ne seront pas amenés (…) à rendre indisponibles les contenus visés ».

La directive interdit par ailleurs de soumettre ces acteurs à une obligation générale de surveillance. Les plateformes n’ont donc pas à prévenir l’upload et la mise à disposition « de contenus dont la constatation du caractère illicite nécessiterait, de leur part, une appréciation autonome du contenu au regard des informations fournies par les titulaires de droits ainsi que d’éventuelles exceptions et limitations au droit d’auteur ». En somme, les informations transmises par les titulaires de droit devront être détaillées, précises, épaisses.

Pour la Cour, cela implique que parfois des contenus illicites passeront entre les mailles, et que les titulaires de droit devront alors se retourner vers une solution plus traditionnelle : la notification (ou la dénonciation) des contenus en motivant là encore dûment leur demande.

Avant de rappeler que la protection du droit d’auteur ne doit pas être assurée de manière absolue, elle souligne que cette notification devra contenir « suffisamment d’éléments pour permettre au fournisseur de services de partage de contenus en ligne de s’assurer, sans examen juridique approfondi, du caractère illicite de la communication du contenu concerné et de la compatibilité d’un éventuel retrait de ce contenu avec la liberté d’expression et d’information ».

En outre, lorsqu’un internaute considèrera qu’un contenu a été injustement retiré, il pourra toujours introduire un recours extrajudiciaire, devant être examiné « sans retard indu et faire l’objet d’un contrôle exercé par une personne physique ». Et cet internaute devra toujours bénéficier d’un recours judiciaire pour faire valoir par exemple le bénéfice d’une exception qui n’aurait pas été reconnu.

Un juste équilibre

Dans ses conclusions, l’avocat général avait relevé que la France militait pour une vision très rude de l’article 17, avec un blocage préventif de tous les contenus et au besoin la possibilité pour les internautes de multiplier ces recours. Sa réponse fut plus explicite que l'arrêt rendu ce jour : « si ces utilisateurs devaient systématiquement faire valoir leurs droits dans le cadre du dispositif de traitement des plaintes, il est fort probable qu’une partie significative d’entre eux renoncerait à le faire, faute, notamment, de connaissances suffisantes pour évaluer si l’utilisation qu’ils font de ces objets est légitime ». 

Dans ses lignes directrices, la Commission européenne avait déjà donné aux États membres la voie à suivre : « lorsqu’un téléversement correspond à un fichier spécifique fourni par les titulaires de droits, le blocage automatisé, c’est-à-dire l’interdiction du téléversement à l’aide de technologies, devrait en principe se limiter aux téléversements qui portent manifestement atteinte au droit d’auteur ».

Pour les autres, ceux non manifestement illicites, « devraient en principe être mis en ligne et [pourront] faire l’objet d’un contrôle par une personne physique a posteriori lorsque les titulaires de droits s’y opposent en envoyant une notification ». 

Dans tous les cas, la grande chambre de la CJUE demande aux États membres d’opter lors de la transposition de ce texte, pour une interprétation de l’article 17 qui permette « d’assurer un juste équilibre entre les différents droits fondamentaux protégés par la Charte ». Et lors de sa mise en œuvre, ils devront toujours respecter le principe de proportionnalité et les droits fondamentaux. C’est après ces multiples nuances, réserves et précisions que la Cour de justice a finalement décidé de rejeter le recours de la Pologne.

Le clin d'oeil à la décision Hadopi

Cette procédure venue de Pologne était très ambitieuse, mais elle a eu l’avantage de pousser la CJUE à fixer des limites qui pourront être rappelées par les plateformes d’hébergement lors des premiers contentieux. Face à des ayants droit favorables à toujours plus de filtrage massif, peu importe les conséquences sur la liberté d’expression et d’information, ces intermédiaires pourront toujours opposer la nécessité de protéger les exceptions de citation, de critique, de revue, de caricature, de parodie ou de pastiche, tout en invitant les titulaires de droit à se contenter d’une notification dûment motivée.

Au final, relevons ce passage, qui vient comme en écho à la décision Hadopi de 2009 du Conseil constitutionnel : « Internet est aujourd’hui devenu l’un des principaux moyens d’exercice par les individus de leur droit à la liberté d’expression et d’information. Les sites Internet et notamment les plateformes de partage de contenus en ligne contribuent, grâce à leur accessibilité ainsi qu’à leur capacité à conserver et à diffuser de grandes quantités de données, grandement à améliorer l’accès du public à l’actualité et, de manière générale, à faciliter la communication de l’information, la possibilité pour les individus de s’exprimer sur Internet constituant un outil sans précédent d’exercice de la liberté d’expression. »

Écrit par Marc Rees

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

L’article 17 organise bien une obligation de filtrage

Un article 17 apte et nécessaire, mais…

…un article qui doit respecter de multiples garanties

Un juste équilibre

Le clin d'oeil à la décision Hadopi

Commentaires (5)


Actuellement, et sauf erreur de part, les plateformes comme youtube filtrent sans discernement et sans prendre en compte l’exceptions de citation, de critique, de revue, de caricature, de parodie ou de pastiche. L’article 17 vas permettre plus de recourt contre ça ou au contraire empirer ce problème ?


pareil même question,
le “s’il respecte les exceptions au droit d’auteur”



alors que par exemple poster une vidéo youtube en privé, non référencé, avec des destinataires explicitement invités via l’application



il y a quand même un blocage content-ID , alors que l’exception s’applique à l’usage privé et familial, là impossible de faire la réclamation de la réclamation, même le menu déroulant ne propose pas l’exception de l’usage familial & privé.



Il faut refaire tout le chemin judiciaire pour faire jurisprudence du coup ?


Pour « liciter » ces contenus, ces intermédiaires doivent alors
passer des accords de licence avec les sociétés de gestion collective et les titulaires de droits..



tout est dit dans cette phrase ! :fumer:


Conclusion nuancée de la CJUE, qui ressemble malheureusement un peu à un « l’intendance suivra » (ce qui est un peu normal quelque part…)



Évidemment la France s’est encore distinguée, et évidemment les ayant tous-les-droits avaient juré leurs grands dieux qu’il n’y aurait pas de filtrage



Tirnon a dit:


Actuellement, et sauf erreur de part, les plateformes comme youtube filtrent sans discernement et sans prendre en compte l’exceptions de citation, de critique, de revue, de caricature, de parodie ou de pastiche. L’article 17 vas permettre plus de recourt contre ça ou au contraire empirer ce problème ?





  • ContentID c’est la politique maison (le système de filtrage YT) (Un peu comme les filtres antitétons sur Facebook, qui ne répondent à aucune obligation)

  • L’article 17, c’est une norme, transposée en France, qui s’impose.



C’est deux niveaux différents. Les procédures et garanties ici décrites s’appliqueront à ContentID si ces deux volets sont unifiés sous l’égide de la directive droit d’auteur.