Les tergiversations autour de l’article 13 sur la responsabilité des plateformes se poursuivent entre les deux camps, celui des opposants et des partisans. Jeudi, le cinquième trilogue aura lieu entre la Commission européenne, le Conseil et le Parlement européen. Comme en juillet et septembre dernier, la tension monte autour de ce texte.
Les adversaires à l’article 13 peuvent déjà se satisfaire que la pétition #SaveTheInternet lancée sur Change.org atteint désormais plus de 4 millions de signatures, comme l’a applaudi hier l’eurodéputée Verts Julia Reda. Mais au-delà de ce bruit social, c’est le contenu même de cette disposition qui engendre étincelles et frictions.
Dans Les Échos, hier, Guiseppe di Martino, président de l’Association des services Internet communautaires, un groupe de lobbying défendant les intérêts des intermédiaires techniques , a redit tout le mal qu’il pensait de ce texte.
Considérant que l’article 13 entraînait un régime de responsabilité directe sur les contenus hébergés, ce qui est le cas, il estime qu’une telle responsabilité a priori serait inapplicable « compte tenu du nombre de mises en ligne chaque minute et de la complexité à déterminer ce qui est licite ou pas ». Avec un tel régime, mécaniquement, « les plateformes pourraient vouloir tout censurer pour éviter d'être tenues pour responsables ».
Mais que prône l’article 13 de la proposition de directive sur le droit d’auteur, en particulier dans sa version dure, celle votée par le Parlement européen ? Elle part du principe que les grandes plateformes ont largement dépassé le cadre de la directive de 2000 sur le commerce électronique.
La directive de 2000 sur le commerce électronique
Retour 18 ans en arrière. Celle-ci pose dans ses grandes lignes qu’un hébergeur devient responsable de l’illicéité d’un contenu mis en ligne par un internaute si, alerté, il décide de le maintenir en ligne. Il sait. Ne fait rien. Et donc doit assumer son choix.
En France, lors de l’examen de la loi de transposition, la loi sur la confiance dans l’économie numérique (LCEN), le Conseil constitutionnel a réservé ce régime aux seuls contenus manifestement illicites. Ce sont ceux dont le caractère illicite frappe la rétine, est évident, flagrant. Dans le même temps, ce régime de responsabilité a posteriori n’a été réservé qu’aux intermédiaires dits passifs, ceux qui fournissent un service essentiellement technique.
La mécanique de l’article 13
L’article 13 joue justement sur ce levier en amplifiant dans le marbre de la loi des critères piochés au détour de la jurisprudence européenne. Il considère que les intermédiaires qui, en plus d’héberger, hiérarchisent, taguent, optimisent des contenus mis en ligne par les internautes deviennent directement actifs et donc responsables des illicéités, du moins celles commises sur le terrain du droit d’auteur.
D’une responsabilité a posteriori, le texte organise donc une responsabilité a priori et immédiate. Avec la menace d’une action en contrefaçon dès le premier octet illicite, les hébergeurs version article 13 doivent dès lors négocier avec les sociétés de gestion collective pour réévaluer le partage de valeur, et donc reverser davantage à l’industrie culturelle. Le fameux « value gap ».
Ce régime sévère concerne tous les intermédiaires, sauf six exceptions :
- Les micros, petites et moyennes entreprises
- Les prestataires sans finalité commerciale, comme les encyclopédies en ligne de type Wikipedia
- Les prestataires de clouds fermés, donc sans accès direct auprès du public
- Les plateformes de développement de logiciels de source ouverte
- Les places de marché
- Les sites autorisés par les titulaires de droits
En clair, sont visés les gros intermédiaires techniques et commerciaux, non les petits ou les encyclopédies comme Wikipédia par exemple... sauf s’agissant des contenus libres repris sur YouTube.
Les propositions de l’ASIC
Dans un billet, l’ASIC, qui regroupe Google, Facebook, Dailymotion ou encore Twitter, a justement pilonné ce régime à deux vitesses puisqu’« une telle approche n’aurait pour effet que de créer un plafond de verre que ces entreprises ne seraient jamais en mesure de dépasser ».
Elle prône au contraire un système de « best efforts », une obligation de moyens, davantage inspirée d’une logique de collaboration avec les autres acteurs. En somme, un régime de responsabilité « déterminé en fonction des moyens tant techniques qu’humains qui puissent être mis en oeuvre par chaque intermédiaire », non apprécié « de manière aveugle en fonction de la présence ou non de contenus contrefaisants ».
Ces propositions semblent reprises dans les dernières versions portées par le Conseil, selon un document révélé par Politico.
Pour sa part, le patron de la plateforme de streaming Twitch a adressé un message aux vidéastes, jugeant sa future responsabilité dangereuse. « Vous pourriez avoir à fournir des attestations de droit d'auteur, des autorisations ou prendre d'autres mesures pour prouver votre conformité à des lois sur le copyright épineuses et compliquées. Les créateurs auraient sûrement à se battre contre les faux positifs associés à [un tel système] », prophétise la filiale d'Amazon.
Les trois scénarios de la SACEM
Du côté des partisans, la grille d’analyse est sans surprise différente. Dans Les Échos encore, David El Sayegh, ancien du Syndicat national de l’édition phonographique (SNEP) et désormais secrétaire général de la SACEM, veut d’abord rassurer. Selon lui, l’article 13 ne va entraîner aucun filtrage généralisé chez les acteurs concernés, contrairement à ce qui est affirmé par certains youtubeurs, accusés d’être des chevilles ouvrières de Mountain View.
Au contraire, ce régime va donner naissance à trois situations, toutes plus acceptables les unes que les autres.
Il y a d’abord celle où les titulaires de droit voudront que les contenus soient sur la plateforme. Ils « négocieront des licences » comme aujourd’hui, affirme El Sayegh. Et cette licence « couvrira aussi les actes d'exploitations des internautes, c'est-à-dire les vidéos fabriquées par les internautes contenant des oeuvres protégées ».
Deuxième hypothèse, des ayants droit refusent cette présence en ligne. « Dans ce cas, il n'y aura pas de filtrage a priori, comme essaye de le faire croire YouTube. Ce sera aux ayants droit de se manifester auprès des plates-formes avec des informations pertinentes (empreintes digitales, métadonnées...) pour que les contenus soient retirés ».
Dernier scénario, « pour les ayants droit qui s'en fichent et ne cherchent pas à monétiser leurs contenus, YouTube n'aura rien à faire ».
Quelques petits oublis
Une telle présentation, quoique séduisante, ne traduit pas l’exacte réalité, déjà parce qu’elle oublie un pan entier de la création en ligne.
Le droit d’auteur protège les créations dès lors qu’elles sont originales et empreintes de la personnalité du créateur, sûrement pas par la magie d’une simple déclaration à la SACEM ou devant n’importe quelle autre société de gestion collective. Quantité d’artistes en ligne passent par les plateformes vidéo pour exposer leurs créations, sans détour par Neuilly-Sur-Seine.
Imaginons qu’un internaute crée une vidéo originale et empreinte de sa personnalité. Elle est donc protégée par le droit d’auteur. Il ne souhaite pas passer par les bons services d’une société de gestion collective. Aucune licence, aucune gestion collective, son choix est celui d’une mise en ligne directe.
Or, une fois ce fichier « uploadé », comment l’intermédiaire aura la certitude que le metteur en ligne est bien celui qu’il prétend être, à savoir un créateur, titulaire de droits ? Comment YouTube saura que l’œuvre, disons un morceau de guitare ou de piano, n’est pas une contrefaçon d’un contenu déjà mis en ligne sur ses serveurs, sur Dailymotion, Facebook ou Twitter ou sur un CD audio ? Si la contrefaçon est avérée, et c’est là le charme d’une responsabilité a priori, l’intermédiaire sera bien attaquable sur le terrain de la contrefaçon par la grâce de l’article 13.
De même, lorsque la SACEM nous explique qu’il n’y a pas de filtrage a priori, c’est faux. Dès l’upload, l’intermédiaire devra s’assurer que ce contenu a été autorisé, qu’il n’est pas interdit ou qu’il n’est pas une contrefaçon. Un régime de responsabilité directe entraîne inévitablement un régime de contrôle a priori, de sélection et donc de filtrage, puisqu'il faut éviter une possible mise en cause. Donc, soit YouTube laissera passer le fichier en assumant sa responsabilité directe soit la plateforme empêchera sa mise en ligne par sécurité juridique.
On le voit : la crainte est du coup que YouTube et les autres ne deviennent aussi intéressants qu'un rayon de supermarché, gorgés de contenus labellisés par les sociétés de gestion collective. Un retour fracassant à l’économie de la musique qui a fait leur fortune dans les années 80.
ContentID, article 13, pas le même filtrage
Certes, le système ContentID
en vigueur chez YouTube opère déjà un tel filtrage en amont. Au fil des signalements et empreintes adressés à Google par les sociétés de gestion collective, la plateforme bloque ou laisse passer les vidéos, avec partage des retombées publicitaires. Mais jusqu'à présent, le doute a toujours profité à la liberté de communication ou d’information. Au pire, une vidéo contrefaisante qui passe entre les mailles est retirée après signalement.Avec l’article 13, on change de planète. Le doute profite cette fois aux sociétés de gestion collective et aux titulaires de droit. La même vidéo contrefaisante mise en ligne pourrait justifier une action en contrefaçon, non seulement à l’encontre de l’uploader, mais également de YouTube, Facebook, Twitter, Instagram, Dailymotion, SoundCloud et tant d’autres.