Comment le Conseil d'Etat aimerait durcir la responsabilité des hébergeurs

Avec Notice & Stay Down 17
En bref
image dediée
Crédits : Ryhor Bruyeu/iStock Editorial/Thinkstock
Loi
Marc Rees

L’initiative va être suivie de près par les ayants droit. Dans son rapport annuel consacré cette fois au numérique et aux droits fondamentaux, la haute juridiction estime nécessaire désormais de revoir le régime de responsabilité des intermédiaires techniques, ce pour quoi militent les titulaires de droit de longue date.

À ce jour, conformément au droit européen, les intermédiaires ont une obligation de responsabilité conditionnelle. Pour résumer dans les très grandes lignes, ils ne sont responsables des contenus illicites stockés que si avertis de leur présence, ils ne font rien. Cependant, dans son rapport annuel, le Conseil d’État considère que le temps est venu de faire un peu de ménage. Il propose du coup la création d’une nouvelle catégorie d’intermédiaires, sobrement désignés par l’expression « plateformes ».

La plateforme, entre éditeurs et hébergeurs

« Nombre de plateformes ne se contentent pas de stocker passivement les offres des sociétés tierces ou les contenus mis en ligne, elles les organisent en les indexant et en faisant le cas échéant des recommandations personnalisées aux internautes ». Le Conseil d’État considère certes que le principe de neutralité ne s’applique pas à ces intermédiaires, et pour cause : « un fournisseur d’accès doit traiter de la même manière tous les sites internet » alors que ce traitement égalitaire « ne peut être demandé à un moteur de recherche, puisque l’objet même d’un moteur de recherche est de hiérarchiser les sites internet ». Néanmoins, ces plateformes « doivent respecter le droit de la concurrence et sont tenues à la loyauté envers leurs utilisateurs. »

Imposer un principe de loyauté

Principe de loyauté des plateformes ? « En tant que conseiller, le moteur de recherche est tenu à une obligation de loyauté, ce qui lui interdit notamment de déformer ses résultats en raison de considérations étrangères à celles du meilleur service pour l’utilisateur, par exemple le souci de défavoriser un concurrent » cite en exemple le Conseil d’État. « La même analyse peut sans doute être étendue à d’autres types de plateformes » ajoute-t-il. « Celles-ci ne sont pas tenues à une exhaustivité et une neutralité qui seraient illusoires, mais à une obligation de bonne foi, comme dans l’exécution de tout contrat, ainsi qu’aux obligations particulières d’information sur les caractéristiques du service auxquelles sont tenues les entreprises à l’égard des consommateurs non professionnels. »

Ce principe de loyauté se ventilerait dès lors en une série d’obligations : 

  • Pertinence des critères de classement et de référencement mis en oeuvre par la plateforme au regard de l’objectif de meilleur service rendu à l’utilisateur ;
  • Information sur les critères de classement et de référencement ;
  • Définition des critères de retrait de contenus licites en termes clairs, accessibles à tous, et non discriminatoires ;
  • Mettre l’utilisateur ayant mis en ligne un contenu en mesure de faire valoir ses observations en cas de retrait de celui-ci ;
  • En ce qui concerne les utilisateurs commerciaux, notification préalable, avec un délai de réponse raisonnable, des changements de la politique de contenus ou de l’algorithme susceptibles d’affecter le référencement ou le classement.

Ces idées pourront satisfaire certains, mais être également dénoncées par d'autres, ceux qui estiment que la liberté d'entreprendre se doit d'être protégée. D'autant que si des questions concurrentielles se posent, les outils à disposition de l'Autorité de la concurrence devraient être mis en oeuvre.  Si évidemment celle-ci dispose de moyens suffisants...

Fait notable, cette tentative d’imposer de nouvelles obligations aux intermédiaires qui se montrent un peu trop actifs avec les données stockées renvoient directement à une tentative du passé : celle des éditeurs de services, catégorie que voulait voir créer un rapport parlementaire de 2011, et qui avait finalement été abandonné compte tenu des problèmes de conformité avec le droit européen. D’ailleurs la France pourrait-elle instaurer cette catégorie des « plateformes », alors que la définition qui lui est attribuée par le Conseil d’État ressemble peu ou prou à celle des hébergeurs de la directive sur le e-commerce ?

L'influence du rapport de Mireille Imbert Quaretta

Ce n'est pas tout. Le Conseil d’État milite aussi pour l’injonction dans notre droit d’une préconisation du rapport de Mireille Imbert Quaretta, présidente à la Hadopi de la Commission de protection des droits : celle d’une procédure de notification et retrait prolongé. En clair, lorsqu’un intermédiaire se voit dénoncer un contenu illicite qu’il héberge, celui-ci devrait en outre empêcher sa réapparition. « L’obligation mise à la charge de l’hébergeur ou de la plateforme doit (…) être strictement proportionnée, limitée dans le temps, ciblée sur des contenus précis, et mise en oeuvre de façon à ne pas constituer une « surveillance généralisée » » demande le Conseil d’État. Cette mesure permettrait de passer entre les gouttes du droit européen qui interdit une telle mesure. Cependant dans le même temps, il impliquerait la mise en œuvre d’un système d’empreinte numérique sur les contenus comme les livres, les films, les séries, les musiques.

En guise d’hommage aux travaux d’Imbert Quaretta, il recommande encore que ces mesures soient enjointes non par l’ayant droit mais par une autorité administrative. On devine en creux un coup de chapeau en direction de la Hadopi ou du CSA, pourquoi pas, ou une autre autorité puisqu’ « au-delà des seules violations de la propriété littéraire et artistique, il pourrait également concerner les atteintes au droit des marques et la vente de biens ou de services illicites. Les destinataires des injonctions pourraient exercer les voies de recours de droit commun devant la juridiction administrative. »

Comment faire pour éviter les risques de surblocage ? Le rapport ouvre la piste d’une obligation de transparence envers les utilisateurs sur la mise en oeuvre de ces outils. De même, « la loi devrait prévoir expressément la nécessité de limiter au strict minimum les risques de surblocage. Les outils de reconnaissance automatique peuvent par exemple être peu aptes à distinguer une contrefaçon illicite d’une parodie couverte par l’exception au droit d’auteur prévue par le 4° de l’article L. 122-5 du code de la propriété intellectuelle. »

Alors que l’Australie vient de connaître un joli fail, il juge que « les risques de surblocage n’apparaissent pas aujourd’hui d’une ampleur suffisante pour justifier un contrôle administratif a priori des outils de surveillance ». L’autorité administrative ou le juge n’interviendrait qu’après coup, mais surement pas avant la mise en place de ces mesures de détection automatisée, dont la charge semble bien peser sur les épaules des intermédiaires. À tout le moins, il recommande que ces acteurs publient chaque année la liste des précautions prises pour limiter le surblocage et le nombre de contenus retirés par application des outils de surveillance.


chargement
Chargement des commentaires...