Après la redevance sur les images référencées par les moteurs, à qui le tour ? Visiblement à celui des agences de presse. C’est en tout cas le vœu de David Assouline qui s'est armé à cette fin d'une généreuse proposition de loi (PPL) dont nous avons pu consulter l'ébauche.
Nulle surprise : cette nouvelle sollicitation financière des Google and Co. avait déjà été annoncée durant les débats autour du projet de loi Création, laquelle a déjà consacré une redevance sur le référencement des images. Dans son exposé introductif, le sénateur socialiste considère cette fois que les moteurs « sont devenus de véritables banques d’information, en exploitant un contenu qu’ils n’ont pas créé et pour lequel ils ne versent aucune rémunération ». Et pour parer à ce préjudice « considérable » au détriment des agences de presse, la seule issue serait, selon lui, de leur faire bénéficier d’un droit voisin.
Comment fonctionnerait ce mécanisme ? Déjà, la durée des droits patrimoniaux de ces entreprises serait, à l’instar de celles des artistes-interprètes et des producteurs, portée à 50 ans après la première diffusion au public.
Une gestion collective au profit d’une SPRD
Ceci posé, toute reproduction et communication au public d’un contenu quelconque d’une agence de presse seraient par défaut soumises à autorisation. Cette notion de contenu (« production », dans le texte) est très vaste puisque la PPL y range tous « les éléments d’informations collectés, traités, mis en forme et fournis par les agences de presse après en avoir fait, sous leur propre responsabilité, un traitement journalistique ».
C’est en tout cas là qu’interviendrait le futur article L.218-3 du Code de la propriété intellectuelle. Avec lui, le simple fait pour un moteur de publier un contenu d’une agence emporterait la mise en gestion collective du droit « de reproduire et de représenter cette production dans le cadre de services automatisés de référencement d’images ».
L’île au trésor
Après ces bases numériques, passons aux bases numéraires. Les sociétés de perception et de répartition (SPRD) agréées, investies d’un tel droit, seraient ainsi habilitées à conclure une convention avec les moteurs pour autoriser ces reproductions, en contrepartie de quoi elles percevraient alors une « rémunération ».
En préparation de cette convention, Qwant, Google, Bing et les autres auraient l’obligation de fournir « le relevé des exploitations des productions des agences de presse ainsi que toutes informations nécessaires à la répartition des sommes perçues, aux auteurs ou leurs ayants droit et aux agences de presse ». En somme, un état des lieux de l’exploitation par leur algorithme de l’ensemble des contenus mis en ligne par les agences de presse, à supposer que ces intermédiaires en aient une parfaite connaissance. Précision importante : le texte implique toutes les activités de référencement, pas seulement les pages « actualités » de tel ou tel service en ligne, ce qui rendra d'autant plus complexe cette connaissance.
La redevance afférente serait en pratique assise sur les recettes de l’exploitation ou, à défaut, évaluée forfaitairement. Quant au barème et aux modalités de versement de ces sommes, une autre convention serait établie par les sociétés de gestion collective et les moteurs, pour une durée de cinq années. On retrouve donc là très exactement le mécanisme de la « taxe » Google Images. D’ailleurs, ici encore, faute d’accord avec les moteurs, la PPL Assouline en appelle à une commission administrative paritaire, « présidée par un représentant de l’État et composée, en nombre égal, d’une part, de représentants des sociétés agréées (…) et, d’autre part, des représentants des exploitants de services automatisés de référencement d’images ». C’est elle qui serait donc charger de fixer ces menues modalités.
Et le robots.txt ?
On se souvient que l’Espagne, notamment, avait tenté une expérience similaire contre Google. La fermeture de Google News par le géant américain avait cependant fait plier les acteurs de la presse en un rien de temps.
De même, rappelons que les agences de presse qui diffusent leurs contenus en ligne ont toujours la possibilité d'en restreindre la diffusion. Elles peuvent notamment installer un fichier Robots.txt pour interdire leur indexation par les moteurs. Il est vrai qu’une telle option aurait un douloureux inconvénient : elle priverait les Googlodépendants de visibilité et surtout de la possibilité de percevoir de juteuses redevances.