Hadopi, marche ou DREV

Streaming, Usenet, DDL, P2P, flux et moteurs 38
Marc Rees

« Nous sommes en train de travailler sur la mise en place d’une observation totalement anonymisée pour avoir des données quantitatives pour savoir ce qu'il se passe sur les réseaux. » Voilà ce que nous glissait en décembre 2010 Éric Walter, en marge d’une conférence à la SACD. Deux ans plus tard, le Département Recherche, Études et Veille de l’Hadopi (Drev) vient de publier son programme de travail pour s’armer dans cette continuité. Au menu, profilage, mesures, tracking et modélisation mathématique.

Hadopi DREV
Avec ce programme adopté le 4 octobre par le collège, la Hadopi dévoile une série de jauges qu’elle veut enfoncer un peu partout afin de mesurer les pratiques et les comportements. Direct download, streaming, télévision connectée, Usenet, moteurs de recherches, l’épidémie de la Hadopi, autrefois cantonnée au P2P, s’étend, se répand, se propage.

Avant le déploiement, les contraintes

Ce PDF n’est qu’un document de travail, mais il sert déjà de faire-valoir à cette haute autorité en quête d’argent frais. « La mise en oeuvre de ce programme sera conditionnée par diverses contraintes, notamment budgétaires, juridiques et d’actualités » annonce-t-elle page 5. « Leur prise en compte pourra conduire à modifier les travaux proposés si nécessaire. » Parmi les contraintes juridiques, la Hadopi répète comme Éric Walter deux ans plus tôt qu’elle devra effectuer plusieurs démarches auprès de la CNIL, preuve qu'elle ne pourra éviter un gros traitement de données personnelles.

À quel titre ? Comme exposé, la Hadopi prend appui sur l’article L331-23 du code de la propriété intellectuelle. Cet article est apparemment plein d’innocence puisqu’il dit qu’ « au titre de sa mission d'encouragement au développement de l'offre légale, qu'elle soit ou non commerciale, et d'observation de l'utilisation, qu'elle soit licite ou illicite, des œuvres et des objets protégés (…) sur les réseaux (…), la Haute Autorité publie chaque année des indicateurs dont la liste est fixée par décret. » De fait, ces quelques lignes offrent à la haute autorité un champ d'analyse très vaste.


La Hadopi a déjà en poche le texte administratif dont l'article L331-23 fait référence. Le décret du 11 avril 2011 décrit une foison d’indicateurs que doit traquer la Hadopi : les offres, les usages, licites ou illicites, les volumes téléchargés, etc. sans oublier le profilage des internautes, ce qu’ils consomment, leur âge, leur équipement, leur profession, leur capacité à distinguer le licite de l’illicite, etc. Dans cette continuité, la Hadopi a déposé plusieurs appels d'offres notamment afin de déterminer les freins et les leviers à la consommation licite de biens culturels numériques, suivre l'évolution des pratiques du partage des années 80 à nos jours, ou encore cerner les pratiques des digital natives


De fait, entre les propos d’Éric Walter fin 2010, ce décret d’avril 2011, ces appels d'offres et ce programme de travail, on voit une fois de plus que la Hadopi a un plan de déploiement parfaitement huilé.

DREV de comptoir

Pour jauger les échanges et les comportements, le DREV va d’abord s’appuyer sur une veille d’actualités, histoire de ne pas rester sur la touche comme lorsque la Rue de Texel cherchait à déployer ses fameux moyens de sécurisation labellisés. Cette veille, reflet visible de ses secrètes activités, sera diffusée chaque jour à tous les agents, aux membres du collège et de la Commission de la protection des droits.


Mais cette première jauge est presque accessoire par rapport à la suite.

La Hadopi veut en effet tracer tout ce qui est échange via des paramètres remis à jour plusieurs fois dans l’année. « Il est envisagé d’effectuer deux vagues barométriques par an pour pouvoir juger, le cas échéant, des évolutions des indicateurs » prévus par le décret, indique-t-elle.  On comprend la logique : placer des sondes, mesurer, jauger l’efficacité de la riposte graduée, adapter cette réponse voire l’accentuer, la cibler, mais dans tous les cas la continuer. Sur fonds publics, cette méthodologie permettra à la Hadopi de justifier sa persistance. Les échanges illicites perdurent ? Accentuons. Les échanges illicites diminuent ? Continuons puisque nous sommes efficaces.

« La caractérisation licite/illicite des contenus observés en mesures directes ne sera pas effectuée par l’institution. Si une telle information est souhaitée, elle devra être obtenue auprès des ayants droit » prévient benoitement la Hadopi qui sait que seul le juge peut dire in fine si un contenu est ou non licite... 

Les mesures techniques

Alors quelles sont ces fameuses jauges ? Il y aura d’abord une veille sur les mesures techniques d’identification (fingerprinting) et les DRM (verrous numériques). La Hadopi ambitionne de pouvoir acquérir des compétences de terrain, elle qui a hérité des pouvoirs de l’ARMT, son ancêtre de la loi DADVSI. « La mission sera en particulier sollicitée dans le cadre de demandes d’avis, comme c’est actuellement le cas avec les saisines BNF et VideoLan » avance-t-elle poliment, manière de dire que le sujet n’est pas simple.


En outre, « les travaux de recherche et d’études se concentreront sur quatre postes de développement qui conduiront la mission d’observation depuis l’œuvre, suivie dans son parcours en ligne jusqu’à l’utilisateur. Enfin, l’action de l’institution vers cet utilisateur et ses usages sera modélisée et analysée ».

Direct download, streaming, Usenet, P2P

Pour le direct download et le streaming, la Hadopi va ainsi cibler « les plateformes les plus en vues chez les internautes » afin de quantifier les mises à disposition et de qualifier les mises à disposition (proportion de chaque type de contenus présents (clip, films, musique, archives musicales, etc.).


Elle veut également plonger son museau sur Usenet, avec une logique similaire : « L'échantillonnage des serveurs newsgroup consistera à sélectionner de façon aléatoire un certain ratio de news (ce ratio aura auparavant été déterminé durant les études de faisabilité). Les news sélectionnées seront ensuite analysées, comptabilisées et classées selon leurs types. La difficulté de cette phase ne résidera pas dans la sélection ou l’échantillonnage des news (le protocole NNTP est un protocole particulièrement simple à appréhender), mais dans l'analyse de celles-ci. Sur UseNet, les contenus se retrouvent bien souvent fragmentés et l'analyse devra permettre d'identifier le type de contenus à partir d'un seul de ces fragments. Les échantillonnages permettront de quantifier les mises à disposition - compter le nombre de contenus. Ils permettront aussi de qualifier les mises à disposition - déterminer la proportion de chaque type de contenus présents (clip, films, musique, archives musicales, etc.). »


En plus des newsgroups et du DDL et du streaming, elle s’intéresse aussi au P2P où elle rêve de faire des mesures directes « en se plaçant en tant que simple utilisateur du réseau ». À cette fin la Hadopi va créer des « clients modifiés pour chacun des réseaux P2P » afin d’assurer cette collecte d’information. « Les données collectées seront ensuite triées et analysées et organisées de façon à qualifier et quantifier au plus juste les contenus échangés sur les réseaux P2P ».

Marie Françoise Marais

Mécanique des flux

De cette mécanique des flux, la Hadopi envisage déjà une modélisation de cette propagation en se concentrant d’abord sur le cinéma, ce qui ne déplaira pas l’ALPA. S’il est jugé pertinent par sa génitrice, le modèle sera étendu à d'autres types d'œuvres.

Il s'agit de savoir comment se diffuse chronologiquement un contenu tout en estimant à chaque étape « le nombre potentiel d’internautes ayant accès à une œuvre ». La Hadopi fait le parallèle avec le secteur de la santé : « La phase de modélisation devra permettre, à partir des informations collectées lors de la phase d'observation, de construire un modèle mathématique, très certainement similaire à ceux utilisés pour modélisation de la propagation d'une épidémie au sein d'une population. Ce modèle sera amélioré et affiné par d'autres observations avec l'objectif qu'il soit suffisamment complet pour devenir prédictif ». Prédictif... ce qui permettra ainsi de concentrer les réponses éventuellement pénales ici plutôt que là (n'oublions pas que l’art. 336-2 CPI autorise n’importe quelle mesure pour prévenir un dommage aux intérêts des ayants droit.)

Parcourir automatiquement les sites et les forums

Mais ce n’est pas tout. Le DREV planifie « de parcourir automatiquement les sites et forums et d'y procéder à l'analyse des liens afin de déterminer la structure de ces familles de liens ». La Hadopi va donc lâcher ses sondes pour relever les familles de liens, comprendre le fait pour un film d’être hébergé sur plusieurs plateformes. « La répétition de ces observations et le suivi de la proportion de liens partagés et du nombre de liens existant permettront de vérifier s'il existe une réaction et une adaptation des contrevenants aux demandes de retraits formulées par les ayants droit » indique la Hadopi.

LinkStorm, les données Netflow

La Hadopi ne s’arrête pas là : elle veut récupérer des données Netflow, protocole largement implanté par les équipementiers (Cisco, Extreme Networks, 3COM, HP Procurve, etc.) qui permet de savoir l’utilisation qui est faite du réseau : Qui utilise le réseau ? Pour quelles applications ? Pour quelles destinations ? A quel moment ?

Netflow

Exemple de données Netflow (c) smartreport.fr

Selon la collaboration des intermédiaires techniques, la Hadopi pourra ainsi juger des affaissements ou au contraire des pics sur un protocole déterminé, et en déduire, pourquoi pas, un lien de cause à effet...

Ce n'est pas fini. Un œil se concentrera dans le même temps sur les moteurs de recherches : l'autorité programme une étude afin « de déterminer dans quelles proportions ils sont, à date, effectivement utilisés dans ce sens et quels sont les usages alternatifs ». Elle dégaine ici son outil Linkstorm, développé sur les fonds publics par un ingénieur. L’outil est censé flairer le référencement des sites « PUR », histoire de quantifier la pertinence de ce label de confiance. « La façon dont sont référencées les offres, licites ou illicites, oriente le chemin qui connecte l’utilisateur au contenu. Le DREV a donc choisi de mettre en place un projet basé sur les moteurs de recherche, ainsi que la popularité des plateformes de contenus en fonction du nombre de fois où elles apparaissent sur les moteurs de recherche ou de référencement ».

Il s’agira « d’évaluer la qualité du référencement de l’offre légale labellisée » et « d’évaluer la popularité des plateformes de contenus ». Sur ce baromètre planté dans les tréfonds d’un Google ou d’un Bing, la Hadopi pourra évidemment influencer : d’un côté, Mireille Imbert Quaretta planche actuellement sur le déréférencement des sites jugés illicites. De l’autre, les ayants droit – à l’origine d’Hadopi – veulent l'armer de cette nouvelle capacité juridique.


La Hadopi souhaite également envelopper un de ses tentacules autour de la TV connectée pour en deviner les nouveaux usages. Une autre lorgnera du côté des digital natives, chez ceux qui ont l’échange dans la peau et l’Hadopi aux oubliettes, afin d’apprécier leurs comportements puis de classer les profils « selon leurs caractéristiques socioéconomiques, usages, motivations à la consommation licite/ illicite et attitudes vis-à-vis du piratage. » Rappelons que la Hadopi a lancé un marché public sur ce créneau à hauteur de 30 000 euros.


La Rue de Texel promet une autre enquête auprès d’un échantillon afin « comprendre en détail le cheminement d’accès aux œuvres en ligne », comment sont utilisés les moteurs, comment se fait la recherche des oeuvres ou l’accès direct à un site conseillé par l’entourage, etc., voire les échanges main dans la main, ce piratage de proximité loin des griffes de TMG. L'objet de cette mission protéiforme consistera aussi à tracer les pratiques dominantes, esquisser celles en déclin, du pain béni pour les ayants droit qui pourront accentuer leur présence sur tel volet plutôt qu’un autre.

En outre, sans doute agacée par ces pluies d’études (dont celles de la Hadopi) qui expliquent que ceux qui téléchargent le plus sont ceux qui achètent le plus, la pieuvre Hadopi veut à  nouveau savoir - selon sa méthodologie - s’il y a ou non un lien entre ces consommations licite et illicite.

Jauger l'efficacité des avertissements

Last but not least, la haute autorité indépendante envisage encore de mesurer l’efficacité de ses avertissements, toujours selon ses propres critères. Cette fois plus de petits tableaux comme dans les précédents rapports, la Hadopi rêve de modélisation mathématique du fonctionnement de la réponse graduée. « La modélisation de cet environnement devra permettre d’obtenir la probabilité théorique de se voir reprocher plusieurs manquements. Cette probabilité pourra alors être comparée à la probabilité  constatée par la Commission de Protection des Droits. La différence entre les probabilités théoriques et constatées pourrait alors être expliquée et imputée à l’effet pédagogique de la réponse graduée. »

Abonné averti, es-tu content de l'Hadopi ?

Encore et toujours, la Hadopi veut peaufiner via un échantillonnage ces mesures. « Des études de faisabilité sont par ailleurs en cours pour analyser, notamment d’un point de vue juridique, la possibilité de mener des études auprès d’abonnés directement concernés par des faits. Cela pourrait représenter une méthode extrêmement pertinente d’évaluation et donc à moyen terme, d’optimisation ».  En clair, il s’agira de demander à l‘abonné qui contacte le centre d’appel, par exemple parce qu’il a été averti, s’il est content et satisfait des prestations de la Hadopi… Celle-ci pense à un questionnaire anonyme au format papier qui « permettrait par ailleurs de mesurer l’efficacité pédagogique de la prise de contact entre l’Hadopi et les internautes. »


Dans ce dernier volet, il s’agira de « mesurer l’impact de la réception d’une recommandation (avec ventilation selon son niveau) sur le comportement et les usages : perméabilité/ adhésion au message de l’Hadopi, désinstallation du logiciel de partage, sensibilisation des proches (parents / enfants) etc. (logique d’efficacité). »


Au fil de cette cinquantaine de pages, notre haute autorité ne peut évidemment s’empêcher les appels de pieds au secteur du jeu vidéo (p.13, 22, 27, 28) et au monde du livre, de la bande dessinée (p.13, 42), plus rarement de la photo (p.13). Elle qui compte démultiplier ses avertissements en 2013 cherche encore à enraciner le protocole pénal de la riposte graduée, à quelques mois des conclusions de la mission Lescure.


chargement
Chargement des commentaires...