Quand la BBC demande à Google de déréférencer la page d’accueil de Dailymotion

Quand la BBC demande à Google de déréférencer la page d’accueil de Dailymotion

Situation Dailycate

Avatar de l'auteur
Xavier Berne

Publié dans

Droit

12/05/2015 3 minutes
55

Quand la BBC demande à Google de déréférencer la page d’accueil de Dailymotion

Google a reçu voilà plusieurs jours une demande de déréférencement de la page d’accueil de la version britannique de Dailymotion. Le géant de l’internet n’a pas donné de suite favorable à cette requête présentée au nom de la BBC, pas plus d’ailleurs qu’à trois autres demandes qui visaient des pages IMDb de films et séries.

Perçu par de nombreux ayants droit comme une porte dorée vers le piratage, Google croule depuis plusieurs années sous les demandes dites DMCA – du nom de la législation américaine applicable aux hébergeurs. En vertu de cette procédure, le célèbre moteur de recherche est prié de ne plus faire apparaître certaines pages au sein de ses résultats, au motif que celles-ci permettraient la diffusion illégale de films, ebooks, séries, etc. 

Une demande à côté des clous

Le problème est que les ayants droit envoient ces requêtes à tour de bras (345 millions de demandes en 2014), bien souvent à l’aide de programmes informatiques qui ont du mal à faire la différence, à partir de simples mots-clés, entre contenus licites ou illicites... Le dernier exemple de cet effet de bord notoire a une nouvelle fois été repéré par TorrentFreak. Le 2 mai, Google a reçu une demande transmise au nom du groupe BBC Worldwide, propriétaire de la célèbre chaîne britannique et des nombreuses séries et émissions que celle-ci produit.

Sur son Transparency Report, la firme de Mountain View indique ainsi qu’il lui a été demandé de déréférencer la page d’accueil de Dailymotion UK, « www.dailymotion.com/gb ». Une page qui permet certes de lire des vidéos pouvant être illicites, mais dont le contenu évolue très fréquemment... Google n’a d’ailleurs pas donné suite à cette requête.

dmca dailymotion imdb
Crédits : Google Transparency Report

Le moteur de recherche a d’autre part été prié de ne plus faire apparaître trois pages du site IMDb, le père spirituel anglophone d'Allociné. Là non plus, Google n’a procédé à aucun déréférencement puisque les pages signalées contenaient de simples descriptifs d’une série financée par la BBC, « The Game », ainsi que d’émissions « Top Gear ».

Des exemples de plus en plus nombreux

Si un géant tel que Google a les moyens d’éviter que des contenus illégitimement dénoncés ne soient retirés, ce n’est malheureusement pas le cas de tous les hébergeurs... La publication de nombreuses données par le géant de l’internet montre pourtant que les dérives peuvent parfois être très larges : page d’accueil de Gmail, fiches Wikipédia, vidéos sous licence Creative Commons, livres appartenant au domaine public, pages de téléchargement de logiciels gratuits (Skype, VLC, OpenOffice...), etc.  

En France, le fait, pour toute personne, de signaler « un contenu ou une activité comme étant illicite dans le but d'en obtenir le retrait ou d'en faire cesser la diffusion, alors qu'elle sait cette information inexacte, est puni d'une peine d'un an d'emprisonnement et de 15 000 euros d'amende » (article 6 de la loi pour la confiance dans l’économie numérique).

Écrit par Xavier Berne

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Une demande à côté des clous

Des exemples de plus en plus nombreux

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (55)


Soit les algorithme de google sont bien plus pertinent et arrive à trier les requêtes juste des mauvaises. Soit ils doivent avoir une armés de personne qui ce charge de cela.



Bon et sinon comme d’hab à quand un permis a point pour les demandes DMCA.


De toute façon, depuis qu’ils ont viré Jeremy Clarkson, ils méritent juste de crever ^^


Bring

Back

Clarkson








knos a écrit :



Soit les algorithme de google sont bien plus pertinent et arrive à trier les requêtes juste des mauvaises. Soit ils doivent avoir une armés de personne qui ce charge de cela.



Bon et sinon comme d’hab à quand un permis a point pour les demandes DMCA.





Ça ne m’étonnerait pas qu’ils aient un filtre qui extrait les requêtes qui ne ressemblent pas à des url de vidéos pour être traitées manuellement.



Oui et bien faudrait que les compagnies qui envoie les requêtes fassent également le trie AVANT au lieu d’en abuser. Mais tant qu’il n’y aura pas de sanction pour requête abusive…


demander un déréférencement d’une Page qui NE leur APPARTIENT PAS ! <img data-src=" />

“rien …QUE ça, ‘Google” DOIT REFUSER !

sinon : moi AUSSI je vais demander de déréf… le voisin (il a une tête qui me revient pas), hop ..!!!








eliumnick a écrit :



De toute façon, depuis qu’ils ont viré Jeremy Clarkson, ils méritent juste de crever ^^





Ah!&nbsp; Il n’est pas reviendu sous la pression populaire ?



Edit : je me suis un peu rensegné et il semblerait que le trio va tenter de refaire une émission auto mais sur netflix.



Sous-titre excellent <img data-src=" />

<img data-src=" /> pour ce fou rire


Mmmmm <img data-src=" /> Je l’iaime bien, mais là il l’a quand même cherché. <img data-src=" />








knos a écrit :



Soit les algorithme de google sont bien plus pertinent et arrive à trier les requêtes juste des mauvaises. Soit ils doivent avoir une armés de personne qui ce charge de cela.



Bon et sinon comme d’hab à quand un permis a point pour les demandes DMCA.











knos a écrit :



Oui et bien faudrait que les compagnies qui envoie les requêtes fassent également le trie AVANT au lieu d’en abuser. Mais tant qu’il n’y aura pas de sanction pour requête abusive…







<img data-src=" /> Je peux pas lire, vraiment.



C’est pas si gigantesque que ça en fait.

345 millions de requêtes en 1 an. Je suppose une année composée de 220 jours ouvrés, travaillés 8 heures. Ca donne 3267 requêtes à traiter par jour. Avec une équipe de 150 personnes (c’ést grand, mais c’est loin de représenter une “armée”), ça donne un peu moins de 22 requêtes à traiter par minute.



Vérifier à la main 22 URL par minute, c’est jouable, surtout que dans certains cas, l’URL suffit à déterminer l’invalidité sans avoir à cliquer dessus pour accéder au contenu.



En supposant encore que cette partie est automatisée par des algos maison de Google, ce qui ne fait pas l’ombre d’un doute, il doit rester quoi, 30% tout au plus des requêtes qui doivent être vérifiées à la main.









knos a écrit :



Oui et bien faudrait que les compagnies qui envoie les requêtes fassent également le trie AVANT au lieu d’en abuser. Mais tant qu’il n’y aura pas de sanction pour requête abusive…





Ça par contre, on est bien d’accord…









Candl3 a écrit :



Ah!  Il n’est pas reviendu sous la pression populaire ?



Edit : je me suis un peu rensegné et il semblerait que le trio va tenter de refaire une émission auto mais sur netflix.









FunnyD a écrit :



Mmmmm <img data-src=" /> Je l’iaime bien, mais là il l’a quand même cherché. <img data-src=" />









Je sais pas j’avais juste envie de pecher <img data-src=" /><img data-src=" />



22 Requêtes minutes? C’est quand même beaucoup je trouve.


Navré pour toi…








Nozalys a écrit :



C’est pas si gigantesque que ça en fait.

345 millions de requêtes en 1 an. Je suppose une année composée de 220 jours ouvrés, travaillés 8 heures. Ca donne 3267 requêtes à traiter par jour. Avec une équipe de 150 personnes (c’ést grand, mais c’est loin de représenter une “armée”), ça donne un peu moins de 22 requêtes à traiter par minute.



Vérifier à la main 22 URL par minute, c’est jouable, surtout que dans certains cas, l’URL suffit à déterminer l’invalidité sans avoir à cliquer dessus pour accéder au contenu.



En supposant encore que cette partie est automatisée par des algos maison de Google, ce qui ne fait pas l’ombre d’un doute, il doit rester quoi, 30% tout au plus des requêtes qui doivent être vérifiées à la main.





Ça par contre, on est bien d’accord…





Personnellement, à ce rythme au bout d’une heure, ça me casserait déjà sérieusement les couilles. Je pense plus que google à son propre algo de préfiltration aussi de son coté. Il a la technologie avec youtube de reconnaître des œuvres protégées.









knos a écrit :



Navré pour toi…





Pareillement.



&nbsp;







knos a écrit :



22 Requêtes minutes? C’est quand même beaucoup je trouve.





Pas tant que ça.

Lire une URL ça prend une seconde, rarement plus.

Savoir si elle est valable demande pas forcément plus.



Mais effectivement, au bout d’une heure, ça gaverait n’importe qui.



Par contre, je pense que les systèmes de vérification automatique doivent éjecter bien plus que les 70% de demandes. Entre les doublons et les sites légitimes, les vérifications manuelles doivent être beaucoup plus rares.(5% des demandes voir moins peut-être)



C’est fortement possible pour le coté semi automatique. Mais c’était juste le 22 requêtes minutes qui me choquait. (on est pas des robots) Mais oui il doit y avoir un très gros pourcentage fait en automatique. Des 100% validés (délit flagrant), des 100% invalidés (page racine) et des doutes du robot qui seront traité en manuel.








js2082 a écrit :



Pas tant que ça.

Lire une URL ça prend une seconde, rarement plus.

Savoir si elle est valable demande pas forcément plus.



Mais effectivement, au bout d’une heure, ça gaverait n’importe qui.



Par contre, je pense que les systèmes de vérification automatique doivent éjecter bien plus que les 70% de demandes. Entre les doublons et les sites légitimes, les vérifications manuelles doivent être beaucoup plus rares.(5% des demandes voir moins peut-être)







Genre en qq seconde tu arrives à savoir si la personne qui te demande la suppression du lien est bien titulaire des droits de l’oeuvre qu’elle veut faire disparaitre ?









Nozalys a écrit :



C’est pas si gigantesque que ça en fait.



345 millions de requêtes en 1 an. Je suppose une année composée de 220 jours ouvrés, travaillés 8 heures. Ca donne 3267 requêtes à traiter par jour. Avec une équipe de 150 personnes (c'ést grand, mais c'est loin de représenter une "armée"), ça donne un peu moins de 22 requêtes à traiter par minute.      






Vérifier à la main 22 URL par minute, c'est jouable, surtout que dans certains cas, l'URL suffit à déterminer l'invalidité sans avoir à cliquer dessus pour accéder au contenu.      






En supposant encore que cette partie est automatisée par des algos maison de Google, ce qui ne fait pas l'ombre d'un doute, il doit rester quoi, 30% tout au plus des requêtes qui doivent être vérifiées à la main.      








Ça par contre, on est bien d'accord...








Je suis mauvais en maths, mais je crois que ton calcul est faux.     



345 millions de requêtes par an, ça ne fait pas 3 267 requêtes à traiter par jour, mais 1 568 182 par jour (sur la même base de 220 jours ouvrés).

&nbsp;Et là c’est pas tout à fait le même ordre de grandeur, même avec les moyens de google :)









tazvld a écrit :



Personnellement, à ce rythme au bout d’une heure, ça me casserait déjà sérieusement les couilles.





Ha! c’est sur que c’est pas un boulot pour les feignasses! Mais au moins t’es sur d’être payé correctement.









maestro321 a écrit :



Ha! c’est sur que c’est pas un boulot pour les feignasses! Mais au moins t’es sur d’être payé correctement.







Depuis quand les boulots les plus pénibles sont bien payés ?



Déjà en ayant des listes blanches de site “officiels” et sans doutes possibles (genre tout ce qui est imdb.com/*) dégage les requêtes frauduleuses.



Ensuite pour une url de vilains pirates, je pense que les sites reviennent régulièrement. Donc si domaine possède genre 3 adresses “pirates”, alors les requêtes suivantes seront traitées automatiquement.



Donc en combinant des listes blanches (remplie à la main) et des blacklist remplies quasi automatiquement, google doit écrémer avant d’envoyer à ses employés.



Et faire ce genre de chose pour Google, c’est clairement pas kiffant mais ils ont les personnes, les connaissances et les finances pour plier le truc.


Le salaire serait probablement minable, mais l’économie en terme de dépenses culturelles serait substantielle avec tous les liens qu’ils pourraient collecter. <img data-src=" />



Ca doit bien pouvoir compter comme un avantage du même type que le tarif EDF non ? <img data-src=" />


en fait son calcul est juste, c’est son explication qui est fausse <img data-src=" />



345 millions /220 jours /150 personnes / 8 heures / 60 minutes donne bien 22 requêtes à analyser par minute et par personne… ;)



après, ça me fait marrer ceux qui disent qu’il faut moins d’une seconde pour lire une url… dailymotion.com… ok… mais un truc à rallonge sur un site pas connu… je vois pas comment un gars peut dire en moins de 3 secondes si c’est légitime ou pas…


Pas d’accord, The PirateBay AFk (licence CC) s’est bien fait déréférencer alors que les ayants-droits n’avaient justement pas les droits dessus (alors qu’on sait tous que TPB ne sert qu’à télécharger des ISO Linux <img data-src=" />).








js2082 a écrit :



&nbsp;

Pas tant que ça.

Lire une URL ça prend une seconde, rarement plus.

Savoir si elle est valable demande pas forcément plus.





Tu arrives à voir le contenu d’une page rien qu’en lisant son URL ? Chapeau !



Ah oui, en effet ^^

Bon, cela dit, même pour google, ça me parait beacoup, 150 personnes à temps plein, juste pour gérer les demandes de retrait…

Il y a surement un système de tri préalable, retrait des doublons, etc.








Pwney a écrit :



Tu arrives à voir le contenu d’une page rien qu’en lisant son URL ? Chapeau !





Y en a bien qui voient l’intégralité du monde à travers une série de symboles verts qui dégringolent le long de deux écrans. Faut te libérer l’esprit <img data-src=" />



Certains diront que c’est un “dommage collatéral” du système.



Si le film s’est fait déréférencer, c’est qu’il était sur TPB (ou un miroir) ! C’est d’ailleurs révélateur de ce que je dis plus haut : si l’adresse appartient au domaine à thepiratebay.com/* alors c’est direct.



C’est toujours comme ça : les erreurs d’un algo sont plus révélatrices de son fonctionnement que les “bons résultats”.

C’est d’ailleurs un axe de travail très courant en cryptographie.


Depuis que le salaire est basé sur le mérite.


a mon avis quand le PR de la page est elevé (ou que sa categorie n’a rien a voir avec du P2P) google verifie a la main&nbsp;


Voir ma réponse au dessus (bug dans le mode réponse)


pour moi ils ont justement un indicateur de “sérieux” ( est ce que le site est populaire, est ce qu’il est hosté aux US/pays favoris, est ce qu’il existe depuis longtemps, est ce que d’autres site “sérieux” le cite, etc…), qui est pris en compte par le page rank.



c’est cette stat qui ( d’après moi ) leurs permet de faire une liste a bannir automatiquement ( c’est quand même la plupart des cas), et une liste à vérifier à la main


Ca ne répond pas à la question.


J’y peut rien, tout ce qui tourne autour de la justification des différences de salaires n’apporte aucune réponse rationnelle.<img data-src=" />


Que je sache niveau pénibilité, infirmière ou technicien de surface, voir éboueur c’est un chouilla plus que trader pour un salaire bien inférieur, donc le mérite n’a pas de lien avec la pénibilité.



&nbsp;Mais sinon oui, on est d’accord c’est un peu n’imp ^^’


Utiliser son cerveau n’est pas moins pénible… Mais en général quand on bosse dans un bureau on est forcément dans un boulot non pénible..








vizir67 a écrit :



demander un déréférencement d’une Page qui NE leur APPARTIENT PAS ! <img data-src=" />

“rien …QUE ça, ‘Google” DOIT REFUSER !

sinon : moi AUSSI je vais demander de déréf… le voisin (il a une tête qui me revient pas), hop ..!!!



Euh, je vois ta philosophie mais le principe du déréférencement c’est quand même qu’on puisse demander à rendre + difficile l’accès à un site qui (enfin dont on estime qu’il) nous cause dommage.

Demain, je vais créer et populariser www . vizir67estungrosblaireau . com (désolé, c’est pour l’exemple) et tu vas juste attendre que je demande à ce que le site soit déréférencer? <img data-src=" />





Gritou a écrit :



Que je sache niveau pénibilité, infirmière ou technicien de surface, voir éboueur c’est un chouilla plus que trader pour un salaire bien inférieur, donc le mérite n’a pas de lien avec la pénibilité.



 Mais sinon oui, on est d’accord c’est un peu n’imp ^^’



Mouis, éboueur à Marseille (fini/parti) c’est moins pénible qu’éboueur ailleurs et puis trader…faut voir les sinusites que les mecs se tapent à force de sniffer de la coke





EDIT: on est bien d’accord déréférencement=suppression des résultats de recherche Google =/= de suppression du site?



Il n’y a certes pas que le travail physique qui est pénible mais les salaires n’ont absolument jamais eu d’indexation sur le mérite (ou alors ils faut m’expliquer ce sens du mot mérite). Le salaire est un mélange de mérite, environnement, coup de pouce, chance … Et je pense que le mérite est l’un des éléments qui joue le moins sur le salaire.


Google devrait surtout mettre en place un système qui, en cas de demande abusive de déréférencement, déréférencie l’ensemble des sites web du demandeur.

Ils y regarderaient à 2 fois avant d’envoyer toutes leurs listes à la con.



edit: ah j’allais oublier:



Bring

Back

Clarkson








knos a écrit :



Il n’y a certes pas que le travail physique qui est pénible mais les salaires n’ont absolument jamais eu d’indexation sur le mérite (ou alors ils faut m’expliquer ce sens du mot mérite). Le salaire est un mélange de mérite, environnement, coup de pouce, chance … Et je pense que le mérite est l’un des éléments qui joue le moins sur le salaire.





Voilà une bonne raison de virer les salaires minimum dans ce cas.<img data-src=" />









Pwney a écrit :



Tu arrives à voir le contenu d’une page rien qu’en lisant son URL ? Chapeau !





Les ddl-series, allostreaming et consorts…

Suffit d’un coup d’oeil sur leurs urls pour savoir que ce ne sont pas des sites légaux. Et encore plus quand tu vois qu’ils disposent de toutes les dernières séries de tous les producteurs, même ceux qui sont concurrents. (tu ne trouveras jamais GOT mélangé avec les séries les plus populaires de la Fox par ex)



Beaucoup de sites pirates (si ce n’est tous) utilisent un langage très spécifique et très clair sur la nature de leur contenu.

Jouer au bisounours, ça va 5 min hein.<img data-src=" />

&nbsp;



Ca dépend tu es tendance marxciste ou tu es de ceux qui juge que ceux qui n’ont pas de chance mérite un salaire encore plus faible?








knos a écrit :



Ca dépend tu es tendance marxciste ou tu es de ceux qui juge que ceux qui n’ont pas de chance mérite un salaire encore plus faible?





http://i.imgur.com/uqoeA.jpg



Une news à ce genre de sujet à chaque coup ? Sérieusement ? : /


“En France, le fait, pour toute personne, de signaler « un contenu ou

une activité comme étant illicite dans le but d’en obtenir le retrait

ou d’en faire cesser la diffusion, alors qu’elle sait cette information

inexacte, est puni d’une peine d’un an d’emprisonnement et de 15 000

euros d’amende » (article 6 de la loi pour la confiance dans l’économie numérique).”



Cette loi est faite pour faire condamner les petites gens, elle ne s’applique pas aux gros requins !


Close enough ? :)



Bring

Back

Clarkson


Google ne possèdant pas (encore) l’internet, oui ça veut juste dire supprimer des résultats de recherche. Après comme de moins en moins d’utilisateurs lambda savent qu’on peut aussi taper une URL, pour certains ça revient presque au meme.


Autant pour moi, je voulais bien entendu dire 3267 requêtes par minute (345000000/220/8/60).


Oui c’est certain, ça gaverait n’importe qui, mais c’est pas insurmontable, ce que je voulais dire par ce calcul c’est que c’est humainement possible sans algo amont. Et comme on parle de Google, on sait tous très bien qu’ils doivent déjà avoir un algo (le genre d’IA qui apprend au fur et à mesure de son utilisation donc qui devient de plus en plus performant) pour réduire cette charge de travail humaine au strict minimum.


ok !

(j’ai mal compris la New)


OK, mais je n’avais pas de doute sur ce point.



Après, même si on sait qu’on peut “taper une URL” <img data-src=" />, le déréférencement complique l’accès à des sites qu’on ne connait pas. Mais bon ce n’est pas la panacée (du point de vue des éditeurs)


Et ne plus, Google n’est pas l’unique moteur de recherche sur la Toile, ça ne va pas être simple de faire le tri chez DuckDuckGo et Co.



<img data-src=" />