L'EFF fustige le W3C pour l'acceptation des DRM dans la nouvelle charte

L’EFF fustige le W3C pour l’acceptation des DRM dans la nouvelle charte

Le loup dans la bergerie

Avatar de l'auteur
Vincent Hermann

Publié dans

Internet

03/10/2013 4 minutes
67

L'EFF fustige le W3C pour l'acceptation des DRM dans la nouvelle charte

Le W3C travaille depuis longtemps sur les Encrypted Media Extensions, un standard qui doit permettre la mise en place d’une infrastructure commune pour les DRM. En avril dernier, 27 organisations demandaient le rejet de ce futur standard. Mais coup de théâtre : c’est Tim Berners-Lee en personne, le directeur du Consortium, qui a annoncé hier l’inclusion des EME dans la nouvelle charte du groupe de travail HTML.

eme media extensions

Les EME entrent dans le groupe de travail HTML 

Dans un communiqué publié hier, l’Electronic Frontier Foundation exprime toute sa déception : le président du World Wide Web Consortium, Tim Berners-Lee, a accepté de faire de la « lecture des contenus protégés » l’un des sujets à traiter officiellement par le groupe de travail HTML. Les EME, pour Encrypted Media Extensions, pourraient ainsi faire partie du standard HTML 5.1 si le processus de validation avançait à bon rythme.

 

La nouvelle charte de travail a été dévoilée par Berners-Lee le 30 septembre et son contenu fait bondir l’association de défense des droits dans le monde numérique. Pour l’EFF, accepter de faire des EME un standard revient à sacraliser les DRM et à donner le signal aux éditeurs de contenus que le web peut être plié à leur volonté. Rappelons à ce propos que les EME ne sont pas des DRM en elles-mêmes, mais une infrastructure commune à laquelle les DRM devront se conformer pour être reconnus par les navigateurs.

L'EFF « très déçue »

Pour la fondation, qui se dit « très déçue », cela revient finalement à offrir le contrôle des navigateurs à des entreprises tierces. On assisterait alors à un changement profond dans la philosophie du web puisque l’utilisateur final n’aurait plus le dernier mot sur ce qu’il peut voir ou non. Une fois les EME acceptées et utilisées, il ne serait ainsi pas rare de recevoir un message d’erreur portant sur l’absence de droits pour visualiser un contenu en particulier.

 

L’EFF estime que le W3C franchit une étape dangereuse et que les dégâts pourraient être potentiellement nombreux. La fondation s’inquiète évidemment des changements que cela implique pour les internautes, mais également pour la réputation du Consortium lui-même, considéré depuis longtemps comme le gardien d’un web ouvert et accessible par tous.

Tout est histoire de consensus 

L’association est consciente qu’au sein du W3C, il s’agit avant tout de trouver un terrain de compromis pour répondre à l’ensemble des besoins, avec d’un côté les distributeurs de contenus, et de l’autre les internautes. Car il est encore une fois question d’intérêts divergents : des sociétés telles que Netflix ne peuvent pas mettre en place des flux aisément piratables car les ayants droits n’autoriseraient plus de telles entreprises à puiser dans leurs catalogues. En somme, le W3C avait le choix entre laisser proliférer des solutions basées sur Flash, Air ou encore Silverlight, ou tenter d’harmoniser au minimum les pratiques autour d’une infrastructure ne reposant sur aucun plug-in. L’objectif des EME est en effet d’utiliser la balise vidéo du HTML5.

 

Pour l’EFF cependant, le consensus se fait au prix de l’indépendance et du combat mené depuis des années. En outre, il ne touche qu’à la vidéo, et il faut s’attendre à ce que d’autres éditeurs de contenus fassent pression, notamment sur l’audio et les contenus numérisés tels que les ebooks. Mais la fondation considère également que les EME ouvrent la voie à un futur restrictif qui verrait par exemple l’interdiction de la consultation des sources d’une page, la protection des polices embarquées, le blocage du téléchargement des images ou encore la récupération d’un code JavaScript.

 

L’EFF indique être encore membre du W3C et que le travail continuera pour faire échec à ce type de projets. L’association espère d’ailleurs que le web lui-même prendra la bonne décision, même si ce n’est pas le cas du W3C. Note en outre que la position de la Fondation est très proche de celle de Richard Stallman, que nous avons interviewé récemment. Le fondateur du projet GNU (qui a fêté ses 30 ans) n'hésitait pas à parler de « trahison » : « C’est pour cela que nous avons lancé une campagne de pression. Chacun peut aller sur le site de la FSF.org pour la soutenir. »

Écrit par Vincent Hermann

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Les EME entrent dans le groupe de travail HTML 

L'EFF « très déçue »

Tout est histoire de consensus 

Commentaires (67)


Cela voudrait dire aussi et en partie, plus de marque page ?



<img data-src=" />


L’EFF n’est pas la seule à fustiger, mort aux DRM, le web ne doit pas être transformé en minitel ! <img data-src=" />



Encore un grand merci aux grosses entreprises liées à ces décisions, de pourrir l’avenir de l’internet pour leur business. <img data-src=" />



Le W3C vient de perdre toute crédibilité…


Hé bé, c’est donc ça la soi disant neutralité du Net qu’ils veulent mettre en place ? <img data-src=" />

Quelle jolie chose /sarcasme



plus sérieusement j’espère voir un backlash monstrueux se pointer.


et donc ils proposent quoi en contrepartie, pour répondre aux problématiques citées ? Rien, restez sur flash ?



j’adore au passage, ça gueule sur “le président du World Wide Web Consortium, Tim Berners-Lee, a accepté de faire de la « lecture des contenus protégés » l’un des sujets à traiter officiellement par le groupe de travail HTML” … Ils osent vouloir aborder ces sujets, les salauds ! .. Il faut en effet absolument les en empêcher.



au passage, point neutralité décerné à italiandragon, en 3 commentaires.


Le 03/10/2013 à 11h 08

Le lobbyisme à coup de millions sera toujours le plus efficace, quoi qu’on en dise <img data-src=" />








Tim-timmy a écrit :



et donc ils proposent quoi en contrepartie, pour répondre aux problématiques citées ? Rien, restez sur flash ?





HTML 5 permet de lire des vidéos ou de la musique, pas besoin de flash.









Zergy a écrit :



HTML 5 permet de lire des vidéos ou de la musique, pas besoin de flash.







ça parle de diffusion de contenus avec un minimum de protections pour ne pas faciliter encore un peu plus le tipiakage, sans avoir à utiliser un soft/plugin externe/flash pour chaque provider différent, le tout de manière probablement plus portable qu’aujourd’hui …



Moi je suis pour, ça ne sert à rien de mettre des bâtons dans les roues de distributeurs exprès.



Au moins, quand ça continera à ne pas marcher, ils n’iront pas dire que c’est encore la faute aux standards



ça n’empêchera pas du tout le piratage (“si c’est en clair sur mon écran, alors c’est piratable”).



En clair, gagnons du temps, ceux qui proposeront des formats faciles à lire gagneront en popularité par rapport à ceux qui essaient d’organiser artificiellement la pénurie, le contrôle, la restriction, au nom du sacro-saint “ayant droit”, c’est à dire d’énormes boîtes qui possèdent le droit de jouir de la création d’autrui.








2show7 a écrit :



Cela voudrait dire aussi et en partie, plus de marque page ?





<img data-src=" />





L’association espère d’ailleurs que le web lui-même prendra la bonne décision, même si ce n’est pas le cas du W3C.

<img data-src=" />

Le W3C, c’est pas obligatoire.








Tim-timmy a écrit :



ça parle de diffusion de contenus avec un minimum de protections pour ne pas faciliter encore un peu plus le tipiakage, sans avoir à utiliser un soft/plugin externe/flash pour chaque provider différent, le tout de manière probablement plus portable qu’aujourd’hui …







Ca n’empêchera en rien le tipiakage, juste que que le web va se refermer un peu plus et ou chaque société va faire son propre web à sa sauce, notamment avec le javascript.

Le web selon M$, selon Google, selon Netflix etc … Tiens pour une fois, il ni a pas Apple ;)









brazomyna a écrit :



<img data-src=" />







Ok, mettre des DRM n’empêchent pas les marques pages (mais peut-être bien pour l’URL, je me rappelle le refus de liens de la SNCF, et mon esprit en a fait une mauvaise interprétation, désolé)









Zyami a écrit :



Ca n’empêchera en rien le tipiakage, juste que que le web va se refermer un peu plus et ou chaque société va faire son propre web à sa sauce, notamment avec le javascript.

Le web selon M$, selon Google, selon Netflix etc … Tiens pour une fois, il ni a pas Apple ;)







ça ils pourraient le faire sans soucis si ils voulaient, sans attendre de norme ou autre, hein …

PS: après il est clair que les propositions qui ont été faites ne sont pas parfaites, mais refuser d’en parler est toujours la façon la plus stupide de ne pas arriver à ses fins ..









Tim-timmy a écrit :



ça ils pourraient le faire sans soucis si ils voulaient, sans attendre de norme ou autre, hein …

PS: après il est clair que les propositions qui ont été faites ne sont pas parfaites, mais refuser d’en parler est toujours la façon la plus stupide de ne pas arriver à ses fins ..







I



Tim-timmy a écrit :



ça ils pourraient le faire sans soucis si ils voulaient, sans attendre de norme ou autre, hein …

PS: après il est clair que les propositions qui ont été faites ne sont pas parfaites, mais refuser d’en parler est toujours la façon la plus stupide de ne pas arriver à ses fins ..







l faut que ce soir au minimum interopérable avec les différentes machines/navigateurs/OS (Télé, box, console de jeux, Tél, Tablette, PC, montres, lunettes <img data-src=" /> etc …).









Zyami a écrit :



Ca n’empêchera en rien le tipiakage, juste que que le web va se refermer un peu plus et ou chaque société va faire son propre web à sa sauce, notamment avec le javascript.

Le web selon M$, selon Google, selon Netflix etc … Tiens pour une fois, il ni a pas Apple ;)







Ils adorent les bouquets <img data-src=" />





On assisterait alors à un changement profond dans la philosophie du web puisque l’utilisateur final n’aurait plus le dernier mot sur ce qu’il peut voir ou non.



Mais la fondation considère également que les EME ouvrent la voie à un futur restrictif qui verrait par exemple l’interdiction de la consultation des sources d’une page,…



Des extensions comme Adblock s’appuient sur le code source des pages web non ?

Si tel est le cas, ça signifie qu’ABP pourrait être inefficace à l’avenir sur tous les sites utilisant ces nouveaux DRM ?








Tim-timmy a écrit :



ça parle de diffusion de contenus avec un minimum de protections pour ne pas faciliter encore un peu plus le tipiakage, sans avoir à utiliser un soft/plugin externe/flash pour chaque provider différent, le tout de manière probablement plus portable qu’aujourd’hui …







Proposer du contenu en ligne mais vouloir controler sa diffusion, c’est completement utopique.



Si tu peux le lire, tu peux le recopier. Si tu peux le recopier, tu peux le re-diffuser.



Comme on dit, quand le sage montre la lune, le sot regarde le doigt.

Les ayants droits regardent actuellement le doigt.









2show7 a écrit :



Ok, mettre des DRM n’empêchent pas les marques pages (mais peut-être bien pour l’URL, je me rappelle le refus de liens de la SNCF, et mon esprit en a fait une mauvaise interprétation, désolé)





Disons qu’à partir du moment où le navigateur a toute la mécanique pour aller chercher une licence pour lire une video il n’y a qu’un pas pour appliquer la méthode à tout, du blocage de menus jusqu’à effectivement le blocage de marque pages …









Tim-timmy a écrit :



ça parle de diffusion de contenus avec un minimum de protections pour ne pas faciliter encore un peu plus le tipiakage, sans avoir à utiliser un soft/plugin externe/flash pour chaque provider différent, le tout de manière probablement plus portable qu’aujourd’hui …







C’est raté car les EME pourront utiliser des modules externes et propriétaires.









Lanthares a écrit :



Des extensions comme Adblock s’appuient sur le code source des pages web non ?

Si tel est le cas, ça signifie qu’ABP pourrait être inefficace à l’avenir sur tous les sites utilisant ces nouveaux DRM ?







Oui sur les balises META il me semble, mais le pire c’est qu’on risquerait de ne même plus savoir ce que va faire un code javascript sur notre machine.

Dites adieu à votre carnet d’adresse/Contact ?









Tim-timmy a écrit :



ça parle de diffusion de contenus avec un minimum de protections pour ne pas faciliter encore un peu plus le tipiakage, sans avoir à utiliser un soft/plugin externe/flash pour chaque provider différent, le tout de manière probablement plus portable qu’aujourd’hui …





Les DRM ne datent pas d’hier.

Existe-t’il un seul exemple qui a fonctionné ?



Les DRM n’empechent pas et n’empecheront jamais le tipiakage, c’est juste une usine à gaz qui nuit à ceux qui ne tipiakent pas.

Le meilleur moyen d’eviter le tipiakage justement est d’enlever les DRM et de vendre les produits à des prix raisonnables pour le plus grand nombre.



En gros plutot que de se mettre d’accord sur des plateformes communes, ergonomiques et fonctionnelles, les fournisseurs de contenus préfèrent défendre leur pré carré en essayant d’arrêter un tsunami avec des sacs de sable…





Mais la fondation considère également que les EME ouvrent la voie à un futur restrictif qui verrait par exemple l’interdiction de la consultation des sources d’une page, la protection des polices embarquées, le blocage du téléchargement des images ou encore la récupération d’un code JavaScript.



Trop bien… très pratique…

Mais bon, c’est pour sauver les artistes comme Cantat et Polanski des vilains pirates qui tuent et violent. <img data-src=" />

Et TINA, parce que sinon c’est le domaine publique, et le domaine public, c’est l’URSS (© Nicolas Seydoux) <img data-src=" />







Para-doxe a écrit :



C’est raté car les EME pourront utiliser des modules externes et propriétaires.





Chuuuut, laisse-lui ses rêves.









Vellou a écrit :



Proposer du contenu en ligne mais vouloir controler sa diffusion, c’est completement utopique.



Si tu peux le lire, tu peux le recopier. Si tu peux le recopier, tu peux le re-diffuser.



Comme on dit, quand le sage montre la lune, le sot regarde le doigt.

Les ayants droits regardent actuellement le doigt.





Sauf s’ils contrôlent aussi les terminaux de lecture (vive les télécrans).









Zyami a écrit :



Oui sur les balises META il me semble, mais le pire c’est qu’on risquerait de ne même plus savoir ce que va faire un code javascript sur notre machine.

Dites adieu à votre carnet d’adresse/Contact ?





On peut donc penser que la plupart des sites vivant en partie ou totalement de la pub implémenteront ces DRM pour a minima empêcher les bloqueurs de pub de fonctionner.









Lanthares a écrit :



On peut donc penser que la plupart des sites vivant en partie ou totalement de la pub implémenteront ces DRM pour a minima empêcher les bloqueurs de pub de fonctionner.







Je vois déjà pour le steaming, ils diminuent légèrement ton écran pour insérer momentanément une pub <img data-src=" />









Lanthares a écrit :



Des extensions comme Adblock s’appuient sur le code source des pages web non ?

Si tel est le cas, ça signifie qu’ABP pourrait être inefficace à l’avenir sur tous les sites utilisant ces nouveaux DRM ?





Oui, enfin j’ai quand même un doute sur l’efficacité de la mesure. J’ai quand même tendance à penser que l’EFF s’est rendu compte que l’argument des DRMs-sur-la-vidéo-c’est-le-mal ça va pas convaincre grand monde, vu que la situation actuelle est déjà pire (avec flash/silverlight), du coup on va chercher un argument qui va faire peur. Hors au final, un DRM sur le source de la page ça semble difficilement réalisable, pour que ça soit efficace, il faudrait que les navigateurs deviennent des logiciels propriétaires, autrement, il sera toujours très facile de s’intercaler entre le décryptage de la page et l’affichage.



Aujourd’hui ça marche sur la vidéo, parce que le module de décryptage des flux vidéo est propriétaire et parle directement avec le pilote de la carte graphique qui est généralement propriétaire aussi, du coup, c’est nettement plus difficile de s’intercaler entre le moment où le flux vidéo est protégé et le moment où il ne l’est plus (oui, je sais c’est toujours possible, mais ça devient nettement plus compliqué pour l’utilisateur).



Donc en fait l’EFF fustige le W3C de vouloir discuter du bien-fondé et des possibilités d’unifier les API des contenus protégés…



En gros chacun est dans son rôle :




  • le W3C cherche à unifier des pratiques disparates

  • l’EFF cherche à défendre l’ouverture du Web



    Rien de nouveau sous le Soleil… <img data-src=" />





    En espérant tout de même que les positions de l’EFF l’emportent histoire de bien emmerder les majors. <img data-src=" />








Lanthares a écrit :



On peut donc penser que la plupart des sites vivant en partie ou totalement de la pub implémenteront ces DRM pour a minima empêcher les bloqueurs de pub de fonctionner.







D’un autre côté, si t’installes pas leur module de déchiffrage, il l’auront dans l’os. Et si vraiment tu dois le faire, tu installeras DRMBlock, l’extension qui empêchera les contenu sous DRM de se charger automatiquement.



Plus globalement, je vois mal comment cette architecture, en l’état, pourra DRMisé du javascript, mais j’y connais pas grand chose en programmation web.



Les restrictions existent déjà : restrictions géographiques, pages ouvertes aux abonnés seulement…



Le fait d’ajouter des DRM dans HTML permettra de le faire d’une seule façon et pas passer par un player différent pour chaque fournisseur.








cyrilleberger a écrit :



Oui, enfin j’ai quand même un doute sur l’efficacité de la mesure. J’ai quand même tendance à penser que l’EFF s’est rendu compte que l’argument des DRMs-sur-la-vidéo-c’est-le-mal ça va pas convaincre grand monde, vu que la situation actuelle est déjà pire (avec flash/silverlight), du coup on va chercher un argument qui va faire peur. Hors au final, un DRM sur le source de la page ça semble difficilement réalisable, pour que ça soit efficace, il faudrait que les navigateurs deviennent des logiciels propriétaires, autrement, il sera toujours très facile de s’intercaler entre le décryptage de la page et l’affichage.







J’ai un peu la même impression.









cyrilleberger a écrit :



Oui, enfin j’ai quand même un doute sur l’efficacité de la mesure. J’ai quand même tendance à penser que l’EFF s’est rendu compte que l’argument des DRMs-sur-la-vidéo-c’est-le-mal ça va pas convaincre grand monde, vu que la situation actuelle est déjà pire (avec flash/silverlight), du coup on va chercher un argument qui va faire peur. Hors au final, un DRM sur le source de la page ça semble difficilement réalisable, pour que ça soit efficace, il faudrait que les navigateurs deviennent des logiciels propriétaires, autrement, il sera toujours très facile de s’intercaler entre le décryptage de la page et l’affichage.



Aujourd’hui ça marche sur la vidéo, parce que le module de décryptage des flux vidéo est propriétaire et parle directement avec le pilote de la carte graphique qui est généralement propriétaire aussi, du coup, c’est nettement plus difficile de s’intercaler entre le moment où le flux vidéo est protégé et le moment où il ne l’est plus (oui, je sais c’est toujours possible, mais ça devient nettement plus compliqué pour l’utilisateur).







A partir du moment ou seul quelques entreprises fabriquent aussi les terminaux, le pas à franchir n’est pas immenses.

Si on enlève le marché du PC, ceux qui dominent le marché mondial se comptent sur les doigts d’une main (et ils sont parties prenantes de la W3C).









le podoclaste a écrit :



Plus globalement, je vois mal comment cette architecture, en l’état, pourra DRMisé du javascript, mais j’y connais pas grand chose en programmation web.







En le compilant tout simplement là où aujourd’hui les sources sont consultable librement.









Tim-timmy a écrit :



ça parle de diffusion de contenus avec un minimum de protections pour ne pas faciliter encore un peu plus le tipiakage, sans avoir à utiliser un soft/plugin externe/flash pour chaque provider différent, le tout de manière probablement plus portable qu’aujourd’hui …







Et pourquoi tout ses industriels pleins de fric ne font pas leur propre système au lieu de venir parasiter un truc qui n’a rien à voir ? Surtout qu’ils ont perdu la bataille depuis bien longtemps et que les technologies à mettre en place pour l’empêcher sont bien trop dangereuses pour quelque chose qui ne profitera au final qu’a leurs actionnaires.









Lanthares a écrit :



Des extensions comme Adblock s’appuient sur le code source des pages web non ?

Si tel est le cas, ça signifie qu’ABP pourrait être inefficace à l’avenir sur tous les sites utilisant ces nouveaux DRM ?





C’est surtout que ça ouvre une porte qui permettrait à des tiers de choisir à ta place ce que tu as le droit de faire avec ton navigateur sur ton pc.









Zyami a écrit :



En le compilant tout simplement là où aujourd’hui les sources sont consultable librement.







Oui, mais comment on exécute ce code compilé ? Soit une couche d’interprétation est mis dans les navigateurs, et là on n’est plus vraiment dans le domaine des DRM, soit EME le déchiffre, et il est très probable que les navigateurs (au moins ceux libres) te livre le code en clair si tu consultes le code source de la page.









le podoclaste a écrit :



Oui, mais comment on exécute ce code compilé ? Soit une couche d’interprétation est mis dans les navigateurs, et là on n’est plus vraiment dans le domaine des DRM, soit EME le déchiffre, et il est très probable que les navigateurs (au moins ceux libres) te livre le code en clair si tu consultes le code source de la page.







Pas besoin qu’elle soit dans le navigateur, elle peut être être fourni avec la page sous forme d’extension elles aussi compilées par exemple, tout comme aujourd’hui il est possible exécuter l’Unreal Engine sur Firefox et pourtant c’est du C/C++ à la base.









le podoclaste a écrit :



Oui, mais comment on exécute ce code compilé ? Soit une couche d’interprétation est mis dans les navigateurs, et là on n’est plus vraiment dans le domaine des DRM, soit EME le déchiffre, et il est très probable que les navigateurs (au moins ceux libres) te livre le code en clair si tu consultes le code source de la page.





Ne crois tu pas que la partie ‘Platform capabilities’ pourrais impliquer des protections matériels pour l’accès au contenu en question ?



La neutralité du web serait donc de se rendre sourd aux besoins de certains acteurs dans le domaine ? Ce serait prendre parti ?



Qu’on le veuille ou non, le thème de la restriction d’accès au contenu ne peut pas être écarté comme par magie.



Si le W3C propose de réfléchir à une norme, c’est pour chasser de probables futurs standards qui seraient très certainement bien moins respectueux des utilisateurs.





Le W3C est probablement un peu plus au milieu de la bataille que l’EFF par ce choix.







De toute façon, nous savons tous qu’il ne faudra pas longtemps pour qu’un pareil système soit outre-passé et rendu caduque.








Mihashi a écrit :



Sauf s’ils contrôlent aussi les terminaux de lecture (vive les télécrans).







Non. On peut toujours capturer une partie de l’ecran pour prendre la video, ou alors on peut filmer l’ecran.

Il y a toujours des moyens de contournement.



Utopique, je te dis.



“Ce contenu n’est pas disponible pour votre navigateur”



Un message qui va se généraliser, surtout pour les navigateurs open-source…








Zyami a écrit :



A partir du moment ou seul quelques entreprises fabriquent aussi les terminaux, le pas à franchir n’est pas immenses.

Si on enlève le marché du PC, ceux qui dominent le marché mondial se comptent sur les doigts d’une main (et ils sont parties prenantes de la W3C).







Oui mais dans ce cas là, ils ont de tout façon pas besoin d’une norme W3C (ce qui a déjà été tenté par Microsoft avec IE6).









Zyami a écrit :



Pas besoin qu’elle soit dans le navigateur, elle peut être être fourni avec la page sous forme d’extension elles aussi compilées par exemple, tout comme aujourd’hui il est possible exécuter l’Unreal Engine sur Firefox et pourtant c’est du C/C++ à la base.







Dans ce cas, pas besoin de cette architecture, le risque et le problème se posent déjà.







TaigaIV a écrit :



Ne crois tu pas que la partie ‘Platform capabilities’ pourrais impliquer des protections matériels pour l’accès au contenu en question ?







Peut-être. Je suis pas calé en architecture web.



Ceci dit, on peut se poser la question du devenir de navigateurs libres comme Firefox.

Si une telle norme finit par imposer des outils internes sous licence propriétaire (ce dont je doute, mais une pierre après l’autre… sait-on jamais), un problème pourrait se poser sur le plan légal.



Un problème qui pourrait aggraver la perte de parts de marché des Firefox face à des Chrome ou Internet Explorer qui se moquent bien de payer un million ou deux de plus.

Cela rappelle fortement la problématique des formats audio/vidéo supportés par les navigateurs aujourd’hui (aka “pas de mp3 dans Firefox”).


Plus généralement, cette décision ramène une fois de plus à l’éternelle question du libre accès à la culture.



Tant que personne ne voudra traiter sérieusement le fond de cette question on aura droit à un incessant florilège de mesures dictatoriales et de solutions techniques aberrantes auxquelles le W3C vient d’apporter son soutien.


Votre FAI X ne vous permet pas d’accéder à ce site (idem pour les FAI Z, W, V), par contre l’abonnement chez le FAI Y vous le permettrait



Liberté totale pour la vaseline (parmi les pharmacies G, O, Q) <img data-src=" /><img data-src=" />








Pazns a écrit :



Ceci dit, on peut se poser la question du devenir de navigateurs libres comme Firefox.

Si une telle norme finit par imposer des outils internes sous licence propriétaire (ce dont je doute, mais une pierre après l’autre… sait-on jamais), un problème pourrait se poser sur le plan légal.



Un problème qui pourrait aggraver la perte de parts de marché des Firefox face à des Chrome ou Internet Explorer qui se moquent bien de payer un million ou deux de plus.

Cela rappelle fortement la problématique des formats audio/vidéo supportés par les navigateurs aujourd’hui (aka “pas de mp3 dans Firefox”).





Petite question pour rebondir sur ce que tu dis

Si le W3C pose un truc nécessitant une licence, le truc en question ne devient-il pas FRAND (ou une forme semblable) ?









WereWindle a écrit :



Petite question pour rebondir sur ce que tu dis

Si le W3C pose un truc nécessitant une licence, le truc en question ne devient-il pas FRAND (ou une forme semblable) ?





La beauté du truc, c’est que ça ne concerne que l’interfaçage navigateur-contenu=&gt;DRM… donc les specs peuvent être libre et gratuites et avoir tout de même les pourvoyeurs de systèmes DRM décider qui sera effectivement interfacé ou pas… En gros, un éditeur de navigateur libre ou pas pourra être complètement boudé par les éditeurs de DRM s’ils le décident.









Zyami a écrit :



Oui sur les balises META il me semble, mais le pire c’est qu’on risquerait de ne même plus savoir ce que va faire un code javascript sur notre machine.

Dites adieu à votre carnet d’adresse/Contact ?





En quoi visiter une page web avec mon navigateur affecte mon carnet d’adresses ?<img data-src=" />









Ricard a écrit :



En quoi visiter une page web avec mon navigateur affecte mon carnet d’adresses ?<img data-src=" />







A partir du moment ou tu ne contrôle pas ce que va faire le JS sur ta machine, comment peux tu savoir ce qu’elle va envoyer sur les serveurs ?









Zergy a écrit :



HTML 5 permet de lire des vidéos ou de la musique, pas besoin de flash.







En effet, mais pour l’instant, la vidéo est accessible directement en copie.







Tim-timmy a écrit :



et donc ils proposent quoi en contrepartie, pour répondre aux problématiques citées ? Rien, restez sur flash ?





En effet, la question est selon moi complexe. Je pense que le “web” et les standard défini par la W3C se doivent d’être universel, de la même manière qu’un code C ANSI doit fonctionner sur n’importe quel machine quel que soit son architecture. De plus la philosophie du web est basé sur le partage. De ce fait, les acteurs traditionnelle du web considère que tout ce qui est diffusé sur le web ne peut être empêché d’être copier. C’est comme ça que fonctionne google et tout les moteur de recherche, il copie les pages. L’introduction de droit d’auteur (et donc par exemple des journaliste) provoque aussi des cas absurdes (google vs les journaliste français du monde papier).



Donc de cette réflexion, qui m’est personnel, je crois que les DRM n’ont rien à faire dans les normes du web. Si tu veux diffuser un document avec des DRM ça sera sur autre chose que du web. Donc pour lire un tel document, il me semble que l’une des solution envisageable reste de passer par un plugin et un autre protoque que le web.









Zyami a écrit :



A partir du moment ou tu ne contrôle pas ce que va faire le JS sur ta machine, comment peux tu savoir ce qu’elle va envoyer sur les serveurs ?





Ben je repose encore la question… Je ne vois pas comment mon navigateur va envoyer mon carnet d’adresses, JS ou non…<img data-src=" />









Zyami a écrit :



Le web selon M$, selon Google, selon Netflix etc … Tiens pour une fois, il ni a pas Apple ;)







beh non apple veulent encore que tu installe leur plugin quicktime pour voir leurs vidéos de “Amazing!” sur leur site <img data-src=" />



ce que les world companies on voulu créer : la télé satellite “interactive” on a vu ce que ca donnait <img data-src=" />

ce que les universitaires et les gens enfin libérés des contraintes ont crées : Internet



ce que les world companies voudraient récupérer : Internet

ce qu’elle vont donc détruire : leur nouvelle poule aux oeufs d’or.



de toute façon un jour on aura un internet 2.0 (un vrai) qui sera créé par tous les gens qui font l’internet d’aujourd’hui. car des techniciens pointus ils y en a des millions, des fabriquant naturels de contenus; encore plus!



il nous faudra juste reprendre le pouvoir politique mais ne sommes nous pas en democratie? ne sommes nous pas le fameux monde libre défendable à tout prix?

le loup devra enfin sortir du bois et nous comprendrons enfin qui est le véritable ennemi. car ce loup a toujours envie de plus en plus et il ne sais plus quand il est rassasié.











Vellou a écrit :



Proposer du contenu en ligne mais vouloir controler sa diffusion, c’est completement utopique.



Si tu peux le lire, tu peux le recopier. Si tu peux le recopier, tu peux le re-diffuser.



Tu vas recopier un flux chiffré, le re-diffuser ne vas pas servir à grand chose. <img data-src=" />









carbier a écrit :



Les DRM ne datent pas d’hier.

Existe-t’il un seul exemple qui a fonctionné ?





Le Bluray avec BD+.









Vellou a écrit :



Non. On peut toujours capturer une partie de l’ecran pour prendre la video, ou alors on peut filmer l’ecran.

Il y a toujours des moyens de contournement.



Utopique, je te dis.





Ca va faire une qualitäy dégueulasse. <img data-src=" />









Zyami a écrit :



A partir du moment ou tu ne contrôle pas ce que va faire le JS sur ta machine, comment peux tu savoir ce qu’elle va envoyer sur les serveurs ?



Je ne sais pas où tu vois ça dans la description des EME.









psn00ps a écrit :



Je ne sais pas où tu vois ça dans la description des EME.







J’en viens juste à supposer qu’ils vont compiler le JS.









moggbomber a écrit :



de toute façon un jour on aura un internet 2.0 (un vrai) qui sera créé par tous les gens qui font l’internet d’aujourd’hui. car des techniciens pointus ils y en a des millions, des fabriquant naturels de contenus; encore plus!







Je suis loin d’être contre cette utopie, bien au contraire. Mais l’infrastructure, ça a un coût.

Si produire du contenu est abordable, créer un nouveau réseau mondial est loin d’être une mince affaire…









SebGF a écrit :



Je suis loin d’être contre cette utopie, bien au contraire. Mais l’infrastructure, ça a un coût.

Si produire du contenu est abordable, créer un nouveau réseau mondial est loin d’être une mince affaire…





Freenet, I2P… Les meshs locaux etc…









psn00ps a écrit :



Le Bluray avec BD+.



ca ne fait “que” 5 ans que le BD+ est cassé…









Patch a écrit :



ca ne fait “que” 5 ans que le BD+ est cassé…





On ne peut pas lire les disques BD+ sur un Linux.

On pourra accéder au contenu avec les EME et si j’en crois le bugzila de l’implémentation, sans être lié à la possession d’un matériel spécifique.









psn00ps a écrit :



On ne peut pas lire les disques BD+ sur un Linux.



MakeMKV le permet sans aucun pb.









Patch a écrit :



MakeMKV le permet sans aucun pb.



<img data-src=" /> Devoir faire un RIP préalable, ce n’est pas de la lecture sans pb.









psn00ps a écrit :



<img data-src=" /> Devoir faire un RIP préalable, ce n’est pas de la lecture sans pb.









MakeMKV permet de diffuser en streaming il me semble.



Techniquement parlant, toute personne munie d’un cerveau sait qu’on ne peut pas empêcher la copie numérique de quelque oeuvre que ce soit. Si les DRM ne peuvent pas gagner, ils peuvent néanmoins faire chier le monde : combien de nos chaînes nationales utilisent ainsi des plugins proprios sur leurs sites web, qui pénalisent au final les usagers GNU/Linux ? De quel droit se permettent elles ce qu’il convient d’appeler une discrimination électronique ? Après tout, la redevance annuelle les paie bien pour produire un bien public, alors pourquoi faut-il ensuite repasser une seconde fois à la caisse pour voir ce qu’ils ont produit ? Et en plus, avec du proprio ?



Il y a 2 mois environ, j’ai jeté le plugin flash de mon Iceweasel (Firefox sous Debian), et je remarque simplement que depuis, mon navigateur tourne beaucoup plus vite. J’arrive à consulter environ 50% des videos du web - pour les autres, j’utilise chromium si vraiment la video m’intéresse, sinon je passe mon chemin. En outre, ces “CPU hogs” sont nuisibles, chiants à installer et à maintenir, et surtout non sécurisés… Et là, on touche un autre problème : pourquoi la NSA irait elle s’emmerder à introduire des virus chez vous, si elle peut vous forcer à les installer vous mêmes, de votre propre chef ? Vous croyez sérieusement que toutes ces boîtes noires sont politiquement et stratégiquement “neutres” ?



Sachant ensuite que les recommandations W3C valent pour norme au niveau des webmasters, sauf chez microsoft qui nous a fait perdre 10 ans avec son navigateur de merde, on peut considérer que M. Berners-Lee a finalement rejoint le côté obscure de la force. C’est d’autant plus dommage que s’il y avait bien une personne capable de calmer les instincts primaires de tous ces dealers de drogue, en utilisant son aura morale et mondiale, c’était ce monsieur.



L’histoire démontre donc, une fois n’est pas coutume, que la liberté n’est jamais un acquis, et que si nous voulons un internet libre et ouvert, il faut aussi penser à le défendre, en commençant par adhérer aux associations créées pour.








hansi a écrit :



Après tout, la redevance annuelle les paie bien pour produire un bien public



seulement certaines chaînes.

et les plus chiantes sont seulement celles des groupes TF1/M6… qui ne sont pas touchées par la redevance.