Qualité de service : à la découverte de l'observatoire contesté de l'ARCEP

Qualité de service : à la découverte de l’observatoire contesté de l’ARCEP

On a joué au Roi du silence

Avatar de l'auteur
Guénaël Pépin

Publié dans

Internet

11/12/2014 15 minutes
27

Qualité de service : à la découverte de l'observatoire contesté de l'ARCEP

Promu par Bouygues Telecom, attaqué par Free, le premier rapport, en version bêta, de la qualité de service de l’Internet fixe du régulateur des télécoms a mis le feu aux poudres. Beaucoup de points ont fait polémiques : le financement, le prestataire choisi par les opérateurs, les points de mesure ou encore une méthodologie jugée fragile. Mais que contient-il vraiment ? Nous l’avons décortiqué et posé nos questions à l’ARCEP.

Fin novembre, le régulateur des télécoms (l’ARCEP) a publié un premier observatoire de la qualité du service fixe d’accès à Internet. L’autorité y compare les cinq principaux opérateurs (Bouygues Telecom, Free, Numericable, Orange et SFR) sur leurs principales offres en ADSL, câble et fibre. Particularité : le rapport est en « beta » et l’ARCEP multiplie les avertissements à chaque page, jusqu’aux annexes.

 

Mardi, Bouygues Telecom retirait une publicité vantant sa place de numéro un obtenue dans ce rapport. Après une mise en garde du régulateur, qui a suivi une mise en demeure de Free et de nombreuses critiques de spécialistes à propos de cet observatoire. Et même si le « trublion » refuse de s’exprimer publiquement sur le sujet, il n’en apprécie ni le fond, ni la forme, et cela peut se comprendre : Free y est classé dans la moyenne de la plupart des indicateurs et bon dernier sur le streaming vidéo, où il décroche complètement par rapport à ses concurrents. En cette période de fêtes de fin d'année, la concurrence ne pouvait espérer mieux.

Pourquoi publier cet observatoire et dans quel but ?

Mais reprenons les choses à leurs débuts. Depuis 1997, l’ARCEP publie en son nom un observatoire de la qualité de service mobile, avec les principaux opérateurs. Le régulateur adapte donc ici ce principe à l’Internet fixe, avec deux objectifs : améliorer l’information aux utilisateurs (avoir une idée de la qualité du réseau des opérateurs) et surveiller ce qu'il se passe concernant la question de la neutralité du Net (s’assurer que les fournisseurs d’accès ne dégradent pas la qualité de la connexion Internet principale pour certains services). L’ARCEP veut donner une idée des performances de chaque FAI pour ses clients. Ces mesures doivent compléter celles d’associations de consommateurs, comme 60 Millions de consommateurs par exemple.

 

Le régulateur dit ne pas pouvoir légalement mener lui-même ces tests. En fait, il demande aux opérateurs d’effectuer les mesures de leurs réseaux et de lui envoyer les résultats. Pour cela, lesdits opérateurs ont choisi un prestataire (IP-Label), qui doit mettre en place les points de mesure et leur envoyer les données obtenues. Dans les faits, les résultats ne transitent pas obligatoirement par les FAI. Une situation qui n'est pas sans rappeler celle du mobile où les mesures sont faites en collaboration avec Directique, qui a pour clients des opérateurs faisant là aussi partie du panel de test.

Qui finance le dispositif et décide la méthode à suivre ?

Le prestataire (IP-Label) et le dispositif sont financés par les opérateurs eux-mêmes. L’ARCEP a sélectionné des offres comprenant au moins 100 000 abonnés pour des questions de coûts. « Il serait disproportionné de l'imposer à de plus petits opérateurs », explique l’autorité dans son tchat avec les internautes, organisé le 4 décembre. D’autres FAI auraient demandé à intégrer la prochaine vague de mesures. De son côté, OVH nous précise par exemple que si l'« ARCEP étendait son étude à d’autres acteurs, nous en ferions la demande ».

 

Les détails de l’observatoire ont été définis par un comité technique, composé d’un côté de représentants des cinq opérateurs mesurés, de la Fédération française des télécoms (FFT) et de l’autre de l’ARCEP, de sept associations de consommateurs (dont l’UFC et La Quadrature du Net) et d’experts (INRIA et AFNIC). Dans les faits, certains membres auraient été plus présents que d’autres, y compris entre les opérateurs. Pour l’ARCEP, comme nous le révélions début décembre, les critiques de Free feraient suite à un engagement réduit dans le comité technique ; ce dont Free se défend en privé. Pour autant, une domination des opérateurs au sein de ce comité technique reste encore à prouver.

 

ARCEP

Qui a choisi le prestataire pour effectuer les mesures ?

Le prestataire de mesure, IP-Label, a été choisi par les opérateurs du comité technique. La Fédération française des télécoms (dont Free ne fait pas partie) a coordonné  l’appel d’offres qui a mené à ce choix. Un choix validé par le comité technique, ARCEP compris. Détail qui a son importance : IP-Label a pour clients Orange, SFR, Bouygues Telecom et Numericable.

 

« Les cinq opérateurs cumulés ne représentent qu'une faible part du chiffre d'affaires d'IP-Label », explique l’ARCEP dans son tchat avec les internautes, sur la base de données envoyées par le prestataire. De plus, « il n’y a pas mille entreprises capables de mettre en place un tel dispositif » de mesure, affirme un spécialiste du dossier proche de l’ARCEP. IP-Label est également certifié « NF ISO 9001:2008 ».

 

Autre garantie, consentie « par écrit » par les opérateurs : l’ARCEP peut auditer à tout moment le travail effectué et interagir directement avec IP-Label, « notamment pour échanger des données et préciser le fonctionnement du dispositif » selon le rapport. Selon le même proche de l’ARCEP, l’autorité « ne peut pas vraiment vérifier si un opérateur triche ou non ». Tout juste le régulateur dispose-t-il de sa capacité d’audit.

 

Contacté sur le sujet, IP-Label a malheureusement refusé tout entretien, évoquant « le secret du contrat » et renvoyant aux experts de l’ARCEP.

Quels sont les indicateurs mesurés ? Quels sont les résultats ?

Six indicateurs sont mesurés : trois techniques et trois « d’usage ». Côté technique, il s’agit des débits montants et descendants, de la latence et de la perte de paquets. Les lignes sont testées avec des « mires » placées sur Internet. Certaines sont « proches », c’est-à-dire directement interconnectées avec le réseau de l’opérateur, pour représenter des conditions idéales. D’autres sont « lointaines », séparées de l’opérateur par un ou plusieurs réseaux, pour représenter des conditions plus réalistes. Leur emplacement a été choisi par les FAI.

 

Sur les usages, l’observatoire a analysé de la navigation web (sur 14 sites populaires selon Médiamétrie, français et étrangers), le streaming vidéo (sur YouTube, Dailymotion, Vimeo et Metacafe) et le téléchargement en pair-à-pair (téléchargement de la dernière version d’Ubuntu pendant 60 secondes). Le streaming vidéo dispose de sous-indicateurs comme le temps de négociation, la fluidité ou le nombre d’interruptions de la lecture.

 

Les résultats, eux, sont disparates dans cette première version. L’ARCEP n’a publié qu’un résultat commun à tous les opérateurs pour les indicateurs techniques, les problèmes de méthode étant trop nombreux. Orange, notamment, n’a pas fourni son forfait le plus populaire en fibre optique, empêchant la mesure. Les résultats eux-mêmes ne sont pas surprenants : les performances des lignes ADSL sont moindres que celles du câble, qui se fait écraser par le FTTH à 100 Mb/s ou plus.

 

Concernant les usages, Bouygues Telecom est majoritairement premier, suivi de près par Orange, puis par SFR et Free. Sur le streaming vidéo en ADSL, Free décroche et affiche des résultats bien en deçà de ses concurrents, qui sont eux dans un mouchoir de poche (voir notre article). SFR est par contre distancé sur le débit de téléchargement en P2P, de peu.

Les lignes mesurées sont-elles représentatives de celle d'un client final ?

« Les mesures ont été effectuées sur trois à six lignes par catégorie d’accès, réparties sur huit sites en France métropolitaine, dans des conditions permettant de s’affranchir d’un grand nombre de biais », affirme l'ARCEP dans son rapport. Les forfaits testés sont les offres « triple play » les plus vendues dans leur catégorie ou doivent au moins représenter 30 % des ventes.

 

Le régulateur prévient pourtant bien des biais de son étude : un nombre très limité de points de mesure (dont certaines lignes tirées spécialement pour être mesurées), l'usage d'un équipement performant en Ethernet (pas de Wi-Fi ou de matériel lent) et pas d'usage en parallèle de la connexion. En clair, il ne s'agit pas de mesurer l'expérience qu'a l'utilisateur mais la qualité du réseau jusqu'à sa box (et encore, dans des conditions idéales).

 

Voici d'ailleurs à quoi ressemble « un site de test »,  dont le seul point commun avec la configuration d'un particulier est la présence d'une box (dont la configuration n'est pas précisée) :

 

ARCEP QoS

 

Pour chaque indicateur, plusieurs types de lignes sont testés. En ADSL, sont testées des lignes courtes, moyennes et longues (simulées en appliquant une atténuation du signal). En câble, des connexions jusqu'à 30 Mb/s et jusqu'à 100 Mb/s sont essayées. En fibre, des connexions à 100 Mb/s, avec pour référence des connexions à 200 Mb/s, alors que les offres actuelles proposent déjà 300 Mb/s, voire 1 Gb/s. Selon l'ARCEP, ces vitesses pourraient être prises en compte dans une prochaine version.

 

Les forfaits mesurés sont donc les plus populaires de chaque catégorie, en évitant au mieux l’influence des options sur le débit, comme la TV. Certains pans entiers des abonnements sont oubliés, comme les abonnés non-dégroupés des opérateurs alternatifs ou les 20 % d’abonnés ADSL qui ne sont pas passés en ADSL2+. On regrettera également que le VDSL2 ne soit pas encore pris en compte, alors que cette technologie est pourtant ouverte à toutes les lignes (à condition qu'elles soient suffisamment courtes) depuis plusieurs mois maintenant. Le régulateur précise néanmoins que le « VDSL sera inclus dans le dispositif pour le prochain cycle de mesure ».

 

Concrètement, l’ARCEP dit ses mesures représentatives, mais pas trop. Elles sont censées donner une idée générale du réseau mais ne peuvent pas tenir compte des disparités géographiques ou des équipements en bout de ligne. Interrogée dans une série de questions, l’ARCEP s’est refusée à répondre sur la provenance ou la configuration des box Internet utilisées pour les mesures. Ces détails semblent même échapper au régulateur dans cette première vague de mesures.

Les mesures sont-elles réalistes ?

Sur ce point, l’ARCEP tient à rester muet. Nos nombreuses questions à ce sujet sont restées lettres mortes et le rapport ne va pas en profondeur dans les choix techniques. Concrètement, ces mesures ont été effectuées du 26 mai au 30 juin, une période « exceptionnellement courte », qui a précédé l’arrivée de certains experts de l’ARCEP sur le dossier.

 

L’ARCEP a aussi refusé de répondre à nos questions concernant ces indicateurs. Sur le streaming vidéo, les mesures sont effectuées à partir de vidéos précises. Les résultats peuvent « varier » d’une plateforme à l’autre, selon leurs choix techniques (privilégier le temps de chargement, la fluidité, etc). Le régulateur n’a pas su répondre quant à l’influence des caches et CDN de ces plateformes, à part que c’est un point soulevé par les experts en comité technique, qui aurait été adressé. Sur les quatre plateformes utilisées, le choix de Metacafe peut interroger, tant elle est peu utilisée par les internautes français. Les lignes ADSL longues ont aussi droit à des conditions spéciales. Au lieu d’une vidéo en 720p à 4 Mb/s, ces lignes sont testées dans une version en 360p.

 

Concernant le téléchargement BitTorrent (une image d’Ubuntu pendant une minute), il est difficile de dire la mesure représentative. La période de téléchargement est trop courte pour subir les aléas classiques d’un téléchargement pair-à-pair, en fonction des sources disponibles. De même, le téléchargement d’Ubuntu est loin d’être l’usage principal de ce protocole. Ce choix s’explique tout de même par les contraintes de l’ARCEP : pouvoir répéter le test de nombreuses fois, à tout moment. Interrogé sur la possibilité d’intégrer d’autres plateformes, l’ARCEP n’a pas répondu à nos sollicitations.

 

Les mesures ont été menées aléatoirement, sur deux plages horaires : de 7h à minuit pour représenter une « journée complète » et de 18h à 23h pour la période où le réseau est le plus chargé. L’ARCEP ne nous a pas répondu précisément sur ce point, non plus. Nous ne savons donc pas si les mesures « aléatoires » le sont réellement, ou si elles sont éventuellement compensées pour avoir une répartition équitable entre tous les types de lignes.

Pourquoi ce bilan de qualité de service fixe fait-il polémique ?

Même si l’observatoire est un premier essai, aux mesures criblées de problèmes, l’ARCEP a décidé d’en publier les résultats fin novembre. Avec un avertissement clair : la prudence est de mise et les résultats ne représentent rien. Il n’est donc pas question de s’en servir, encore moins commercialement. Pourtant, dès le lendemain, Bouygues Telecom vante publiquement les bons résultats de son réseau, présenté comme grand gagnant de cet observatoire.

 

Un affront pour Free, bon dernier sur certains indicateurs d’usage, qui met en demeure son concurrent et l’ARCEP début décembre. Le trublion souhaite que Bouygues Telecom cesse « toute communication » sur l’observatoire. Bouygues répond que « dans le communiqué nous avons renvoyé au rapport de l'Arcep par une mention spécifique et que ce rapport dit (quasiment à chaque page....) qu'il y a des précautions à prendre », mais sans mettre de lien direct, c'est donc au lecteur d'aller chercher les avertissements. La qualité du réseau (fixe ou mobile) est un des principaux axes de communication des opérateurs, pour se vanter et dénigrer les concurrents. En utilisant ce rapport, Bouygues Telecom a jeté de l’huile sur le feu.

 

Du côté de l’ARCEP, on répond simplement que c’est un travail utile, qui devait être publié. « L'ARCEP a considéré que ces données, même incomplètes, présentaient un intérêt pour le public. Il s'agit d'une première version qui nous permet de faire de la pédagogie sur un sujet complexe », déclare l’autorité dans son tchat du 4 décembre. Le ton change quelque peu quant à l’utilisation par Bouygues Telecom, virant presque à l’agacement. Selon un responsable du régulateur, le but premier n’est pas de « servir la communication » des fournisseurs d’accès. « Ce n’est pas du tout l’esprit », ajoute-t-il.

 

Réaction le week-end dernier : l’ARCEP réitère ses mises en garde, notamment sur l’utilisation commerciale de ses données… suivie mardi 9 décembre de l’annonce du retrait de la campagne de Bouygues Telecom. Cela après quelques jours de diffusion et une sollicitation de l'Autorité de Régulation Professionnelle de la Publicité (ARPP), comme nous le révélions mardi.

Pourquoi ne pas faire du speedtest chez les utilisateurs ?

C’est prévu dans un second temps. En plus de l’outil de mesure financé par les opérateurs, l’ARCEP prévoit un « outil complémentaire » consistant en un outil de speedtest proposé aux internautes. L’autorité refuse pourtant de donner plus de détails. Sollicité plusieurs fois, le régulateur n’a pas encore de calendrier à donner, et encore moins de nom de prestataire ou d'informations concernant le financement dudit dispositif. Les travaux sur ce second outil doivent débuter l’année prochaine.

 

Interrogée sur une mesure « chez les internautes », avec un boitier branché à la box d’abonnés volontaires (comme le proposent le RIPE Atlas ou SamKnows), l’ARCEP botte en touche. Tout juste sait-on que cette possibilité a été envisagée avant d’être rejetée, l’autorité n’ayant notamment pas les moyens de financer un tel projet. Rien ne dit néanmoins que cela ne viendra pas plus tard, pour une prochaine version de l’observatoire.

Écrit par Guénaël Pépin

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Pourquoi publier cet observatoire et dans quel but ?

Qui finance le dispositif et décide la méthode à suivre ?

Qui a choisi le prestataire pour effectuer les mesures ?

Quels sont les indicateurs mesurés ? Quels sont les résultats ?

Les lignes mesurées sont-elles représentatives de celle d'un client final ?

Les mesures sont-elles réalistes ?

Pourquoi ce bilan de qualité de service fixe fait-il polémique ?

Pourquoi ne pas faire du speedtest chez les utilisateurs ?

Fermer

Commentaires (27)


 Le classique débat entre les users et le département informatique

DI : nous avons 99.9999% d’availability etc …

Users: non on a été planté 5 fois cette semaine

J’ai fini par faire installer des robots ( des postes de travail avec pas mal de scripts représentatifs de ce que faisaient les clients ) et ce dans chaque site de plus de 20 postes

Et ce que le client ressentait était juste même si sur le papier nous avions techniquement raison

On a fini par s’entendre , ce qui nous a beaucoup amélioré ( il y avait de quoi)

Cela prend du temps et dans le cas ici cela sera encore pire car on ne parle pas de sites clients mais d’individuels



PS: j’ai beaucoup aimé les lignes créées spécialement pour les tests !!!&nbsp; <img data-src=" />


Là le problème c’est surtout l’usage d’une version bêta (Voir même plus prototype) du projet de mesure&nbsp; à des fins commercial.

&nbsp;Clairement, l’étude technique est intéressante même si elle cherche plus à mesurer l’infrastructure “coeur” du réseau des opérateurs plus que la boucle local. L’information est tout de même pertinente et plus dans les tendances qu’affichent d’autres outils de tests.

&nbsp;

&nbsp;


L’article est comme beaucoup d’articles de Next Inpact très intéressant et bien plus complet que celui d’autres sites mais il aurait mérité une relecture un peu plus approfondie avant d’être publié.



Cela aurait peut-être évité les coquilles suivantes :





  • “d’interruptions de la lecture. Pour les lignes ADSL longues,” Bizarre le coup du § se finissant sur une virgule

  • “financement dud dispositif.” une contraction de “dudit dispositif” ?

  • “Les forfaits testés sont les offres «&nbsp;triple play&nbsp;» les plus vendues dans la catégorie ou au moins représenter une grande partie des ventes.” Là pour le coup, je demande les sous-titres sur cette phrase :p



    Sinon, j’apprécie beaucoup votre travail et vous souhaite une bonne continuation ;)


Pour les signalements de ce genre, il y a la fonction de signalement ;) je remonte néanmoins du coup


Mouais, je ne sais pas quoi penser de cette enquête.



La méthodologie et sa cible me paraissent pas choisies aux hasard. Les données qui sont produites ne pas pas pour moi utilisable. Cela doit donc concerner les FAI plus que les clients.



Mais tant que l’ARCEP ne peut mener les mesures par elle-même, et qu’elles ne reflètent pas les conditions d’un clients, cette étude restera une bonne intention, au final dévoyées par les FAI et pas utilisables pour les clients.


« Qui a choisi le prestataire pour effectuer les mesures ? »

paragraphe très intéressant qui montre ce qu’il ne faut pas faire quand on ne veut pas de conflits d’intérêts.

&nbsp;Et la dernière phrase du paragraphe montre le souci de transparence qui existe dans cette opération de l’ARCEP (pilotée par l’ARCEP)


Sur l’illustration, les recherches sur les hamsters ont l’air de bien passer.


&nbsp;Mais non t’es trop vieux <img data-src=" />

Elle lui dit “Ptain t’as vu ce ping chez machin chose”

&nbsp;








JoePike a écrit :



Mais non t’es trop vieux <img data-src=" />

Elle lui dit “Ptain t’as vu ce ping chez machin chose”





<img data-src=" />



Pas encore, ça se sera uniquement dans quelques années <img data-src=" />



Conclusion: il s’agit d’une première approche qui ne pourra que s’améliorer avec le temps et les retours d’expérience mais qui a le mérite d’exister.



De toute façon on ne pourra donner une mesure fiable de la qualité et des défauts de chaque FAI dans chaque foyer. Car en ce qui concerne l’utilisation d’un speedtest, laissez moi rire en quoi cela serait plus judicieux ? Et représentatif ? (cf téléphonie mobile)


Au final vaut mieux aller sur grenouille.com il y a moins de mesures différentes mais au moins les échantillons sont représentatif (je ne sais pas si le site est encore actif cela dit)



Je me souvien d’un petit logiciel qui permettait de tester la neutralité du réseau aussi. Aucun souvenir du nom mais ça devait être diffuse par la quadrature ou un organisme du même style


Mon… FAI… il est plus… ra-pide que le tien-heu… nananère-heu.

Oui mais mon FAI il est mieux-heu.

Même pas vrai-heu, t’es un menteur-heu

Miroir


<img data-src=" />

C’est trop ça !!! <img data-src=" />


en gros ça se passe sur 24 à 48 site “représentatifs”….



&nbsp;

«&nbsp;il n’y a pas mille entreprises capables de mettre en place un tel dispositif&nbsp;»

ça fait tellement usine à gaz pour si peu qu’on a l’impression de voir un dossier géré comme les portiques écotaxes….


Pour le coup, la crédibilité de l’ARCEP en prend un coup…








rs26 a écrit :



Pour le coup, la crédibilité de l’ARCEP en prend un coup…





Ah? Et juste pour rire, tu peux nous dire pourquoi ?









127.0.0.1 a écrit :



Mon… FAI… il est plus… ra-pide que le tien-heu… nananère-heu.

Oui mais mon FAI il est mieux-heu.

Même pas vrai-heu, t’es un menteur-heu

Miroir





Ben disons qu’il n’y a pas si longtemps certains FAI bridaient volontairement




  • soit l’accès à certains sites

  • soit leurs abonnés suivant s’ils étaient dégroupés ou pas



    Alors je sais bien que pour certains seul le prix compte, mais pour d’autres des critères supplémentaires sont pris en compte…









linkin623 a écrit :



Mouais, je ne sais pas quoi penser de cette enquête.



La méthodologie et sa cible me paraissent pas choisies aux hasard. Les données qui sont produites ne pas pas pour moi utilisable. Cela doit donc concerner les FAI plus que les clients.



Mais tant que l’ARCEP ne peut mener les mesures par elle-même, et qu’elles ne reflètent pas les conditions d’un clients, cette étude restera une bonne intention, au final dévoyées par les FAI et pas utilisables pour les clients.





Moi ce qui m’a amusé, c’est que c’est les opérateurs qui décident d’où sont testées les lignes…&nbsp;

Je trouve ça complètement stupide que les opérateurs sachent quelle ligne est testée, ça devrait être complètement masqué afin qu’il n’y ait pas de “débridage” possible de la part des opérateurs sur la ligne testée…

&nbsp;De toutes façons faire un test sur 8 lignes, proposées par l’opérateur, potentiellement toutes neuves… Ca n’a rien de représentatif à mon avis…



C’est de la merde en barre ce test :

-Dans un datacenter au cul du backbone

-Câbles de 3 mètres neufs bien colsonnés dans les chemins de câble assurant une CEM impeccable

-Au mieux 4 points de raccordement bien propres dans des connecteurs blindés

-Dans un environnement parfaitement contrôlé et stable



Juste complètement à l’opposé de la majorité des clients :

-Loin du NRA

-2 km de câble trentenaire jeté à l’arrache dans des fourreaux pleins de flotte avec le réseau ERDF qui passe à 20cm

-Des dizaines de points de connexion bien dégueulasses dans les chambres de tirage pleines de flotte

-Des conditions extrêmes, chaleur étouffante l’été dans les armoires de quartier, froid humide en hiver



Le tout testé sur des “clients” parfaitement connus des opérateurs, qui peuvent donc adapter une QoS spécifique afin de les prioriser sur le reste des clients.


Ca crée de grosses perturbations le reseau EDF à proximité?


Plus ou moins, selon la distance à laquelle les câbles sont posés, la longueur de tranchée commune aux deux réseaux, la nature du sol entre les deux etc…



C’est énorme, mais sur une connexion DSL ça peut faire la différence entre un débit théorique de 20Mb/s et un débit réel de synchronisation de seulement 12Mb/s.



Alors que leur installation, c’est du ultra propre, les réseaux électriques et télécom sont dans des chemins de câbles distincts, métalliques fermés et reliés à la Terre, respectant la CEM, et installés à des distances respectant les normes, dedans les câbles sont bien posée, rectilignes, parfaitement parallèles les uns au autres dans de beaux torons fixés tout les 50cm.



Dans la rue, il y a aussi des normes… Mais j’ai souvent vu comment ça se passe : on creuse une tranchée, on amène les fourreaux, et dès que le maitre d’ouvrage a le dos tourné on jette vite fait mal fait tous les fourreaux dans le trou, les uns sur les autres et on rebouche en vitesse.

Sur les gros chantiers c’est souvent fait proprement (en particulier le génie civil), mais sur les petits chantiers (la majorité) ils se font pas chier à faire 4 tranchées étroites avec l’espacement réglementaire, ils en font une large d’un mètre et ils balancent tout dedans, gaz, électricité, eau et télécom.








FunnyD a écrit :



Ca crée de grosses perturbations le reseau EDF à proximité?



ca peut, si c’est mal isolé.

j’ai déjà eu plusieurs abonnés au tél qui perdaient leur synchro ADSL quand l’éclairage public s’allumait, par ex…



Sympa <img data-src=" />








FunnyD a écrit :



Sympa <img data-src=" />



le plus rigolo c’est quand on annonce qu’ils doivent contacter la mairie, vu que ce sera à eux de faire les travaux d’isolation nécessaires… à chaque fois ils croient à une blague alors que c’est indirectement à cause d’eux le pb (comme l’explique bien TBTY) <img data-src=" />









JoePike a écrit :



PS: j’ai beaucoup aimé les lignes créées spécialement pour les tests !!!  <img data-src=" />







D’un côté la ligne, je vois pas trop en quoi elle est importe: elle ne dépend pas du FAI.

A moins que le but soit de tester la qualité du lien ADSL en fonction de l’état de la paire de cuivre… Mais dans ce cas on évalue la qualité du modem de la box, pas la qualité du “réseau”.






Elle ne dépend pas du FAI mais je peux te faire voir un domino installé par un “presta” de FT pour réparer un cable ou le client était Free … ( le mec avait coupé 2 mêtres trop courts et au lieu de remplacer , domino électrique !!!)

(ma voisine a perdu 3 ou 4 mbs dans l’histoire et n’osait même pas aller se plaindre car elle allait rester plantée 2 mois de plus après le mois déja perdu )

Alors des tests ou on installe des lignes spéciales en mettant une bobine pour simuler les km .

Ben ça me fait beaucoup sursauter&nbsp;

&nbsp;<img data-src=" />








Bel Iblis a écrit :



Je me souvien d’un petit logiciel qui permettait de tester la neutralité du réseau aussi. Aucun souvenir du nom mais ça devait être diffuse par la quadrature ou un organisme du même style





Je pense que tu parles de ce site web http://respectmynet.eu/start/ qui recence divers outils (Windows, GNU/Linux, OS X, Android) pour tester son réseau et ses divers protocoles. Divers cas concernant une atteinte à la neutralité du net sont visible&nbsp;icihttp://respectmynet.eu/list/.

C’est en effet un projet de la quadrature du net mais également Bits of Freedom puis des contributeurs individuels. (cf. http://respectmynet.eu/contact/)