On vous explique (simplement) comment fonctionnent les tuyaux d’Internet

On a dit simplement, pas rapidement 33
Accès libre
image dediée
Crédits : jessekarjalainen/iStock
FAI DOSSIER
Sébastien Gavois

Chaque jour, nous utilisons internet comme si de rien n'était, sous diverses formes. Cette « technologie » est de celles, tellement abouties, qu'elles en deviennent invisibles. Mais la réalité de nos connexions et de leurs « tuyaux » est aussi complexe que robuste, comme nous avons pu le constater ces derniers jours. On vous détaille tout ça.

Jusqu'en février dernier, les grandes questions qui se posaient pour l'internet français étaient tout sauf nouvelles, concernant l'évolution de son infrastructure : le fameux plan très haut débit devant mener à une généralisation de la fibre jusqu'à l'abonné sera-t-il dans les temps ? Qui seront les grands vainqueurs et perdants de la révolution 5G ?, etc.

Puis vînt le coronavirus (SARS-CoV-2) et avec lui son lot de réactions et de nouvelles problématiques, comme la mise en place d'un confinement national. Les opérateurs se sont d'abord voulus rassurants : ils étaient prêts, pouvaient affronter la crise... puis patatras. On a vu les politiques exiger la limitation de la définition des services de vidéo pour éviter la surcharge, Orange s'inquiéter du lancement de Disney+, Cédric O obtenir son report

À en croire certains, l'internet français (qui a plus de 250 à 300 Gb/s de bande passante globale, on vous rassure) risquait la surcharge. Argumentaires sur le besoin de préserver le réseau mobile et risques sur le fixe se sont peu à peu mélangés sur fond de conseils plus ou moins bien inspirés, entre #TousEnWifi et besoin de cesser de jouer en ligne

Comment est-on passé en seulement quelques jours d'une situation à l'autre ? Surtout quand plusieurs spécialistes de ces questions battaient en brèches les arguments que l'on pouvait entendre ici ou là à l'époque. C'est malheureusement ce qu'il se passe lorsque les stratégies politiques et commerciales se mêlent aux impératifs techniques en période de crise.

Mais pour l'internaute, l'utilisateur, le citoyen, comment y voir clair ? Lorsque nous avons cherché à analyser la situation, un constat s'imposait avant tout : personne ne comprend rien à la façon dont Internet et ses tuyaux fonctionnent. Nous avons alors décidé de faire turbiner nos méninges à la vitesse de la puissance Fibre* pour tenter de vous expliquer tout ça.

En espérant que cela vous permettra d'y voir plus clair dans ces histoires d'Internet qui sature ou non. Mais, que cela pourra également servir à ceux qui ont à informer ou à prendre des décisions sur ce secteur aussi vital que complexe.

Notre dossier sur la composition d'internet et ses points de saturation potentiels :

Internet, version courte

Lorsque vous naviguez sur le web, qui est une infime partie d'Internet – pour consulter un site par exemple – tout un tas de mécanismes se mettent en branle. Ce sont parfois des centaines de requêtes qui sont effectuées et qui, avant d‘arriver à destination, passeront par de nombreux serveurs qui se trouvent à différents endroits dans le monde.

N’allez pas croire que cela est en rapport avec le pays où se situe le siège du service demandé, les deux sont complètement décorrélés. Par exemple, lorsque vous regardez une vidéo sur Netflix, il y a de fortes chances pour qu’elle vous soit livrée par un serveur situé en France, parfois carrément même dans le datacenter de votre fournisseur d’accès.

D’une manière générale, une requête vers une adresse Internet (URL) est d’abord transmise à un résolveur DNS afin d’être transformée en suite de chiffres (IP). Grâce aux annonces de routes BGP, elle est ensuite redirigée vers un CDN ou bien elle va passer par des backbones, des liens d’interconnexions – via du peering ou des transitaires –, et des IX/IPX pour arriver sur un autre serveur et enfin récupérer les données. 

Elles font ensuite le chemin inverse par paquets jusqu’à votre ordinateur. Qui a dit qu’Internet était compliqué ?!

Vous n’avez pas tout compris ? Voici la version longue

Si après cette courte explication vous avez l’impression de vous retrouver ici, ne vous inquiétez pas… vous n’êtes certainement pas le seul. Voici donc la version longue, mais un peu plus digeste, qui nécessite de connaître quelques termes techniques et notions qui peuvent sembler barbares de prime abord.

Pour rappel, Internet est « officiellement » né en octobre 1969, lorsque la première transmission d’un « paquet » (de données) a été réalisée avec succès entre l’université de Californie (UCLA) et le Stanford Research Institute (SRI), séparé de plusieurs centaines de kilomètres. D’autres universités ont rapidement rejoint ce réseau, qui a ensuite grandi de manière exponentielle, et qui continue aujourd’hui. À la base d'Internet, il y a les protocoles TCP/IP.

Preuve s’il en est besoin : la pénurie des adresses IPv4, une série de chiffres permettant d’identifier une machine de manière unique sur Internet. Aujourd’hui, les milliards d’adresses pouvant être distribuées l'ont été. La relève est déjà disponible avec IPv6, mais ce protocole tarde (depuis des années) à être largement adopté par l’ensemble des acteurs au niveau mondial, et la France n’est pas forcément un bon élève.

Autre rappel important : il ne faut pas confondre Internet et World Wide Web, si le Net est « l'épine dorsale » du Web, ce sont deux choses différentes. Le Web – c’est-à-dire les sites que l’on consulte avec un navigateur et des liens hypertextes – utilise en effet Internet comme support, mais ce n’est qu’une des applications disponibles parmi tant d’autres. Nous pouvons par exemple citer les emails, les messageries instantanées, les partages de fichiers P2P (BitTorrent), etc.

La neutralité du Net est également un point important : en France et en Europe, elle garantit que les paquets sont « égaux » et qu’un opérateur ne peut pas favoriser un service par rapport à un autre. Elle est mise à mal dans certains pays (sous la pression des fournisseurs d’accès), notamment aux États-Unis où le régulateur local l’a enterrée en juin 2018.

Aujourd’hui, Internet est donc utilisé par des milliards de personnes et relie des milliards d’appareils partout à travers le monde, qui doivent pouvoir communiquer les uns avec les autres : ordinateurs, smartphones, tablettes, objets connectés, etc. Cela nécessite un maillage complexe (les interconnexions, nous y reviendrons) et disposer de « cartes » pour trouver le chemin (les routes BGP, nous y reviendrons également)le plus rapide et le plus performant. 

À un bout du réseau, les utilisateurs passent par les fournisseurs d’accès (FAI), qui se connectent à leur tour à d’autres réseaux, permettant ainsi – de proche en proche – de toucher n’importe quelle autre machine connectée à Internet. C’est à cause de ce maillage que l’on utilise parfois la périphrase de « réseau des réseaux » pour en parler.

Vous n’avez pas les bases ? Les définitions à connaître pour commencer

Ce qui n’était au début qu’un réseau de quelques universités regorge aujourd’hui de serveurs, d’utilisateurs et d’intermédiaires comme des CDN, des transitaires, des points d’échange, etc. Avant d’aller plus loin, voici quelques termes techniques qui vous seront utiles dans la suite de ce dossier :

  • Fournisseur d’accès à Internet (FAI) : structures auxquelles on souscrit un abonnement pour accéder à Internet. En France, les quatre plus gros sont Bouygues Telecom, Free, Orange et SFR. Il existe également une myriade de FAI locaux et/ou associatifs, pour le grand public et les professionnels. Ils proposent différentes technologies de raccordement : réseau cuivre (xDSL), fibre (FTTH), câble (FTTLA), satellites, réseaux mobiles (box 4G), etc.
  • Fournisseur de contenu et d’applications (FCA) : détenteurs des contenus qui font appel à des intermédiaires pour les distribuer via Internet. Ils peuvent disposer de serveurs pour les proposer directement aux internautes, mais ce n’est pas obligatoire. On peut citer Netflix, Microsoft, Amazon, Facebook, les chaînes de TV, etc.
  • Hébergeur : les propriétaires des serveurs où sont enregistrés les contenus des FCA. En France les plus connus sont OVHcloud, Scaleway (Online), 1&1, etc. À l’international, il existe des mastodontes comme Amazon Web services, Google Cloud, Microsoft Azure, etc. Ce n’est pas le choix qui manque. 
  • Transitaire : des gestionnaires de réseaux internationaux – avec des fibres à travers le monde – chargés d’acheminer des données entre différentes parties du globe. Ils fournissent des « tuyaux » pour faire circuler les données. C’est notamment le cas de Level 3, Cogent, Open Transit Internet d’Orange (oui, Orange est son propre transitaire), etc.
  • Points d’Échange Internet (IPX) : Une infrastructure physique permettant à différents acteurs d’Internet de s’interconnecter. On peut comparer les points d’échange à de très (très) gros switchs avec une importante capacité (on ne parle pas de Gb/s, mais en Tb/s). Tout le monde peut venir s’y connecter (contre le paiement d’un abonnement), mais ce n’est pas « open bar » pour autant : certains acteurs peuvent être présents de manière restreinte. En Europe nous avons France-IX, DE-CIX, NL-ix, etc. Il peut y en avoir plusieurs par pays et ils sont souvent gérés par des associations dans le but de se détacher des opérateurs et d’afficher une certaine neutralité.
  • Réseaux de Diffusion de Contenu (CDN) : un réseau de serveurs disponibles un peu partout dans le monde faisant office de « cache locaux » (points de présences, ou PoP) et chargé de distribuer du contenu au plus proche des utilisateurs. Un service basé aux États-Unis peut par exemple faire appel à un CDN pour déposer une copie de ses contenus sur d’autres continents et/ou pays. Citons CloudFlare, Akamai, MaxCDN, Limelight ou encore OVH.
  • Backbone : de grosses liaisons au « cœur » des réseaux (les puristes nous pardonneront cette simplification), pour les connexions avec une bande passante importante entre des équipements, généralement dans de grandes villes. Des liaisons « stratégiques » ou des plaques tournantes internes, parfois comparées à des « dorsales Internet ».
  • Collecte : si les backbones étaient des autoroutes, le réseau de collecte correspondrait à des nationales (réseau fibre) et départementales (réseaux cuivre) sillonnant un territoire afin de connecter l’ensemble des personnes. L’ensemble forme ce que l'on appelle la « capillarité » d’un réseau.
  • Autonomous System (AS) : un ensemble de réseaux gérés par une même entité (fournisseurs de services, hébergeurs, intermédiaires techniques, etc.). Il s’agit d’un système autonome (d’où son nom) qui constitue « la brique élémentaire sur Internet » selon l’Arcep (le gendarme français des télécoms). Pour que l’information puisse être échangée d’un point à un autre sur Internet, elle doit être acheminée d’AS en AS, et au sein de chaque AS de routeur en routeur. Une série de chiffres permet de les identifier : AS5410 (Bouygues Télécom), AS12322 (Free), AS3215 (Orange), AS15557/AS21502 (SFR/Numericable), AS16276 (OVH), etc.

Tout est une question de convergence

Comme le rappelle le gendarme des télécoms dans son baromètre de l’interconnexion de juin 2019, « la tendance actuelle du marché est à la convergence entre les différents acteurs ».

Les FCA se transforment ainsi parfois en hébergeur, en transitaire et/ou en CDN avec ses propres infrastructures, en allant jusqu’à proposer des partenariats en direct avec les FAI pour qu’ils hébergent leurs serveurs. C’est notamment le cas de Netflix avec Open Connect qui s’approche ainsi au plus près de ses clients. 

Nous avons également vu des géants du Net tenter de devenir des opérateur FAI, notamment Google aux États-Unis, avant de ralentir fortement la cadence. De leur côté les fournisseurs d'accès opèrent parfois une convergence entre tuyaux et contenus, le spécialiste français du genre étant, SFR (Altice).

Pour rendre compte de cette évolution du marché, l’Arcep avait publié un schéma détaillé :

Arcep interconnexion Internet
Crédits : Arcep

Le peering et le transit : keskecé ?

Après avoir posé ces quelques bases, entrons dans les détails du fonctionnement d’Internet, en commençant par un gros morceau qu’il serait bien difficile de résumer simplement en une ou deux lignes : l’interconnexion.

En effet, pour que le client d’un fournisseur d’accès à Internet puisse, par exemple, joindre un service basé aux États-Unis ou au Japon, il faut que le réseau de son FAI soit en mesure de joindre celui du service souhaité. Pour cela, les deux doivent être reliés, en direct ou via des intermédiaires.

Dans la pratique, cela peut prendre deux formes : le peering ou le transit. Stéphane Bortzmeyer, spécialiste des réseaux, explique que « le terme de peering vient de l’anglais "peer", désignant un pair, un égal. Le peering typique interconnecte deux acteurs de taille comparable, il n’y a pas d’échange d’argent, et chacun ne « donne » accès qu’à son réseau, pas à ceux de tiers ». Ce n’est pas une règle absolue et il peut y avoir des accords de peering payants, entre des acteurs de tailles différentes, etc. Chacun est libre de faire ce qu’il veut avec qui il veut (dans la limite du cadre réglementaire évidemment) du moment que les deux parties sont d’accord.

Il existe deux types de peering :

  • Privé : On parle alors de Private Network Interconnects (PNI). L’interconnexion entre les deux acteurs peut être faite dans les locaux d’un des deux « pairs » ou chez un tiers.
  • Public : L’interconnexion se fait dans un point d’échange (IPX), qui fait office de facilitateur technique. Elle est « visible » par tout le monde, mais ce n’est pas pour autant que tout le monde peut en profiter.

Bortzmeyer enchaîne : « Le peering ne peut pas suffire à tout, car deux opérateurs peuvent être simplement trop éloignés pour cela […] On fait alors appel à des opérateurs qui ont une présence plus large sur la planète, les "transitaires". Quand un opérateur se connecte à un transitaire, c’est lui qui "achète du transit" en payant le transitaire. Le contrat est alors presque toujours formel, et le transitaire lui donne accès à tout l’internet. Les différents transitaires se connectent entre eux par des accords de peering et la boucle est bouclée », ajoute-t-il.  Là encore, il n’y a pas de règles immuables.

Quoi qu’il en soit, peering ou transit, c’est donc avant tout une histoire d’accords commerciaux, de taille des protagonistes, de politique interne et plus globalement de volonté de part et d’autre. Un accord avec un transitaire peut se transformer en peering si le petit acteur grandit, et vice-versa quand le rapport de force s’inverse. 

Pourquoi parle-t-on de Tier 1, Tier 2 et Tier 3 ?

Lorsque l'on évoque ces sujets, on parle parfois d'acteurs Tier 1, 2 et 3. Vous avez peut-être déjà entendu ces noms, sans trop savoir à quoi ils correspondent ? C’est finalement assez simple : il s’agit de classer les opérateurs en trois groupes, selon leur taille. L’interconnexion joue le rôle d’arbitre dans le cas présent.

Les plus gros sont les opérateurs dit Tier 1. Ils ont « développé un réseau longue distance [via des backbones, ndlr] et disposent d’interconnections directes avec les autres opérateurs majeurs au niveau mondial. Ils n’ont recours à aucune prestation de transit pour accéder à l’intégralité des réseaux constituant l’internet », explique l’Arcep.

Orange est ainsi un « petit » Tier 1 et c’est le seul parmi les opérateurs français. À l’international nous pouvons aussi citer AT&T, Level 3, Cogent, Sprint… Vous l’aurez certainement remarqué, Tier 1 ne veut pas forcément dire FAI, des transitaires sont aussi Tier 1.

Les acteurs Tier 2 sont de plus petites tailles. Ils ont des accords de peering entre eux, mais ils se limitent à une certaine zone géographique. Ils doivent donc acheter du transit pour bénéficier d’un accès à l’internet mondial. Le Tier 3, vous l’avez deviné, englobe les autres acteurs « qui n’ont recours qu’au transit pour assurer leur connectivité », selon l'Arcep.

« Cette hiérarchie n’est pas figée, ajoute le régulateur. En effet, en développant ses accords de peering, un Tier 3 peut devenir un Tier 2. Par ailleurs, un Tier 2 peut rentrer en relation de peering avec des Tier 1, devenir un fournisseur de transit et éventuellement avoir le statut de Tier 1 après la mise en place d’accord de peering avec l’ensemble des Tier 1 ». Un Tier 1 peut descendre d’une marche si un (ou plusieurs) autre Tier 1 ne veut plus peerer avec lui et propose un contrat de transit.

Le régulateur des télécoms rappelle aussi que certains gros fournisseurs de contenus et CDN « tentent de déployer leurs propres infrastructures et de gravir cette structure hiérarchique » afin d’entrer dans le club select des Tier 1, en établissant donc des accords de peerings avec les autres Tier 1.

L’interconnexion, c’est le nerf de la guerre

La question de l’interconnexion – peering ou transit – est primordiale dans le fonctionnement d’Internet et elle est au cœur de nombreuses batailles de l’ombre : « [elle] est ainsi susceptible d’influencer de diverses façons l’investissement dans les réseaux, la qualité de service perçue par l’utilisateur final ou encore le rythme d’innovation dans les services, contenus et applications », indique l’Arcep. Un exemple qui a fait couler beaucoup d’encre : le cas YouTube et Netflix avec Free.

Faute d’un accord de peering, les clients du FAI subissaient parfois de grosses lenteurs faute d’une interconnexion suffisante. Une fois l'accord trouvé, un tuyau « direct » reliant Free à Google ou Netflix a été mis en place, évitant les congestions et donc les ralentissements/images dégradés dans les périodes de pointe de consommation. 

Le problème ne date pas d’hier, il y a presque dix ans, une bisbille entre Orange et Cogent était à l’origine de ralentissements pour les abonnés du FAI sur des sites tels de MegaUpload ou MegaVideo. Signalons aussi des soucis entre Orange et Qobuz… En général, les deux parties se renvoient la balle avec une question de fond : qui paie quoi ?

Chaque FAI décide évidemment de sa politique sur les questions d’interconnexion et des serveurs de cache : en installer directement dans ses datacenters en partenariat avec des FCA/hébergeurs, derrière des liens de peering, passer par un transitaire qui s’occupe aussi du cache, etc. Toutes les solutions sont possibles. « On a quatre opérateurs et quatre politiques qui n’ont rien à voir », nous confie un fin connaisseur du secteur.

Il ajoute qu’il faut avoir une vision globale pour déployer efficacement son réseau : « Entre des serveurs de cache sur site qui vont tous être à Paris et des PNI [peering privée, ndlr] à Paris, il n’y a pas grande différence. Les serveurs de cache commencent à être intéressants quand ils sont répartis dans le réseau à différents endroits en Île-De-France et dans le reste de l’Hexagone. C’est à partir de là qu’on a des bénéfices, car on décharge des liaisons du cœur de réseau ».

Les FAI doivent choisir la bonne route (BGP)

Il évoque également une différence entre peering et transit : « Sur un peering, on va en général ne recevoir que les routes avec qui on peer. Si Bouygues Telecom peer avec Free, cette interconnexion ne verra au sens BGP du terme que les IP de Free (vu depuis Bouygues Telecom). Par contre, si SFR achète du transit à Free, Free annoncera toutes ses IP mais aussi tout le reste d’Internet à SFR. Après c’est au FAI de filtrer en fonction de ses transitaires ».

« En BGP on donne du poids à chacune des liaisons. Imaginons qu’on a un Google cache sur notre réseau et un transit avec Cogent. Évidemment, Cogent va annoncer les routes de Google, on pourra donc obtenir Google depuis Cogent. Mais au-delà de l’intérêt de moins payer son transitaire, c’est avoir une meilleure qualité que d’utiliser le Google cache sur notre réseau » nous précise-t-il.  Dans BGP, il existe ainsi des mécanismes pour favoriser des routes.

Le plus basique étant de favoriser par défaut le peering.

Et maintenant on passe à la pratique !

Imaginez que vous naviguez sur un site ou que vous regardez une vidéo en streaming (deux exemples parmi tant d’autres). Vous commencez donc par entrer l’adresse du service dans votre navigateur.

La requête est transformée en IP par le résolveur DNS, puis le FAI sélectionne le meilleur chemin possible en faisant sa tambouille interne avec l’ensemble des routes BGP à sa disposition. Quatre utilisateurs qui seraient voisins de palier chez quatre FAI différents peuvent donc emprunter quatre routes totalement différentes. 

Une fois le chemin optimal trouvé et le serveur de destination contacté, plusieurs cas sont à distinguer. Tout d’abord, on peut arriver sur le serveur géré par le FCA, qui renvoie alors simplement des paquets de données qui suivent le chemin inverse vers l’ordinateur de l’internaute. Mais on peut aussi arriver sur un CDN, faisant office de cache.

C’est notamment le cas pour la plupart des grands services de streaming : de tels serveurs – en peering ou en interne dans le datacenter du FAI – sont installés un peu partout dans le monde afin de délivrer du contenu rapidement aux utilisateurs, sans encombrer un réseau longue distance avec une multitude de flux vidéo.

Des algorithmes se chargent ensuite d’optimiser et de mettre à jour les données présentes sur le CDN. Netflix le fait notamment en fonction de la consommation locale de ses abonnés. C’est d’ailleurs ce point qui cristallise les attentions autour du lancement de Disney+ en France et d’une différence fondamentale avec Netflix (pour le moment).

Un sujet sur lequel nous aurons l’occasion de revenir dans la suite de ce dossier. Il était au départ pensé pour être en partie diffusé au sein du numéro 2 de notre magazine, mais nous avons préféré le diffuser directement en ligne étant donné l'actualité récente. Si vous avez apprécié cet article, n'hésitez pas à soutenir notre campagne Ulule !


chargement
Chargement des commentaires...