Orange ne jurerait-il plus que par la virtualisation ? En plus de sa Livebox, le fournisseur d'accès à Internet est en train de faire de même avec ses datacenters. Une révolution en douceur qui permet d'ajouter de la flexibilité et des fonctionnalités à la volée. Mais qu'est-ce que cela cache exactement ?
Si le MWC était l'occasion pour les fabricants de présenter leurs nouveautés du côté des smartphones, il serait extrêmement réducteur de limiter le salon de Barcelone à ce seul segment de marché. En effet, les réseaux – au sens large du terme – sont également au cœur des présentations chaque année.
En 2017, il était évidemment question de la 5G (comme en 2016 d'ailleurs), mais une autre tendance forte se dégageait dans les allées, la virtualisation, qui était sur toutes les bouches ou presque. Opérateurs, FAI, équipementiers et éditeurs de logiciels, tout le monde est concerné, aussi bien le fixe que sur le mobile.
La révolution des réseaux est en marche
Cette technologie permettra à terme de déployer très rapidement des services supplémentaires, qui seront directement gérés dans le réseau. Orange – le seul opérateur français à disposer d'un stand au MWC de Barcelone – effectuait d'ailleurs quelques démonstrations, aussi bien côté grand public que professionnel. Bien évidemment, d'autres travaillent également sur le sujet, comme nous l'ont confirmé Bouygues Telecom et SFR.
Si la virtualisation promet monts et merveilles (ou presque), il s'agit d'un vaste sujet avec des notions parfois difficiles à appréhender. Afin d'en apprendre davantage sur les ambitions de l'opérateur historique, nous nous sommes entretenus avec Jehanne Savi, responsable mondial du programme « on-demand network ».
Car la virtualisation des réseaux d'Orange ne concerne pas que la France. C'est un travail sur l'ensemble de l'infrastructure de l'opérateur, dans tous les pays où il est présent.
Mais que signifie exactement « virtualisation » ici ?
Avant de se pencher sur les promesses de la virtualisation, il est important de définir ce dont il est question. La première notion importante à comprendre est la NFV ou Network Functions Virtualization (virtualisation des fonctions réseau dans la langue de Molière). Comme son nom le laisse supposer, il s'agit de séparer les parties matérielle (stockage et puissance de calcul) et logicielle (c'est-à-dire les applications qui s'exécutent dessus).
Jusqu'à présent, Orange nous explique que les deux sont couplées dans ses équipements, et sont donc dépendantes l'une de l'autre. En cas de panne matérielle ou d'un besoin d'évolution logicielle, il faut changer le tout. Pour le FAI, une analogie peut être faite avec les consoles de jeux.
Au début une console portable ne faisait tourner qu'un seul jeu (Game and Watch par exemple) et il fallait racheter l'ensemble en cas de panne ou pour jouer à un nouveau titre. Ensuite sont arrivées les consoles avec cartouches qui permettent d'étendre les capacités logicielles (nouveau titre), mais de manière limitée (souvent à cause d'un format propriétaire), ce qui serait plus ou moins le cas des datacenters dont dispose l'opérateur actuellement.
Aujourd'hui, les smartphones ont pris la relève des consoles portables (dans une certaine mesure évidemment) avec une partie matérielle banalisée qui permet de nombreuses actions : des jeux, de la téléphonie, de la navigation sur Internet, etc. Mieux, la gestion de la partie logicielle peut se faire en ligne.
Transposé aux réseaux, c'est ce qu'on appelle communément virtualisation : « sur un même hardware banalisé je peux télécharger plusieurs fonctions de réseau. Je peux découpler les cycles de vie, mais en plus je peux opérer à distance », ce qui permet notamment de réaliser des économies et de déployer des services bien plus rapidement.
Séparer les fonctions de contrôle et de transferts
Avec la NFV, il est souvent question du Software Defined Network (SDN), que l'on peut traduire par « automatisation des réseaux ». Cette fois-ci, « les fonctions de contrôle, qui sont elles-mêmes des applications, sont découplées de tout ce qui est fonction de transfert : capacité de routage, gestion de l'écoulement de trafic » nous explique Orange. Pour résumer, le SDN permet donc de contrôler et d'automatiser les fonctions réseau et les services.
Ainsi, toute ou partie de la gestion du réseau est confiée à des logiciels, de plus en plus perfectionnés, qui exploitent en partie de l'intelligence artificielle. L'étape ultime serait ainsi d'arriver à des réseaux auto-adaptatif (ou auto-organisés), mais « on en est loin » confesse Jehanne Savi.
Dans cette situation, le réseau prendrait en compte divers paramètres techniques (latence, besoin en capacité), économiques (coût de la bande passante suivant la route empruntée et les prestataires de services) et légaux pour s'organiser de manière autonome. Dans une certaine limite, ils peuvent s'auto-réparer en recalculant automatiquement les routes et/ou l'utilisation des ressources en cas de panne sur un tronçon ou dans un datacenter.
Un orchestrateur qui fait office de « cerveau »
Afin de gérer l'ensemble des briques logicielles, il est nécessaire de mettre en place un orchestrateur. Le but est de rendre le réseau cohérent et fonctionnel lorsqu'un service doit passer par une série d'applications virtuelles dans un ordre précis, on parle alors de chainage des services. But de l'opération, aboutir à une fonction complexe qui exploite plusieurs applications virtuelles (NFV).
Cette fois-ci, une analogie peut être faite avec le corps humain. La fonction complexe serait la digestion, tandis que chaque organe qui entrerait en ligne de compte (pancréas, foie, etc.) pourrait être assimilé à une NFV. Dans ce cas, l'orchestrateur serait le cerveau, pense Orange.
L'orchestrateur est une logique de SDN d'une certaine manière, mais à un niveau plus élevé, avec un accès à l'ensemble des services et des ressources. « C'est un logiciel extrêmement critique pour les opérateurs. C'est lui qui va faire la performance et la vraie promesse d'agilité » nous indique Orange.
La virtualisation permet d'ouvrir les réseaux aux services tiers
La virtualisation laisse également entrevoir de nouveaux horizons du côté des services. Interrogé sur l'ouverture à des tiers, Orange nous explique que c'est effectivement une de ses forces. Jehanne Savi ajoute que « conceptuellement, on peut faire everything as a service ».
Intégrer une application provenant d'une société extérieure pourra se faire à la volée, via une API. La seule contrainte (en plus d'avoir une application capable de s'exécuter sur les datacenters d'Orange) se trouverait donc au niveau des accords commerciaux entre les deux parties. Comme nous avons pu le voir avec Chill, rien n'est jamais gagné sur ce point.
Les applications tierces pourraient servir à améliorer les services d'Orange ou à en proposer de nouveaux aux clients, sous une autre marque. Une des solutions possibles, et mise en avant par le FAI, concerne l'hospitalisation à domicile. Il s'agit d'une action qui ne peut pas toujours être anticipée et dont la durée peut varier ; deux points où la virtualisation est un atout indéniable.
Lorsque le client rentre chez lui avec ses capteurs, le réseau peut « héberger » l'application médicale correspondante afin de réaliser les mesures et les calculs nécessaires, directement dans les datacenters d'Orange. Dans ce cas de figure, la virtualisation de la box (voir notre analyse) prend également toute son importance pour la gestion des capteurs à distance.
La scalabilité au service de la maitrise des coûts
Autre avantage, la fonction de réseau est dite scalable, elle peut donc s'adapter à la charge. Si le trafic est important elle va consommer plus de ressource, et inversement. Si l'on transpose cette possibilité en termes de prix, on obtient un modèle qui dépend de la consommation, nous affirme Orange.
Le FAI nous propose un exemple avec les îles Canaries : « Autrefois, il fallait mettre un équipement qui représente un coût fixe difficile ou impossible à supporter. Du coup, l’opérateur ne le faisait pas et la qualité d'expérience client était mauvaise, de façon durable. La force de la virtualisation, c'est que l’opérateur peut faire de la personnalisation pour tel client ou pour une géographie comme l’île des Canaries par exemple ».
Bien évidemment, cela ne change rien pour les interconnexions, les antennes et les DSLAM. Pour proposer un accès à Internet, l'opérateur doit disposer d'une infrastructure bien plus grande que simplement des datacenters et des applications virtuelles. Néanmoins, la virtualisation pourrait intéresser les MVNO qui pourraient gagner en flexibilité, à voir ce qu'il en sera dans la pratique lorsque cette technologie sera entièrement en place.
La lente (et coûteuse) migration des serveurs dans les datacenters
Vous l'aurez compris, les logiciels et l'intelligence artificielle s'occupent du gros du travail avec la virtualisation. Le but étant de pouvoir faire évoluer l'un indépendamment de l'autre. Ajouter cette agilité oblige par contre de mettre à jour les datacenters, ce qui nécessite du temps et de l'argent.
De manière générale, les opérateurs disposent d'une architecture distribuée dans les pays où ils sont présents. Dans le cas d'Orange, les plus gros comme la France, l'Espagne et la Pologne ont « plusieurs dizaines de datacenters », également appelés PoP (point de présence). Sur 2016, Orange nous indique en avoir virtualisé huit un peu partout dans le monde. L'opérateur prévoit d'en déployer quelques dizaines supplémentaires cette année, dont deux ou trois en France.
Ces mises à jour peuvent être réalisées lors de l'une des trois situations suivantes : un changement de matériel en cas de panne, le besoin de déployer des services exploitant la virtualisation, et enfin l'ajout d'un nouveau datacenter pour absorber la croissance du trafic.
Chez Bouygues Telecom aussi, la transformation est en marche. « Nous avons effectivement entamé la préparation de la virtualisation du cœur de réseau, nous commençons par la mise en place de l’infrastructure NFV (NFVi = Network Functions Virtualisation Infrastructure), sur laquelle viendront se poser les applications du cœur de réseau, tout d’abord 4G et ensuite 5G » nous explique l'opérateur, sans plus de détails pour le moment.
Déjà une application pratique : le VPN Easy Go d'OBS
Depuis l'année dernière, Orange Business Services propose une offre de réseaux à la demande (uniquement pour les multinationales pour le moment), qui s'appuie sur la virtualisation : Easy Go Network. Concrètement, il s'agit d'un VPN pour « connecter rapidement et facilement des sites de petite taille (boutique, agence…) à l’étranger ». 75 pays sont concernés grâce aux huit PoP déjà virtualisés.
Avec ce service, Orange livre aux entreprises un routeur plug-and-play. Le client doit simplement le brancher : « le routeur se connecte automatiquement au réseau SDN d’Orange Business Services, de façon sécurisée, via l’accès Internet local. Une fois leur réseau déployé, les gestionnaires peuvent commander et configurer eux-mêmes les services applicatifs virtualisés de leurs différents sites ». Tous les détails de cette offre se trouvent par ici.
Easy Go Network était une des démonstrations effectuées à Barcelone. Aujourd'hui, l'opérateur est en train de déployer ce service pour les entreprises de tailles un peu plus modestes, mais il n'est pas encore question d'attaquer les PME pour l'instant. Dans tous les cas, l'opérateur n'est pas prêt à nous donner de date pour le lancement d'offres à destination du grand public. Plusieurs types sont envisagées, mais nous n'en saurons pas davantage pour l'instant.
D'autres services à virtualiser : contrôle parental et cache CDN
Deux autres démonstrations étaient également de la partie au Mobile World Congress. La première est un contrôle parental directement géré par le réseau, sans application sur le smartphone de l'enfant. Via une interface web (ou une application), les parents peuvent ainsi définir des plages horaires d'accès à Internet, ainsi qu'une durée d'utilisation maximale par exemple.
L'autre démonstration était un cache CDN qui pouvait être déployé en quelques minutes. En cas d'événement inattendu avec un attroupement de personnes important (concert de rue, manifestations ou des situations plus problématiques avec une catastrophe naturelle ou un attentat), l'opérateur peut adapter son réseau afin d'éviter un engorgement dû à la forte augmentation de la demande.
Dans ce cas, la force de la virtualisation est de pouvoir relocaliser automatiquement des ressources, notamment afin d'éviter le « tromboning » (du nom de l'instrument de mesure). Le but est d'éviter de faire remonter du trafic très haut dans le réseau, pour ensuite le faire redescendre aux utilisateurs. En plus de générer de la latence, les coûts de transports augmentent.
Une infrastructure mutualisable entre opérateurs, y compris pour le roaming
Pour le moment, les opérateurs travaillent à virtualiser leur réseau en gérant chacun leurs parties matérielle et logicielle. Nous avons demandé à Orange si la prochaine étape pourrait être d'héberger ses solutions logicielles dans d'autres datacenters, qui ne lui appartiendraient pas. Au contraire, il pourrait aussi héberger des applications d'autres opérateurs.
« Conceptuellement oui » nous explique notre interlocutrice, avant d'ajouter que rien « n'est déterminé, car il existe des considérations de sécurité et des sujets commerciaux ». Des démonstrations ont d'ailleurs été faites au MWC, non par Orange, mais par d'autres opérateurs et équipementiers. Canonical était d'ailleurs assez actif au MWC avec des démonstrations de virtualisations des réseaux.
Faire héberger sa fonction réseau sur un autre datacenter pourrait avoir un intérêt non négligeable dans un cas particulier : l'itinérance. Un exemple avec un client Orange qui serait en Allemagne : « Si je sais héberger ma fonction sur les datacenters de Deutsche Telekom, je peux lui offrir exactement les mêmes services que s'il était chez moi ». On ne parle pas simplement d'envoyer/recevoir des communications ou d'accéder à Internet, mais également de services supplémentaires comme le contrôle parental évoqué précédemment.
Pour cela, il faudra non seulement dépasser les clivages économiques et commerciaux entre les opérateurs, mais également régler les questions de sécurité et les obligations légales. En effet, tous les pays ne sont pas sur la même longueur d'onde sur ce dernier point, loin de là même, y compris au sein de l'Europe.
Les bénéfices de la virtualisation pour la 5G
La virtualisation est également un investissement pour le futur. Pour Orange, « la 5G a priori sera nativement, voir exclusivement virtualisé, ça devient presque inéluctable ». SFR nous expliquait d'ailleurs que ces évolutions nécessitent en elles-mêmes la virtualisation du cœur de réseau. Une des applications directes sera certainement le slicing, c'est-à-dire la capacité de découper le réseau en différentes couches.
Chacune d'entre elles propose des performances différentes : débits élevés pour l'une, latence réduite pour l'autre, prise en charge d'un très grand nombre d'objets (IoT) pour une troisième, etc. Une agilité qui soulève aussi la question de la neutralité du Net, que les opérateurs ont déclarés incompatibles avec cette pratique. Un argument auquel les régulateurs européens ont déjà apporté une fin de non-recevoir.
La 5G étant attendue pour 2020, les opérateurs ont le temps de se préparer et de virtualiser leurs réseaux d'ici là.