Alors que l'on attend toujours la myriade de nouveautés promise par Free pour son offre Delta, le Server pourrait permettre d'accueillir des machines virtuelles. Une idée qui paraît tout sauf pertinente.
La Freebox Delta a désormais plus de six mois. Et si le FAI ou Xavier Niel étaient très actifs pour ce qui est de promettre des nouveautés à court terme lors du lancement, on a de quoi être déçu : presque rien n'est sorti de terre.
Que ce soit sur le boîtier Player ou Server, il a surtout été question de corrections de bugs et autres améliorations mineures. Seule l'évolution sur les blocs de 160 MHz pour le Wi-Fi 5 (802.11ac) à 1 Gb/s a apporté une vraie nouveauté concrète, mais le FAI a très peu communiqué sur le sujet. Sans doute jugé « trop technique ».
Depuis, on attend : une offre plus claire, une tarification mieux pensée, une interface Freebox OS renouvelée, plus de possibilités pour la partie NAS, ou même des fonctions annoncées dès le début, comme le Dolby Atmos. Mais Free semble avoir une autre idée en tête : la gestion de machines virtuelles. Sérieusement ?
La virtualisation, à quoi ça sert ?
Depuis quelques mois et grâce au travail de recherche de Tiino-X83, on entend parler de cette fonctionnalité, apparemment développée pour la Freebox Delta, captures et vidéos à l'appui.
On pourrait se dire qu'il s'agit d'une première, d'une idée dans l'air du temps, mais même pas. La virtualisation n'a rien de nouveau, son fonctionnement est aisé sous Linux (qui sert de base à Freebox OS) et les fabricants de NAS ont déjà eu cette idée depuis un moment. Mais même eux ont compris qu'il y avait souvent un problème : les performances et caractéristiques techniques de la machine hôte, qui doivent être à la hauteur.
En effet, la virtualisation consiste à faire fonctionner, au sein d'un même système, des systèmes isolés les uns des autres, qui auront accès à une partie des ressources seulement : processeur, solution graphique, mémoire, stockage, réseau, etc. Celles-ci doivent donc pouvoir être partagées et être disponibles en quantité suffisante.
Les hôtes sont donc en général des PC performants. On favorise des processeurs avec un grand nombre de cœurs, accompagnés d'une grande quantité de mémoire, le tout lié à un stockage local ou distant important, etc.
La virtualisation est très utilisée dans le domaine des serveurs afin de faire fonctionner différents applicatifs au sein d'une même machine pour améliorer la densité, déporter les postes utilisateurs avec un accès passant par un « client léger », proposer de l'hébergement mutualisé, etc. La liste est longue.
Windows 10 virtualisé sur un Ryzen 7 3700X partagé et une Raden RX 580 dédiée, Linux peut tourner dans d'autres VM en parallèle
Dans un contexte plus accessible, ou de « Home Lab » pour les plus geeks, il s'agit surtout de faire fonctionner différents OS sur une même machine (distributions Linux ou Windows par exemple) pour les tester ou pour y faire tourner différents services basiques : du stockage de fichiers, du calcul (rendu 3D, compression vidéo), des serveurs (DNS, PXE, HTTP, multimédia ou autre). Une approche que certains préfèrent à une multitude de micro PC type Raspberry Pi.
Problème : le matériel du Freebox Server est plus proche du Raspberry Pi que du PC pensé pour un usage hyperconvergé.
- AMD Ryzen, 32 Go de DDR4, BMC, 10 GbE : on monte notre station de travail compacte
- Linux, hyperviseurs : quelles distributions pour les Ryzen de 3ème génération ?
Un matériel trop basique, quid des conteneurs ?
Lors de notre analyse, le constat était clair. On trouve dans la box un SoC à quatre cœurs ARMv8, l'Armada 8040 (88F8040) à base de Cortex-A72, gravé en 28 nm. Il est accompagné officiellement de 2 Go de DDR4 amovibles, en réalité de cinq puces de 512 Mo Samsung K4A4G165WE-BCRC à 2 400 MHz (timings 17-17-17) à basse consommation (1,2 V).
Pour rappel, un Raspberry Pi 4 à 55 dollars intègre jusqu'à 4 Go de mémoire et un SoC exploitant lui aussi quatre cœurs Cortex-A72... et personne (ou presque) n'aurait l'idée d'y lancer KVM en espérant y faire fonctionner un Windows 10 à pleins tubes. Ce peut être suffisant pour de petits services, surtout si l'on peut enfin décider de remplacer le serveur DNS/DHCP intégré à la Freebox par le nôtre par exemple.
Mais on se demande alors quel est l'intérêt de proposer une virtualisation complète pour un tel objectif. Dans le domaine des NAS, on a déjà vu que des solutions à base de Celeron/Pentium avec très peu de mémoire ne correspondent pas vraiment à de tels usages. Il faut des CPU plus véloces et plus de 4 Go de mémoire pour que cela ait du sens.
Les constructeurs se sont donc tournés vers les conteneurs qui, à l'image de Docker, permettent de mettre en place très simplement des services ou des ensembles de services, isolés du reste du système. Mais à la différence de la virtualisation, ils exploitent directement l'hôte et son OS, servant de base pour leur fonctionnement :

De quoi simplifier l'ensemble et limiter le besoin en ressources, notamment en termes de stockage puisqu'un OS complet n'est pas forcément nécessaire pour chaque applicatif. Par contre, cela ne permet pas de faire fonctionner différents systèmes d'exploitation, chacun avec son interface graphique... et peut donc paraître moins « cool ».
Est-ce donc pour des questions de « Marketing geek » que Free aurait préféré la virtualisation aux conteneurs ? Tenter de faire paraître le Server comme une machine aux possibilités dignes d'un système performant plutôt que de faire le choix de la sagesse, se collant à l'usage et aux besoins des utilisateurs concernés ?
Si la fonctionnalité finit par voir le jour, son intérêt sera très limité par les capacités du Server et on ne peut qu'espérer que les conteneurs suivront rapidement, avec la possibilité de les utiliser en remplacement de services déjà intégrés à Freebox OS. Dans tous les cas, dès que les choses se concrétiseront, il sera intéressant de décortiquer le discours du FAI.