OVHcloud : dans les coulisses de l’usine de Croix et du datacenter Roubaix 8

OVHcloud : dans les coulisses de l’usine de Croix et du datacenter Roubaix 8

Cachez ce « SecNumCloud » que je ne saurais voir…

Avatar de l'auteur
Sébastien Gavois

Publié dans

Internet

24/05/2023 11 minutes
15

OVHcloud : dans les coulisses de l’usine de Croix et du datacenter Roubaix 8

Dans son usine de Croix, OVHcloud assemble un peu plus de 1 000 serveurs par semaine en moyenne. Déballage des composants, découpe des châssis en aluminium, assemblage et test sous pression, toutes les étapes sont réalisées sur place. La société avait ouvert ses portes à plusieurs journalistes, nous étions du voyage. 

Dans la première partie de notre dossier, nous avions évoqué l’histoire (et l’avenir) du watercooling chez OVHcloud, ainsi que ses engagements environnementaux aux horizons 2025 et 2030.  

Lors de notre déplacement, nous avons également visité son usine de Croix. Elle existe depuis cinq ans, mais OVHcloud assemblait ses serveurs, concevait ses baies et racks en interne déjà auparavant, mais sur son site historique de Roubaix. Nous sommes aussi passés dans datacenter Roubaix 8, qui compte actuellement près de 30 000 serveurs, sur une capacité totale de 40 000.

OVHcloud assemble près de 1 500 serveurs par semaine

L’hébergeur explique que son « usine de Croix a une cadence de production de 1 000 à 1 100 serveurs par semaine en moyenne ». Elle peut accélérer si besoin : « on est capable d’en faire 2 500 par semaine. On l'a fait à plusieurs reprises, jusqu’à sept à huit semaines d'affilée l'année dernière et l'année d'avant encore ».

Elle s’occupe de l’assemblage des serveurs pour le monde entier, à l’exception de l’Amérique du Nord, gérée par le centre de Beauharnois au Canada. Ce dernier dispose d’une capacité de production moyenne plus faible, aux alentours de 350 serveurs par semaine, mais il ne dessert que deux pays. Ces deux centres s’occupent également de récupérer les anciens serveurs. Suivant les cas, les composants sont remis dans la chaine de production, vendus à des brokers ou recyclés.

  • Des bacs avec les composants pour les serveurs
  • Une ligne d’assemblage
  • Un serveur en train d’être assemblé

Le transport entre les différents pays et datacenters se fait par camions. Afin d’optimiser les coûts de transport et réduire l’empreinte environnementale, ils sont chargés à l’aller avec le matériel neuf et au retour avec les anciennes configurations. La cadence dépend des besoins : des allers-retours sont organisés tous les jours entre Croix et Roubaix (moins de 5 km à vol d’oiseau), contre une fois par semaine avec la Pologne par exemple. 

Dans l’usine de Croix, la chaine de montage se divise en deux parties complémentaires : le hardware (avec les composants) d’un côté, puis la mécanique avec la baie et le système de refroidissement de l’autre. OVHcloud tente au maximum de synchroniser ses deux chaines. En moyenne, il faut compter « deux jours et demi pour préparer les composants jusqu'à expédition », nous explique un intervenant. 

OVHcloud Croix OVHcloud Croix OVHcloud Croix

Aixmetal et Immostone des Klaba : des partenaires privilégiés d’OVHcloud

Les cartes mères, processeurs, RAM, HDD et SSD sont achetés chez divers fournisseurs. Pour construire les châssis et racks de ses serveurs, OVHcloud ne va pas chercher bien loin. Son voisin dans les locaux de Croix n’est autre qu’Aixmetal, une autre société fondée par les Klaba, mais indépendante d’OVHcloud. Si l’hébergeur roubaisien est un client privilégié (une immense porte permet de passer directement de l’un à l’autre), ce n’est pas le seul d’Aixmetal. 

OVHcloud nous explique au passage être locataire à Croix, tout comme Aixmetal. Les deux sociétés ont le même bailleur : Immostone, qui appartient également aux Klaba. D’ailleurs, Immostone « gouverne une partie immobilière d'OVHcloud ». 

Aixmetal, c’est « de la métallurgie pure avec du fraisage, de la découpe laser, du cintrage et de la soudure ». Cette entreprise livre à OVHcloud la « partie métallique construite, mais vide » des serveurs. Cela commence par une découpe laser, puis le châssis à plat « passe à travers des robots automatiques ou du semi-manuel ; puis à travers des opérations de pliage ». Les dimensions sont standard avec de nombreux pré-perçages afin de pouvoir y installer un maximum de configurations différentes.

  • Une tôle découpée mais pas encore pliée pour devenir un châssis
  • Des piles de châssis prêt à recevoir les cartes mères
  • Des cages pour les SSD/HDD, moins d’un euro pièce selon OVHcloud
  • Une baie pour SSD/HDD
  • Locaux d’Aixmetal
  • Un robot qui plie les tôles d’aluminium

Des châssis « dépouillés » avec des dizaines de combinaisons possibles

C’est ensuite au tour d’OVHcloud d’ajouter « différents mécanismes autour du réseau, du watercooling, de la distribution, de la puissance électrique… ». Les petits picots pour placer la carte mère peuvent être levés individuellement afin de s’adapter aux formats des cartes. 

Comme on peut le voir sur les photos, le châssis est « dépouillé », pour reprendre les mots de l’hébergeur : « il est ouvert et il n'y aura rien pour le refermer […] Avec un seul châssis, vous allez pouvoir avoir une combinaison énorme de serveurs ».

OVHcloud affirme que son châssis permet d’accueillir « 15, 20, 30 types de serveurs différents », mais notre interlocuteur reconnait qu’il « joue sur les mots : on n'a que quelques cartes mères adaptables, mais bon nombre de disques, de variantes de mémoire vive… C’est ainsi qu’on a de multiples possibilités avec un châssis ».

De la personnalisation pour OVHcloud, pas directement pour les clients

Au sein d’un même rack de 96 serveurs, « il peut y avoir vingt profils différents », mais ce sont principalement des changements sur la mémoire flash (stockage et/ou mémoire vive), car il faut tout de même une certaine uniformité au niveau d’un rack sur la puissance et le watercooling nécessaire à chaque serveur, précise l’hébergeur. 

Nous demandons à OVHcloud si de la personnalisation de serveur est possible pour un client, en plus des options qu’il propose : « Non, très peu, sauf si vous en voulez 10 000 ou 20 000… ». Il existe quelques exceptions, notamment un prototype de serveur bi-GPU sur lesquel l’entreprise « a travaillé avec le client sur le choix de la carte mère et du CPU », mais « c’est très rare » et « pas représentatif de notre métier ». 

Il n’est pas non plus possible d’apporter son propre serveur rackable et de demander à OVHcloud de l’installer dans ses datacenters. 

Datacenter OVHcloud
Du bi-GPU dans une baie de test

Des châssis et waterblocks ultra-standards

Aixmetal s’occupe aussi de la production des waterblocks. Ils sont « designés » et sous licence OVHcloud, qui fournit les plans à son partenaire. À charge pour ce dernier de réaliser les pièces. Il s’agit pour le moment d’usinage, mais de l’impression 3D est à l’étude. 

OVHcloud nous explique que, si « vous enlevez toute la partie tuyauterie, le waterblock est ultra-standard », c’est-à-dire qu’un seul modèle – compatible avec les CPU jusqu’à 250 watts de TDP – « va être utilisé dans 80 % des cas ». Ce qui fait la différence, c’est le cintrage et la tuyauterie, réalisés « en fonction de la carte mère et de la configuration ». Il y a autant de cintrages que de modèles de carte mère, nous précise un intervenant.

Si besoin, la société dispose aussi de « des blocs de watercooling universels avec des tuyaux souples ». 

  • Un waterblock maison ouvert en deux
  • Un waterblock avec ses tuyaux en cuivre
  • Le même waterblock vue du dessous
  • Des waterblocks bien rangés
  • Chaine de production des waterblocks

Des tests air et eau… « On ne va pas se cacher derrière les fuites »

Une fois les serveurs installés et branchés dans la baie, l’entreprise procède à un premier test sous pression de son système de refroidissement, mais avec de l’air pour commencer. Avant d’être livrés, les différents éléments sont déjà testés par les fournisseurs avec une pression de six bar, alors que, « en service, il va y avoir un 1,5 bar d'eau ».

Ce premier essai grandeur nature permet de vérifier qu’il n’y a pas de fuite, avant de passer au second test avec de l’eau. Ce système en deux étapes est utile selon OVHcloud car « la molécule d'air est toute petite par rapport à la molécule d'eau », sans compter qu’il vaut mieux une fuite d’air que d’eau qui peut endommager les circuits. 

 

OVHcloud Croix
Différentes zones pour tester les baies (air, eau et vérification du matériel) après le montage.

C’est seulement une fois ces deux étapes validées que la baie est branchée électriquement et que les machines sont allumées. Une nouvelle série de tests, logiciels cette fois, vérifie que les bons composants sont installés dans les serveurs. La baie est alors prête pour être expédiée dans son datacenter. 

Afin d’assurer des opérations de maintenance sans avoir à couper une baie complète, OVHcloud utilise des raccords rapides « 100 % étanche […] qui s'enclenche avec un effort et un double joint torique […] Vous pouvez racker et déracker sans vous poser la question de savoir s'il y a une bulle ». 

OVHcloud le reconnait : « On ne va pas se cacher derrière les fuites. On en a, mais l'idée, c'est d'en avoir le moins possible et de savoir les gérer. Le pire, c'est quand des fuites arrivent en datacenter ; donc il vaut mieux les trouver ici ».

OVHcloud Croix OVHcloud Croix OVHcloud Croix
Une baie vide, une baie avec du réseau et une baie montée

Des intérimaires sur le site, mais pas sur la partie « bench »

OVHcloud nous affirme ne pas avoir « d'intérimaires sur la partie bench et très peu sur la fin de l'assemblage. Là où on peut en avoir – quand on a besoin de gonfler les volumes – ça va être sur les premières étapes d'assemblage », mais le travail d’intégration est « toujours vérifié par le dernier » maillon humain de la chaine et lors des tests. Il peut aussi y avoir des intérimaires sur le déballage des composants. 

Concernant les tests sur le matériel qui revient à l’usine, le responsable parle d’une centaine par jour : « on a moins de capacité parce qu’on entre plus dans du comportement humain. Il faut positionner le CPU, sélectionner la carte mère, lancer les tests ».

Il y a davantage d’automatisme sur certains composants, les disques durs par exemple. Question sur les données, OVHcloud nous explique qu’elles sont effacées avant de quitter le datacenter, avec le degré de sécurité jugé comme nécessaire ou suivant les demandes des clients. Pour la mémoire vive, on remarquera qu’un bon vieux MemTest était en route sur plusieurs machines. 

  • Du matériel démonté d’anciens serveurs
  • Un technicien en train de démonter un serveur
  • « Quelques » disques durs…
  • Station de vérification des composants récupérés sur des serveurs
  • Station de vérification des composants récupérés sur des serveurs
  • Un MemTest en train de tourner

Déjà 30 000 serveurs dans Roubaix 8

Nous sommes ensuite passés dans Roubaix 8… qui n’a absolument rien à voir avec Roubaix 4. Pour avoir visité les deux, on se rend compte des changements importants réalisés par OVHcloud dans la conception. Ici, des baies complètes sont empilées et forment ainsi des couloirs dans lesquels les techniciens peuvent passer. Comme toujours dans ce genre de salle, le bruit des ventilateurs est assourdissant. 

Roubaix 8, ce sont environ 30 000 serveurs en production, pour une capacité totale de 40 000 serveurs à peu près. Le site a une capacité électrique de 36 MW, pour environ 17 MW utilisés pour le moment. Les batteries de ce datacenter proposent une autonomie de 10 minutes en cas de coupure de courant. Les groupes électrogènes sont capables de prendre le relai en une minute.

Datacenter OVHcloud

OVHcloud tient compte des « enseignements » douloureux de Strasbourg : « On est dans une logique de ségrégation. Ça veut dire qu'on a des bâtiments dédiés uniquement aux serveurs et, à l'extérieur, des bâtiments dédiés aux équipements électriques. On a aussi séparé toute la partie refroidissement ». Aucune climatisation n’est présente, mais « au-delà de 26 °C, la brumisation se déclenche ».

Au total, la société revendique pas moins de 120 000 serveurs sur l’ensemble des sites de Roubaix – pour une capacité estimée aux alentours de 300 000 –, dont un quart se trouvent donc sur le seul datacenter de Roubaix 8. 

Au détour d’un couloir, un panneau « SecNumCloud »

Lors de notre déplacement dans les différentes parties du site de Roubaix, nous sommes passés devant une porte avec une pancarte « SecNumCloud »… mais impossible de la visiter. Cette salle est installée dans l’un des huit datacenters de Roubaix, avec une « double authentification par badge et par empreinte digitale », en plus de la protection d’accès au datacenter. Inutile de dire que nous étions surveillés par plusieurs caméras. D’ailleurs, OVHcloud nous précise que « plus de 800 caméras sont sur le site » de Roubaix.

La certification SecNumCloud est un gage de sécurité validé par l’ANSSI, qui atteste que l’hébergeur a pris des précautions supplémentaires. Dans le cas présent, « tout est dans la salle, y compris l’atelier [de réparation] ; il n’y a rien qui sort de cette salle ». Si la partie réseau « est spécifique » ce n’est « pas le cas des alimentations électriques et des batteries qui sont communes à l’ensemble du datacenter ».

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

OVHcloud assemble près de 1 500 serveurs par semaine

Aixmetal et Immostone des Klaba : des partenaires privilégiés d’OVHcloud

Des châssis « dépouillés » avec des dizaines de combinaisons possibles

De la personnalisation pour OVHcloud, pas directement pour les clients

Des châssis et waterblocks ultra-standards

Des tests air et eau… « On ne va pas se cacher derrière les fuites »

Des intérimaires sur le site, mais pas sur la partie « bench »

Déjà 30 000 serveurs dans Roubaix 8

Au détour d’un couloir, un panneau « SecNumCloud »

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (15)


Merci pour l’article !



Assez étonnante ces baies grandes ouvertes : en gros y’a une carte mère vissée sur un fond métallique et c’est tout ? Sur une baie classique il me semble que chaque serveur est un vrai boitier métallique ; là si un technicien intervient en haut de la baie et laisse tomber une vis ou un tournevis ça risque de tomber directement sur la CM en fonctionnement juste en dessous !?



L’absence de porte sur les baies me fait aussi tiquer : un technicien qui se balade et trébuche, peut tomber directement sur les câbles réseaux / header de carte-mère: c’est la panne presque assurée !


Superbe reportage.



Oui, les boitiers des serveurs sont réduits à leur plus simple expression (plauqe de métal), c’est éloigné de ce que vend Dell ou HP, mais pas besoin de dizaines de Kg de métal pour qu’un serveur fonctionne.



Les baies sont ouvertes d’où coté où l’air rendre dans les datacenter OVH mais pas de risque qu’un technicien trébuche, il n’y a rien au sol.


Les boîtiers fermés et les portes, c’est surtout pour canaliser le flux d’air. Mais si t’es en watercooling, tu t’en fiches du flux d’air.


alex.d.

Les boîtiers fermés et les portes, c’est surtout pour canaliser le flux d’air. Mais si t’es en watercooling, tu t’en fiches du flux d’air.


Même en watercooling tu as besoin d’une circulatuon d’air. Le watercooling refroidit que certaine pièces les autre refroidisse a l’air, j’ai vue des pc endommagé par une mauvaise ciruclation d’air car refroidit au liquide.
Les regulateur de voltage du cpu on lacher car les carte mère sont conçus pour un refroidisseur de cpu qui pousse l’air sur les compossante


6bar d’eau, ca en fait de la Brigitte :francais:



fofo9012 a dit:


si un technicien intervient en haut de la baie et laisse tomber une vis ou un tournevis ça risque de tomber directement sur la CM en fonctionnement juste en dessous !?




Il n’y a pas vraiment de raison d’intervenir à même le serveur dans son rack. Si il y a un truc à dévisser logiquement il doit être sortit du rack et emmené à l’atelier



lordofkill a dit:


Les regulateur de voltage du cpu on lacher car les carte mère sont conçus pour un refroidisseur de cpu qui pousse l’air sur les compossante




Ça fait 15 ans que j’ai un ventirad tour, donc qui ne pousse pas l’air vers la carte mère. Jamais eu aucun problème avec les régulateurs de tension.


même si le ventilo ne pointe pas directement sur les VRM, ça créé quand même un flux d’air dans le boîtier ce qui va éviter que l’air chaud ne stagne au niveau des VRMs.




Alyafride a dit:


Il n’y a pas vraiment de raison d’intervenir à même le serveur dans son rack. Si il y a un truc à dévisser logiquement il doit être sortit du rack et emmené à l’atelier




Bah pour sortir le serveur du rack il faut bien intervenir (effectivement il n’y’a pas l’air d’avoir de vis non plus :) ) Si c’est pas une vis ça peut être un câble réseau qui avec sa rigidité re-rentre dans le “rack” d’en dessous ; Bref dans ma tête une façade de serveur ce n’est pas juste pour faire jolie, ça a une réelle utilité de protection physique. Bon après OVH savent probablement ce qu’ils font, ou le risque est jugé suffisament faible pour économiser de l’acier.



Il n’est pas non plus possible d’apporter son propre serveur rackable et de demander à OVHcloud de l’installer dans ses datacenters.




C’est possible mais uniquement dans 2 DC prévus pour : https://www.ovhcloud.com/fr/lp/housing/



Édit : c’était possible en fait mais plus maintenant 😅



vivienfr a dit:


Superbe reportage.



Oui, les boitiers des serveurs sont réduits à leur plus simple expression (plaque de métal), c’est éloigné de ce que vend Dell ou HP, mais pas besoin de dizaines de Kg de métal pour qu’un serveur fonctionne.



Les baies sont ouvertes du coté où l’air rendre dans les datacenter OVH mais pas de risque qu’un technicien trébuche, il n’y a rien au sol.




Trébucher c’était une façon de parler: dans ses lacets, faire un malaise, mal gérer le transport d’une charge encombrante type escabeau ou un autre serveur… Ce que je signale c’est qu’on a un couloir et donc un risque que quelqu’un d’appui sur la “façade” des ports des carte mères.



J’ai eu des PCs à poil sans parois voir sans boitier, ça marche en effet très bien :) J’ai déjà eu aussi l’occasion de ressouder quelques condos de cartes graphiques qui c’était pris un coup car le boitier était resté ouvert : L’un va avec l’autre.



Ce que je ne comprends pas, c’est le gain pour OVH, c’est une simple question d’euros ? (je me dis que les boitiers doivent resservir sur plusieurs générations, et au pire l’acier/alu se recycle très bien et perd peu de valeur une fois transformé : donc à part l’investissement initial c’est +/- gratuit…) ou alors c’est une question de poids ça m’étonnerait un peu que les dalles en béton ne soient pas prévues pour quelques kilos de plus, ou alors le refroidissement : Enfermer la CM imposerait de la ventilation supplémentaire…



fofo9012 a dit:


même si le ventilo ne pointe pas directement sur les VRM, ça créé quand même un flux d’air dans le boîtier ce qui va éviter que l’air chaud ne stagne au niveau des VRMs.




Regarde l’image 20. Il y a bien un petit ventilo en façade qui assure un minimum de flux d’air dans le boîtier.



MinDBreaK a dit:


C’est possible mais uniquement dans 2 DC prévus pour : https://www.ovhcloud.com/fr/lp/housing/



Édit : c’était possible en fait mais plus maintenant 😅




C’est pour ca que je préfère les petits DC de “quartier” , plus sympa à ce niveau.



Quand ils crament pas , bien sur : https://lafibre.info/maxnod/28032023-incendie-dans-le-datacenter-maxnod/


Merci pour l’article ! Très intéressant.



fofo9012 a dit:


là si un technicien intervient en haut de la baie et laisse tomber une vis ou un tournevis ça risque de tomber directement sur la CM en fonctionnement juste en dessous !?




Dans tous les datacenters que j’ai vus il n’y a plus de visserie mobile depuis au moins 15 ans.
Les serveurs sortent en intégralité comme des tiroirs et si tu interviens dessus aucune chance que ça tombe sur les autres serveurs.
On voir sur la photo des baies vides des poignées qui servent probablement à ces manipulations d’extraction de racks.




L’absence de porte sur les baies me fait aussi tiquer : un technicien qui se balade et trébuche, peut tomber directement sur les câbles réseaux / header de carte-mère: c’est la panne presque assurée !




Sur la dernière photo on voit de gros rails métaliques qui sont en surépaisseur du cable management. Ca doit suffire en toute logique. Les balades sont rares dans les datacenter :D et logiquement c’est au chariot de transport que se raccrocherait un technicien.


Ils sont pas encore au 12 volts?