Les enjeux et défis écologiques de l'infrastructure informatique du CERN

Les enjeux et défis écologiques de l’infrastructure informatique du CERN

Lumière… action… des Po à stocker

Avatar de l'auteur
Sébastien Gavois

Publié dans

Sciences et espace

24/03/2022 8 minutes
7

Les enjeux et défis écologiques de l'infrastructure informatique du CERN

Une des pistes du CERN pour réduire son empreinte écologique concerne son infrastructure informatique. Les serveurs sont ainsi renouvelés pour gagner en efficacité, son Centre de calcul va déménager, les applications sont optimisées, etc. Mais il faut aussi se préparer à la haute luminosité qui va changer la donne.

Le CERN (ou Organisation européenne pour la recherche nucléaire) est le plus grand centre de physique des particules au monde. Il se situe sur la frontière franco-suisse et traverse plusieurs villages, dont Meyrin, Prévessin-Moëns et Saint-Genis-Pouilly. Il brasse des milliers de scientifiques et abrite des recherches parmi les plus poussées au monde, notamment le Grand collisionneur de hadrons (LHC).

Le centre de recherche tourne depuis trois ans au ralenti le temps de réaliser des travaux d’amélioration (à l’occasion de son second long arrêt technique). Malgré tout, les chiffres de sa consommation en énergie et de son empreinte écologique sont impressionnants sur 2019 et 2020.

115 Po de données par an… pour le moment

L’Organisation revient aujourd’hui plus particulièrement sur la partie datacenter et stockage des données. Elle explique ainsi que « chaque année, les expériences LHC produisent quelque 90 Po de données, auxquelles viennent s’ajouter 25 Po supplémentaires produits par des expériences hors LHC ». Cela donne un peu plus de 300 To par jour, une paille…

Il y a donc de gros besoins côté datacenter, qu’il faut combiner à une autre réalité : « en général, la durée de vie d'un serveur informatique au CERN est de quatre ans », ce qui a des implications économiques et écologiques. Mais la situation s’est largement améliorée selon l’Organisation : « il y a seulement dix ans, le matériel du centre de calcul avait une durée de vie beaucoup plus courte ». Elle ne donne par contre pas davantage de précisions.

Plus de 2 300 serveurs donnés en 10 ans

Le recyclage des anciennes machines est pris en compte et, depuis une dizaine d’années, le centre de recherche fait régulièrement des dons de matériel informatique lorsqu’il « ne correspondent plus à ses normes d'efficacité très spécifiques, mais qui reste largement suffisant pour des environnements moins exigeants ».

Il y a un an, 104 serveurs (2 300 cœurs CPU et plus 1 100 To de stockage) et 5 commutateurs réseau du Centre de calcul du CERN ont été donnés à l’Université Technique Takoradi au Ghana. En tout 17 dons ont été faits en 10 ans à des pays tels que l'Algérie, la Bulgarie, l’Équateur, l’Égypte, le Ghana, le Mexique, le Maroc, le Népal, le Pakistan, les Philippines, le Sénégal, la Serbie, et la Jordanie. Cela représente 2 356 serveurs et 134 commutateurs réseau.

37 GWh par an pour le Centre de calcul

En plus de l’empreinte écologique du matériel en lui-même, il faut prendre en compte la consommation d’énergie : le traitement des données représente environ 75 % de l'énergie utilisée pour les activités du centre de données, le reste étant lié au stockage des données.

En 2021, « le principal centre de calcul du CERN a eu besoin en moyenne de 4,14 MW (quantité d’énergie consommée) pour ses systèmes informatiques, pour une consommation d’énergie totale d’environ 37 GWh sur l’année », indique l’Organisation. Cela représente environ 4 % de la consommation totale en énergie sur l’année en 2021, qui était de 954 GWh.

Pour ses 50 ans, le centre de calcul va déménager

L’actuel centre de calcul du CERN date de 1972 et, comme on peut s’en douter compte tenu de son âge, il « abrite une grande variété d'équipements »… avec une grande disparité sur l’efficacité énergétique.

Mais tout cela devrait changer d’ici un an : « Un nouveau centre de calcul sera bientôt construit sur le site de Prévessin […] L'efficacité énergétique est au cœur de ce projet, qui prévoit un système de récupération de chaleur pouvant être utilisé pour chauffer les bâtiments sur le site ». Sa mise en service est prévue pour le second semestre de l’année prochaine.

Baisser le PUE sous 1,1

Une capacité de 4 MW est prévue pour l’ouverture, avec « des mises à niveau possibles » par la suite. « L’objectif visé par le CERN pour ce nouveau centre de données est celui d’un indicateur d’efficacité énergétique (PUE) supérieur à 1,1. Pour replacer ce chiffre dans son contexte, le PUE moyen des grands centres de données est d'environ 1,5, les centres de données récents atteignant généralement un PUE compris entre 1,2 et 1,4 ».

Plus le chiffre est bas, mieux c’est. Le PUE est pour rappel le ratio entre l'énergie totale consommée par l'ensemble du datacenter (refroidissement, onduleurs…) et celle consommée par la partie informatique (serveurs, stockage et réseau).

En France, OVHcloud revendique un PUE compris entre 1,1 et 1,3 pour l’année 2021. Scaleway détaille son PUE en fonction de ses datacenters ; il varie entre 1,15 à DC5 (Paris) et 1,54 à pl-waw-1 (Varsovie). Dans un rapport publié fin 2020, la Commission européenne dressait un bilan de la consommation des datacenters en Europe. Elle notait une forte amélioration de l'efficacité, bien que très largement supérieure à celle d’OVHcloud et de Scaleway : « la valeur moyenne PUE dans l'UE28 passe de 2,03 en 2010 à 1,75 en 2018 ».

La filiale d’Iliad a lancé il y a un an et demi un autre indicateur dont le but est de coller le plus possible à la réalité du terrain (en ne prenant pas que l’électricité en compte), mais l’hébergeur reste bien seul avec son rDCE (Real Data Center Efficiency).

Le mot du jour est « optimisation »

Pour la gestion des données, le CERN dispose d’une Grille mondiale de calcul pour le LHC (WLCG). Elle comprend pas moins de 170 centres informatiques dans 42 pays. Les chiffres ont là encore de quoi faire tourner quelques têtes : « 1 million de cœurs de processeur et 1 exaoctet de stockage ».

L’optimisation est le maitre mot : « Les équipes du CERN et des expériences s’emploient à moderniser les codes, en trouvant des moyens de le faire fonctionner plus efficacement sur le matériel le plus récent, ce qui permet d'économiser des ressources et de l'énergie. Étant donné la dimension de ce réseau mondial, les moindres gains d'efficacité dans un code très utilisé peuvent avoir un grand impact ».

Avec la haute luminosité, 1 Eo par an 

La situation va largement empirer en 2028, lorsque la haute luminosité (HL-LHC) sera allumée : « la capacité de calcul totale requise par les expériences devrait être dix fois supérieure à celle d'aujourd'hui ». Afin de se préparer, le WLCG et les expériences du LHC « ont élaboré une stratégie informatique pour le HL-LHC, dont la mise en œuvre est régulièrement examinée par le comité scientifique du LHC ». 

Dans ce document (page 5), le CERN prévoit que les expériences ATLAS et CMS du LHC produisent durant le « Run 4 » (en haute luminosité) environ « 1 exaoctet de données à collecter chaque année », contre 115 Po actuellement pour le Grand collisionneur de hadrons. « C’est un défi important par rapport à la situation actuelle », ajoute l’Organisation.

Une boîte à idée baptisée CIPEA

Pour revenir sur la réduction de la consommation d’énergie de son infrastructure informatique, le CERN met en avant trois axes de développement : l’industrie, le CERN en tant qu’organisation et la communauté. Dans le premier cas, il s’agit d’avoir du matériel avec un haut rendement énergétique et avec une durée de vie étendue.

Du côté de l’Organisation, il y a évidemment le nouveau centre de calcul dont nous venons de parler, tandis que pour la communauté le travail passe par l’amélioration de l’efficacité des logiciels et des modèles de calculs. Dans tous les cas, « les petits ruisseaux font les grandes rivières », comme dit le proverbe. 

Un programme CIPEA (CERN Innovation Programme on Environmental Applications) a été mis en place en ce mois de mars afin « d’encourager les experts du CERN à proposer des idées d’applications environnementales basées sur les technologies, le savoir-faire et les installations ». Les idées peuvent être soumises jusqu’au 27 mai.

Enfin, si vous souhaitez suivre en direct quelques statistiques sur l’infrastructure informatique du CERN, c’est par là que ça se passe.

CERN Stats

Écrit par Sébastien Gavois

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

115 Po de données par an… pour le moment

Plus de 2 300 serveurs donnés en 10 ans

37 GWh par an pour le Centre de calcul

Pour ses 50 ans, le centre de calcul va déménager

Baisser le PUE sous 1,1

Le mot du jour est « optimisation »

Avec la haute luminosité, 1 Eo par an 

Une boîte à idée baptisée CIPEA

Fermer

Commentaires (7)


merci,
toujours intéressant ce genre d’article :)


Oui, merci pour ces infos. Il y a fort à parier qu’une fois encore ce qui est développé au CERN, ici au niveau des moyens informatiques seront transférés pour des applications grand public dans quelques années.


On a pas mal de chose en route suite à la publication et aux réactions sur notre rapport écologique 2021. ça a généré pas mal d’incompréhension car on ne produit que du savoir. On essaye de produire mieux, mais c’est surtout au nveau design des composants qu’il va y a avoir un gros travail, car c’est dans les détails que se cache les économie. Un exemple tout bête, si on travail avec des supraconducteurs à 10-12K au lieu de 2-4K, c’est 2 fois moins d’énergie pour la cryo. Mais comme dit, tout ce qui est développé passe à un moment dans le public.


XD
j’ai pas percuté de suite, je pensais qu’il manquait une unité et j’avais du mal à comprendre le sens de la phrase.
alors que c’est la notation correcte, mais y’a tellement de communications avec des unités mal écrites qu’on en oublie la bonne notation :)



ça me semble presque “peu” comme facteur de conso entre du 10-12 et du 2-4 Kelvin en fait, j’avoue que je me serrai attendu à plus.
par contre ça doit être sans commune mesure avec des températures plus “humaines” comme le -20 d’un congélo (je parle pas de la conso d’un congelo, mais si un supraconducteur pouvait fonctionner à 250K, ça ferait quel ordre de grandeur de différence de conso par rapport à 10-12 ou 2-4K ? ou par rapport à je sais plus quel gaz courant qui fait du ~ 90-100K (c’est l’azote liquide qui fait du -180°C utilisé pour les records d’OC non ? c’est ça qui me semble “courant”) )



padre03 a dit:


si on travail avec des supraconducteurs à 10-12K au lieu de 2-4K, c’est 2 fois moins d’énergie pour la cryo.




Pour les 2-4 K on utilise l’hélium liquide (qui est liquide à 4 K et en-dessous), mais quel fluide pourrait-on utiliser pour du 10-12 K ?



(intéressant ton commentaire, merci)



(reply:2063630:OlivierJ) Hélium gazeux, beaucoup plus facile à gérer.



(reply:2063618:fry) Il y a un monde entre 2K et 12K en terme de ressource et complexité de mise en œuvre. Pour ce qui est des record OC, c’est fait à pression atmosphérique alors qu’on est sous vide partiel 10^-6 mbar il me semble. ça change aussi beaucoup de chose (cf diagramme Pression/température)



je pensais pas qu’il y avait une mise en œuvre différente entre 2K et 12K, je me serrai attendu a un palier conséquent entre 80K et 100K (pour aller plus bas que l’azote liquide en fait, je sais pas à combien exactement donc c’est une fourchette qui me semble vaguement pas trop foireuse), mais je ne pensais pas qu’il y avait autre chose qu’une histoire d’échelle pour passer de 12K à 2K, mais s’il faut rajouter un étage de refroidissement pour changer de fluide et gérer un vide “encore plus partiel” ça semble donc logique :)