La consommation des datacenters en Europe (et dans le monde) est loin d’être anodine : 76,8 TWh/an. Alors que les usages augmentent sans cesse, la Commission dresse un état des lieux détaillés, propose des recommandations et met en avant les bonnes pratiques déjà mises en œuvre.
Après une étude de 16 mois, la Commission européenne vient de publier son rapport final (287 pages) sur les « technologies et politiques efficaces sur le plan énergétique d’informatique en nuage ».
Le but était de faire le point sur l'évolution de la consommation énergétique des datacenters, engendrée par « l’expansion des services d’informatique en nuage à l’échelle européenne ». Un sujet important pour la Commission qui a fait de l’efficacité énergétique du cloud « un sujet prioritaire sur l’agenda politique ».
Le rapport dresse un état des lieux des évolutions technologiques en lien avec cette problématique, des moyens d’action volontaires ou réglementaires mis en œuvre et « d’explorer les potentiels de réduction de la consommation énergétique ainsi que les leviers d’action envisageables (notamment les Marchés publics écologiques) propres à promouvoir des services d’informatique en nuage efficaces et respectueux de l’environnement ainsi qu’un environnement de réseaux et de centres de données efficaces sur le plan énergétique ».
L’occasion d’obtenir quelques chiffres sur la consommation des datacenters au niveau européen et une vue d’ensemble des projections pour les cinq à dix prochaines années.
Après avoir analysé ce rapport en détail, voici ce que l'on peut en retenir.
76,8 TWh/an pour les datacenters européens…
Commençons avec quelques (gros) chiffres. Ils ne sont pas issus de calculs effectués par les auteurs du rapport, mais un condensé d'études sur le sujet. La bibliographie est ainsi assez fournie : pas moins de 20 pages.
Néanmoins, la Commission européenne retient que la consommation énergétique des datacenters de l’UE28 est passée de 53,9 à 76,8 TWh/an entre 2010 et 2018, une hausse de 42 %. À titre d’exemple, la consommation électrique du seul CERN en 2018 était de 1,2 TWh d’électricité par an.
Un constat qui va à l'inverse du rapport publié par l'IEA en juin dernier, qui notait pour sa part une stabilité de la consommation des datacenters sur les dix dernières années au niveau mondial malgré la hausse de la charge de travail. Notamment en raison des gains d'efficacité opérés par les constructeurs sur leurs composants et machines.
Dans son rapport, l'IEA pointe une stabilité de la consommation énergétique malgré la hausse des usages
… 92,6 TWh prévus en 2025
Ce n'est pas l'avis de la commission pour qui l’augmentation des services et des usages « est si forte qu’elle a plus que neutralisé les gains d’efficacité notables réalisés à tous les niveaux (matériel, logiciels, infrastructure des centres de données) ». Elle ne prévoit aucune inversion de la tendance pour les prochaines années : en 2025, les estimations font état d’une consommation qui augmenterait de 21 % pour arriver à 92,6 TWh/an.
Au niveau mondial, les données reprises dans le rapport sont dans des fourchettes assez larges allant de 200 à 800 TWh/an pour 2018, puis de 500 à près de 2 000 TWh/an en 2025. La consommation pourrait même s’approcher des 3 000 TWh/an en 2030 selon certains. Là aussi, le rapport s'appuie non pas sur telles ou telles prévisions, aux méthodologies parfois contestées. Mais plusieurs qui permettent de se faire une idée un peu plus large.
Cela ne correspond qu’aux datacenters. Si on ajoute la consommation des réseaux – entre 300 et 1 500 TWh/an en 2025 et jusqu’à plus de 3 500 TWh/an en 2030 – l’addition pourrait quasiment doubler.
Selon les études, les chiffres peuvent varier du simple... au triple. Qui dit vrai ?
Composants IT vs infrastructure : deux salles, deux ambiances
Le rapport a la bonne idée de détailler la consommation des datacenters en deux secteurs : les composants IT d’un côté (serveur, stockage et réseau) et l’infrastructure de l’autre (refroidissement, onduleurs, etc.). En 2010, les premiers représentaient 26,5 TWh/an contre 27,3 pour les seconds.
Sept ans plus tard, les composants IT sont passés à 43,8 TWh/an (soit +65 %) contre 33 TWh/an (+20 %) « seulement » pour l’infrastructure, dont l'efficacité s'est donc largement améliorée. « Cette évolution se traduit par une amélioration de la valeur moyenne PUE dans l'UE28 qui passe de 2,03 en 2010 à 1,75 en 2018 ».
Il s’agit pour rappel du rapport entre l'énergie totale consommée par l'ensemble du datacenter et celle de l’ensemble des systèmes informatiques. En France, OVHcloud et Scaleway revendiquent généralement des PUE entre 1,1 et 1,3. Parfois moins. Scaleway a récemment présenté un nouvel indice qu’il souhaite faire adopter par ses concurrents : rDCE ou Real Data Center Efficiency. Il prend en compte l’eau en plus de l’électricité, avec une pondération « par rapport aux usages répartis et non pas par rapport au datacenter le plus efficace ».
Trio de tête : Allemagne, France et Royaume-Uni
Sans grande surprise, les pays du nord et de l’ouest de l’Europe rassemblent le gros des consommations électriques (et donc des datacenters), avec pas moins de 82 % en 2018. Là encore, aucune baisse n’est à prévoir : la Commission prévoit même de grimper de 5 points en 2025, pour atteindre 87 %.
Plus précisément, le nord de l’Europe devrait être le principal moteur de cette croissance, l’Allemagne, le Royaume-Uni et la France occupant le trio de tête. Depuis 2012, ils représentent même plus de 50 % de la consommation électrique. Forcément, « la consommation énergétique en Europe du Nord spécifiquement imputable aux centres de données devrait enregistrer une forte hausse (de 28 %) pour passer de 26,3 à 38,9 TWh/an entre 2018 et 2025 ».
Des prévisions qui servent de base à une perspective qui se veut bien plus optimiste : « Si tous les potentiels sont exploités, il sera possible de réduire la consommation énergétique des centres de données à des niveaux inférieurs à ceux de 2010 », ajoutent les auteurs sans donner ni calendrier, ni la base de comparaison utilisée.
On comprend ainsi que les chiffres précédemment évoqués et autres prévisions plus ou moins alarmistes sont aussi là pour nourrir le discours de la commission qui veut inciter à une amélioration globale de l'efficacité des centres de données. Après avoir diagnostiqué le mal et sa répartition, viendra le temps du traitement.

Le « cloud » explose, l’« edge » prend de l’ampleur
Outre la répartition par pays, ce sont aussi certains types de services qui sont pointés du doigt. Notamment les acteurs du « cloud ». Alors qu’ils ne représentaient que 10 % de la consommation de l’ensemble des centres de données en 2010, ils ont grimpé à 35 % en 2018 et devraient même atteindre les 60 % en 2025.
La Commission en profite pour revenir sur l’évolution des usages par type de service. Le SaaS (Software as a service) représente le gros des demandes et augmente légèrement : de 71 % (2016) à 75 % (2021). L’IaaS (Infrastructure as a service) est un peu en perte de vitesse puisqu’elle passe de 21 à 16 %. Enfin, le PaaS (Platform as a service) est quasiment stable à 8/9 % sur la période. La tendance serverless n'est pour le moment pas évoquée.
L’étude anticipe aussi une forte demande des datacenters en périphérie de réseau ou edge computing, dont la consommation devrait atteindre 12 % de celle de l’ensemble des datacenters de l’UE en 2025.

Quelques bonnes pratiques à reprendre
Le rapport cite quelques bonnes pratiques sur l’efficacité énergétique, mises en place par différents acteurs :
- Systèmes de refroidissement plus efficaces ;
- Réutilisation de la chaleur, notamment pour le chauffage urbain ;
- Virtualisation de logiciels, utilisation optimale de la capacité des serveurs ;
- Génomique efficace sur le plan énergétique ;
- Écoconception pour l’efficacité des infrastructures ;
- Utilisation d’énergies renouvelables pour l’alimentation des centres de données ;
- Construction de centres de données dans des régions au climat froid.
Il reconnait volontiers qu’il existe « nombreux » datacenters efficaces sur le plan énergétique, mais qu’il « n’existe guère de preuves de l’existence de services d’informatique en nuage efficaces sur le plan énergétique pour les réseaux et pour la transmission et le codage de données ». Les seuls exemples actuels ne sont qu'à l’état de projets.
Des améliorations bloquées par des « contraintes physiques » ?
Comme nous l’avons déjà indiqué, les évolutions technologiques de ces dernières années ont permis de grandement améliorer l’efficacité énergétique des datacenters, permettant ainsi de contenir les hausses de consommation dues à l’explosion des usages. Mais pourra-t-on « continuer à générer des gains d’efficacité » ?
Car l'amélioration des performances, de la consommation et donc de l’efficacité sont aisée jusqu'à un certain point. Cela se complique avec le temps puisque les constructeurs se retrouvent bien souvent face à des « contraintes physiques » infranchissables pour certaines. Certains se posent ainsi la question sur la réduction de la finesse de gravure. On produit actuellement en masse des puces en 5 nm, le 3 nm arrive... et ensuite ?
Prenons le cas des débits d'une connexion internet où la vitesse de la lumière est une contrainte, très forte dans le cas de la fibre optique, comme l'éloignement pour ce qui est des abonnements par satellite, dont la conception impose une latence minimum de plusieurs centaines de ms (à moins de réduire l'orbite).
Il ne faut donc pas compter que sur ces seuls aspects à l'avenir, et anticiper une éventuelle stagnation de l'efficacité en effectuant des améliorations à d'autres niveaux. En prenant aussi en compte les contraintes du réel.
Agir à l'autre bout du spectre via l'éco-conception
Par exemple en développant des « logiciels sobres en énergie ». Les petits ruisseaux font les grandes rivières : cette sobriété « joue un rôle important dans l’efficacité énergétique de l’informatique en nuage, notamment pour les applications nécessitant une forte puissance de calcul comme le minage de cryptomonnaies et l’IA ».
Concernant la 5G et la fibre optique, la situation est plus compliquée. Nous savons que ces technologies sont plus efficaces que leurs prédécesseurs (4G et xDSL respectivement), mais « il est impossible d’abandonner […] les anciennes technologies de réseaux du fait des stocks d’équipements existants ».
L’arrivée de la 5G ne signifie en effet pas la fin de la 4G, loin de là. C’était déjà le cas avec 4G/3G et même la 3G/2G. Encore aujourd’hui, les réseaux 2G sont en effet en service et il n'est pas envisagé de les couper.
Sept recommandations pour la R&D
Le rapport formule « sept recommandations sommaires » pour la recherche et le développement technologiques, issues d’une « vaste consultation des parties intéressées » :
- Formuler des exigences de transparence et promouvoir des indicateurs uniformes permettant de mesurer l’efficacité énergétique ;
- Promouvoir, pour le cloud , l’utilisation d’outils d’optimisation développés nativement pour le nuage ;
- Soutenir l’innovation technologique pour des problématiques spécifiques ;
- Améliorer l’efficacité des logiciels ;
- Exploiter le potentiel des PME et préparer ces dernières à l’informatique en nuage ;
- Mettre l’accent sur la recherche sur les tendances émergentes ;
- Intégrer la problématique de l’efficacité énergétique des services d’informatique en nuage dans d’autres programmes de recherche et développement technologiques.
Une autre piste d’amélioration vient des marchés publics qui « représentent une part importante du PIB de l’Europe ». Le rapport affirme que les actions de l’UE « mettent constamment l’accent sur l’efficacité énergétique dans les domaines de la construction, des infrastructures et des produits informatiques – des appareils destinés aux utilisateurs finals dans la vaste majorité des cas».
Elle ajoute néanmoins que, « à l’heure actuelle, l’UE ne dispose pas d’un cadre spécifique pour la passation de marchés relatifs à l’informatique en nuage, ce qui signifie que la passation de marchés de services d’informatique en nuage est soumise à la même procédure que n’importe quel autre service. En règle générale, la thématique de l’efficacité énergétique de l’informatique en nuage n’est pas tellement présente ».
Forte disparité au sein de l’Union européenne
Dans un autre registre, le rapport explique que les pays européens ne sont pas égaux devant le numérique. En 2014, les entreprises en Finlande, Suède et Danemark étaient plus de 30 % à utiliser des services de cloud.
À cette époque, la moyenne européenne était un peu en dessous des 20 %, et la France était en bas du classement, dépassant à peine les 10 %… En 2018, tout le monde a gagné des points, mais le trio de tête reste le même : plus de 55 % pour la Suède et le Danemark et même 65 % pour la Finlande, qui arrive largement en tête.

De son côté, La France s’approche doucement des 20 %. Elle se place ainsi en dessous de l’Allemagne, l’Espagne et la Slovaquie, et au-dessus de la Hongrie, la Lituanie et la Grèce. On reste encore en dessous de la moyenne européenne, qui dépasser les 25 %.
Le rapport regrette que certains pays – l’Autriche, le Royaume-Uni, la Slovaquie et l’Italie par exemple – ne prennent pas en compte les aspects environnementaux dans leurs feuilles de route sur le numérique. La Commission souhaite donc que les plans numériques nationaux incluent « à l’avenir des critères d’efficacité énergétique pour les services d’informatique en nuage, afin de faire de cet aspect important une priorité politique ».
« L’examen des plans d’action nationaux des États membres de l’UE et des Marchés publics écologiques a révélé que la thématique "efficacité énergétique des services d’informatique en nuage et des centres de données" n’a été reprise dans aucun de ces plans d’action nationaux ni dans aucun des ensembles de critères examinés » précise le rapport. Pour la Commission, il s’agit de « lacunes au niveau des États membres ».
Reste maintenant à voir si elle va sévir… avec plus ou moins de fermeté.