DDR5 en cartouches CXL : Samsung publie son Scalable Memory Development Kit (SMDK)

DDR5 en cartouches CXL : Samsung publie son Scalable Memory Development Kit (SMDK)

Le datacenter change

Avatar de l'auteur
David Legrand

Publié dans

Hardware

07/10/2021 2 minutes
5

DDR5 en cartouches CXL : Samsung publie son Scalable Memory Development Kit (SMDK)

La conception des PC et des serveurs change peu à peu. Pour ces derniers, outre la montée en puissance des SmartNIC, du stockage désagrégé ou « computationnel » et autres architectures hybrides, l'arrivée de CXL va bouleverser les habitudes. Samsung s'y prépare.

Compute Express Link (CXL) est un standard initié par Intel et d'autres grands acteurs de l'industrie pour disposer d'une interface rapide, à faible latence, permettant de gérer la cohérence mémoire entre différents composants. Elle venait s'opposer au Gen-Z de Samsung, qui a fini par se ranger aux côtés du fondeur. On passe désormais au concret.

Les prochaines grandes plateformes d'ARM, AMD et Intel sont parées pour CXL, actuellement en version 1.x, basée sur le PCIe 5.0. La 2.0 est déjà prête. Samsung a de son côté communiqué sur l'arrivée prochaine de son Memory Expander, des modules de mémoire DDR5 qui seront commercialisés sous forme de cartouches E3.S exploitant CXL.

Ainsi, la mémoire n'aura plus à être présente aux côtés du CPU ni à dépendre du nombre de canaux gérés. On pourra atteindre des capacités bien plus élevées. Ce choix complète un arsenal déjà composé de la mémoire classique, des SSD et autres solutions à mi-chemin, comme Optane chez Intel (dans une multitude de formats). 

Le Coréen n'a pas encore communiqué sur les débits ou la latence que permettra sa technologie, mais veut déjà travailler avec l'écosystème pour que son produit soit géré comme il se doit. Il met ainsi à disposition de ses partenaires une suite d'outils et de d'API prêts à l'emploi via son Scalable Memory Development Kit (SMDK).

Il supporte la virtualisation de la mémoire, étant présenté comme capable d'attribuer automatiquement des modules CXL ou de la DDR5 classique selon les besoins grâce à un « moteur de tiering intelligent » propriétaire. Ce SMDK sera accessible à tous et publié sous licence open source dans la première moitié de 2022. 

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Fermer

Commentaires (5)


Petite révolution en perspective !


C’est très beau et c’un peu la suite logique du truc, vu la volumétrie de données de plus en plus énorme à traiter et les bus systèmes qui sont de plus en plus saturés pendant que le CPU ne fout pas grand chose…
Mais bon .. d’un côté toute cette puissance sera surement utilisée à bonne escient dans quelques cas, mais je parierais que dans la grande majorité, ça sera pour faire un bond technologique sans réelle optimisation de code existant ou d’architecture de la part des devs d’applications d’entreprise lol. Genre “ok on a une appli qui rame, c’est pas grave on va passer sous CXL :D” ahaha
Mais bon, c’est comme ça ;p


Pourquoi pas pour compléter de la RAM sur un serveur mal dimensionné, nécessitant un remplacement des ram présentes pour arriver à une volumétrie cible souhaitée.



En capacité max, un serveur Bi-CPU Xeon Scalable gen2 c’est déjà minimum 2To de RAM prise en charge,
et 3 To avec des xeon high end (doublé si quad-proc).
Sur du dédié, sa commence déjà à être pas mal.
Sur des “esx” peut être quelque cas ou sa servirait, mais il y a besoin de mettre une quantité de Vcpu cohérente avec la quantité de RAM, pas certain donc que ce soit vraiment un besoin (a part déplacer le problème sur la dispo CPU ?)



Le nombre de slot PCI me semble plus contraignant que les slots RAM /capacité max ram pour la majorité des serveurs (quid aussi de la dispo des pci lane, les “billets d’entrée” sont presque tous à 8 lignes maintenant : carte SAN/LAN, contrôleurs raid, GPU, …. )



Sa semble être une techno qui sera utilisée a la marge, et si c’est le cas, risque d’avoir un poids important (en fonction du prix des cartes) sur l’obsolescence des serveurs qui l’utiliseront… Sa me fait directement penser aux cartes Fusion-io.


C’est déjà ce qui a assuré le succès des SSD dans les serveurs je pense :transpi:


En fait on est déjà très loin côté gestion de la RAM.
On est déjà très loin de l’adressage physique dont tu parles, car là c’est le CPU qui n’a pas la possibilité technique d’adresser physiquement telle ou telle quantité max de RAM… Ou alors il faudrait faire de la pagination sur de la VM qui est déjà paginée et tout cela en “multi-registres”, un casse-tête de dingue, à mon avis rien que le temps de calcul de l’algo de mise en concurrence pour trouver le meilleur endroit mémoire, sera déjà trop lent, le temps qu’une autre appli demande un accès à une zone libre …



Bref j’ai entendu récemment un startuper dire “Aujourd’hui c’est super car la technologie n’est plus un problème” … oui mais bon ça dépend pour qui et pour quoi :D
Déjà dans les années 1960, allouer 4Mo c’était la classe à Dallas, mais depuis cette époque on a rien véritablement changé. Et ce dont tu parles c’est mine de rien un gros changement.