DDR5 CXL, CAMM et M(C)R-DIMM : le futur de la mémoire s’expose au Computex

À mon serveur, je lui mettrais bien une cartouche

DDR5 CXL, CAMM et M(C)R-DIMM : le futur de la mémoire s’expose au Computex

DDR5 CXL, CAMM et M(C)R-DIMM : le futur de la mémoire s’expose au Computex

Abonnez-vous pour tout dévorer et ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

La mémoire de nos ordinateurs est en train d’évoluer. Le but est d’en mettre toujours plus et d’augmenter la densité, en allant toujours plus vite. Il y a ainsi la M(C)R-DIMM et des modules DDR5 au format E3.S en PCIe pour les serveurs, ainsi que le format CAMM pour des ordinateurs portables toujours plus fins, avec une grosse quantité de mémoire.

La mémoire vive est un élément indispensable aux ordinateurs. Sur les machines pour le grand public et les serveurs, il s’agit généralement de modules que l’on vient enficher dans des emplacements dédiés sur la carte mère, mais elle peut aussi être directement soudée sur le PCB (printed circuit board, le circuit imprimé).

DIMM, vous avez les bases ?

Sur les ordinateurs de bureau, on retrouve habituellement des emplacements DIMM (Dual Inline Memory Module), alors que les ordinateurs portables ont droit à des SO-DIMM (SO pour Small Outline ou un format réduit). Le nombre de connecteurs et la position des encoches (détrompeurs) sur le module et les barrettes de mémoire dépend de plusieurs facteurs, notamment de la génération de la  « DDR » (ou Double Data Rate). La dernière en date est la DDR5, mais la suite se prépare déjà. 

Et ça se complique un peu…

Voilà pour la théorie, dans la pratique ça se complique un peu… comme toujours. Sur les serveurs par exemple, on retrouve des modules UDIMM, RDIMM et LRDIMM.

Dans le cas d’UDIMM ou unbuffered DIMM, « les signaux d'adresse et de contrôle peuvent atteindre directement la puce DRAM sur le DIMM du serveur sans passer par un tampon et sans aucun ajustement de timing », explique FS.com.

Le RDIMM ou Registered DIMM, « fixe un registre entre le CPU et la puce DRAM pour la transmission des données, ce qui […] améliore l'efficacité de la transmission […] Les RDIMMs sont plus faciles à augmenter en capacité et en fréquence que les UDIMMs ». Enfin, les LRDIMM ou Load Reduced DIMM « n'utilisent pas de registres, mais [les données] sont simplement mises en mémoire tampon ».

MCR-DIMM et MR-DIMM, même combat : doubler les « ranks »

Pour les serveurs justement, la suite se prépare avec les MCR-DIMM (Multiplexer Combined Ranks DIMM) et MR-DIMM (Multi-Ranked Buffered DIMM). 

La MCR-DIMM est développée par Intel, Renesas et SK Hynix. Ce dernier annonçait fin 2022 rien de moins que « le module DRAM serveur le plus rapide au monde », justement avec de la DDR5 au format MCR-DIMM. Le fabricant revendique « un débit de données minimum de 8 Gbit/s, au moins 80 % plus rapide que les 4,8 Gbit/s des modules DDR5 existants ».

Comme son nom l’indique, ces modules utilisent deux « ranks » en même temps, permettant ainsi « le transfert de 128 octets de données au CPU en une seule fois, contre généralement 64 octets avec un module DRAM classique ».

Une image résume bien le fonctionnement : 

MCR DIMM SK Hynix

Avec le MR-DIMM, le principe est exactement le même. Utiliser deux « ranks » en même temps afin de doubler les débits. Robert Hormuth, vice-president chez AMD partageait il y a quelques semaines des informations sur ces modules. Il est ainsi prévu d’avoir de la MR-DIMM à 8,8 Gb/s en DDR5, puis de passer à 12,8 Gb/s pour la seconde génération et de grimper jusqu’à 17,6 Gb/s pour la troisième génération.

Toujours selon AMD, des travaux de normalisation sont en cours au JEDEC (Joint Electron Device Engineering Council), avec AMD, Google et Microsoft dans son sillage. Intel serait aussi sur le coup – avec sa plateforme Granite Rapids – selon Adata qui exposait un module de DDR5 MR-DIMM au Computex. Des capacités de 16 à 192 Go sont prévues chez Adata. 

Encore de la DDR5 CXL au format E3.S

Le fabricant exposait aussi un module mémoire CXL 1.1 (Compute Express Link) avec une capacité pouvant atteindre 512 Go (DDR5) et une interface PCIe 5.0 x4, le tout au format E3.S.  

Le principe de CXL est de permettre au système hôte d’utiliser cette mémoire comme si c’était celle directement gérée par le CPU. L’avantage est de pouvoir ajouter de la mémoire sur une machine sur laquelle tous les emplacements DIMM sont déjà occupés. 

Rien de neuf ici puisque Samsung a déjà présenté, il y a deux ans, son Memory Expander : une « cartouche » de DDR5 au format E3.S, qui profite donc d'un lien PCIe et du protocole Compute eXpress Link (CXL), exactement comme Adata dans le cas présent.

ddr5 cxl Samsung
Une « cartouche » DDR5 CXL de chez Samsung

CAMM : de la mémoire pour des portables encore plus fins

Enfin, Adata présentait un module CAMM ou Compression Attached Memory Module. Le but de ce format est de permettre de réduire encore l’épaisseur des ordinateurs portables. Initialement développé par Dell, le JEDEC a ensuite récupéré le bébé et s’occupe désormais d’en faire un standard utilisable par l’ensemble des constructeurs. Le CAMM pourrait ainsi évoluer en fonction des différents retours.

« Alors que les stations de travail doivent pouvoir embarquer une importante quantité de mémoire, l’épaisseur et l’empilement des modules SO-DIMM traditionnels empêchait d’affiner le châssis. Le nouveau est lui 57 % plus fin que la SO-DIMM », expliquait Dell l’année dernière.

Comme on peut le voir sur l’image ci-dessous, l’épaisseur du CAMM est bien moins importante que lorsqu’on superpose deux modules SO-DIMM, mais la superficie fait par contre un grand bond en avant.

CAMM Dell

Tom Schnell, à la fois membre du comité et ingénieur chez le fabricant d’ordinateurs, expliquait il y a quelques mois à PC World que le JEDEC avait voté à l’unanimité la version 0.5 de la norme. La finalisation est attendue pour la seconde moitié de cette année.

Le JEDEC propose des améliorations pour la CAMM

Depuis, le JEDEC a avancé sur le sujet et annoncé en mars deux changements. Première nouveauté : on peut « empiler » des modules CAMM. Le connecteur servant à relier le module à la carte mère est alors « coupé » en deux dans le sens de la longueur. « Le CAMM d'origine prend en charge deux canaux de mémoire DDR5 sur un même connecteur, tandis que la CAMM empilable utilise un canal de mémoire DDR5 par connecteur ». La seconde nouveauté concerne la prise en charge de la LPDDR5 (Low Power DDR5) avec un format et un brochage dédiés.

Au Computex, Adata présentait un module de 64 Go à 6,4 Gb/s. Dell n’a pour sa part pas attendu la normalisation du JEDEC et utilise déjà de la mémoire CAMM dans certains de ses ordinateurs portables, notamment les Precision 7670 et 7770. Attention par contre au prix : plus de 1 200 euros pour 64 Go de DDR5 et 2 500 euros pour 128 Go toujours en DDR5. 

Computex mémoire Adata
Crédits : Tom’s Hardware

Commentaires (10)



Première nouveauté : on peut « empiler » des modules CAMM. Le connecteur servant à relier le module à la carte mère est alors « coupé » en deux dans le sens de la longueur.




Mais du coup, niveau épaisseur ça donne quoi ? On reviens à l’encombrement du SODIMM empilé ?


Même interrogation, si on reviens à l’épaisseurs d’avant, aucun intérêt.


Quand on empile 2 modules CAMM on gagne en surface mais on perd en épaisseur et on a qu’un seul canal DDR5 par connecteur, alors qu’en utilisant un seul module CAMM on gagne en épaisseur mais on perd en surface mais on deux canaux DDR5 dans le connecteur



Voir : https://www.jedec.org/news/pressreleases/jedec-expands-camm-standardization-include-two-key-memory-technologies



Patatt a dit:


Mais du coup, niveau épaisseur ça donne quoi ? On reviens à l’encombrement du SODIMM empilé ?



alkashee a dit:


Même interrogation, si on reviens à l’épaisseurs d’avant, aucun intérêt




Je relance de 3 ! Même passage qui m’a fait tiquer :transpi:


Oui mais avec plus de surface :mad2:



Plus sérieusement sur la photo on a du 8 d’épaisseur pour 5110 de surface contre 3,4 d’épaisseur pour 9720 de surface.
Si on double on ce retrouve avec du 8 par 10220 contre du 6,8 par 9720.( Visiblement le dégagement thermique n’est pas un problème sur le schéma. )



Au final d’un côté on y gagne en épaisseur pour un module simple, ce qui était le but, et de l’autre en épaisseur et surface pour un module double ce qui est pratique en bonus.


oui étrange mais l’idée derrière ne semble plus la faible épaisseur mais la grande quantité de mémoire disponible.


Merci pour l’article !



On utilise au boulot de la mémoire qdr2+.



Ca rentre dans quelle catégorie de l’article ?



Merci !



Attention par contre au prix : plus de 1 200 euros pour 64 Go de DDR5 et 2 500 euros pour 128 Go toujours en DDR5.




C’est toujours moins cher que chez Apple… :troll:


Il ne faut pas oublier le plus gros avantage des modules CAMM. Contrairement aux emplacements SO-DIMM pour lesquels on pouvait acheter une configuration de départ puis ajouter des barrettes par la suite si nécessaire, là, il faudra tout racheter. Ça, c’est un sacré avantage, pour les fabricants…



Personnellement, je préfère l’extensibilité, même si ça nécessite un peu plus d’encombrement. Surtout sur une configuration type station de travail où le format m’importe peu.



stratic a dit:


Il ne faut pas oublier le plus gros avantage des modules CAMM. Contrairement aux emplacements SO-DIMM pour lesquels on pouvait acheter une configuration de départ puis ajouter des barrettes par la suite si nécessaire, là, il faudra tout racheter. Ça, c’est un sacré avantage, pour les fabricants…




Bah justement non : https://www.dell.com/fr-fr/shop/dell-camm-m%C3%A9moire-mise-niveau-128go-4800mhz/apd/370-bbhn/m%C3%A9moire
Le CAMM permet de concilier la faible épaisseur sans souder les puces de RAM à la CM. Si le CAMM double épaisseur est normé on aura probablement la situation d’avant : un module livré et un emplacement libre pour l’évolution. Et comme avant il faudra est vigilant à l’achat au nombre de modules pré-installé ou disponible.


Fermer