Gigabyte H262-P60 : jusqu'à 1024 cœurs ARM (Altra Max) dans un serveur 2U4N

Gigabyte H262-P60 : jusqu’à 1024 cœurs ARM (Altra Max) dans un serveur 2U4N

De la densité pour les CSP

Avatar de l'auteur
David Legrand

Publié dans

Hardware

10/11/2021 3 minutes
7

Gigabyte H262-P60 : jusqu'à 1024 cœurs ARM (Altra Max) dans un serveur 2U4N

Gigabyte continue de miser fort sur ARM et Ampere Computing pour se développer dans le domaine des serveurs à forte densité pour séduire les fournisseurs de services cloud (CSP). Il lance pour cela son H262-P60, un modèle 2U4N qui peut gérer 8 SoC Altra Max contenant jusqu'à 128 cœurs chacun.

Si AMD se prépare à une guerre dans le domaine des processeurs pour serveurs à forte densité, et vient d'annoncer ses futurs cœurs Zen 4c, ce n'est pas pour rien. Des acteurs ayant misé sur ARM, comme Ampere Computing, sont sur ses talons et comptent bien lui faire ce que les EPYC ont fait à Intel : proposer plus de cœurs pour moins cher.

Ampere Computing à l'assaut d'AMD

L'entreprise dirigée par Renée James, une ancienne d'Intel, a déjà séduit Oracle Cloud qui s'étend actuellement dans de nombreuses régions, dont la France. Elle compte bien faire des émules à travers son partenariat avec Gigabyte. Il y a quelques mois, elle dévoilait ses Altra Max à 128 cœurs et une feuille de route d'ici 2023.

Petit à petit, les choses avancent. Gigabyte a profité de la GPU Technology Conference (GTC) de NVIDIA pour évoquer le HPC ARM Developer Kit qu'il conçoit pour l'américain, basé sur un serveur G242-P32 à base d'Altra. Dans la foulée, le taiwanais annonce son nouveau H262-P60, un modèle 2U composé de 4 nœuds (2U4N), chacun disposant d'une carte mère MP62-HD0 avec deux sockets LGA 4926 pour des Ampere Altra Max. 

H262-P60 : densité, densité, densité

Au total, ce sont donc 1024 cœurs physiques qui peuvent être présents. Gigabyte rappelle que ces SoC sont compatibles broche à broche avec les Altra et affichent un TDP similaire de 250 watts. Ils peuvent gérer jusqu'à 4 To de mémoire chacun. Le serveur propose 64 emplacements pour de la DDR4-3200 pour tirer parti des 8 canaux par socket.

Gigabyte H262-P60 Ampere Computing Altra MaxGigabyte H262-P60 Ampere Computing Altra Max

Un Altra Max donne accès à 128 lignes PCIe 4.0 sont accessibles sur une configuration sur un socket, 192 pour du bi-socket. Côté stockage le serveur peut accueillir 24 périphériques S-ATA 2,5", 4 M.2 (PCIe 4.0), réservant ses autres lignes PCIe 4.0 pour un maximum de 8 cartes filles (HHHL). Deux alimentations fournissent chacune 2 200 watts (80 PLUS Platinum). Le refroidissement est assuré par 8 ventilateurs de 80 x 80 x 38 mm (16 300 tpm).

On dispose de 8 ports à 1 Gb/s (Intel I350-AM2) seulement. Chaque nœud peut accueillir un module OCP 3.0 pour monter en débit. Chacun contient également deux ports USB 3.0, un mini DP et un RJ45 à 1 Gb/s pour la gestion distante (ASPeed AST2600), agrégés par un Chassis Management Controller (CMC) ASPeed AST2520A2-GP.

Une conférence en ligne sera organisée à 14h par Gigabyte, qui profite de l'OCP Summit qui se tient actuellement à San Jose pour présenter cette solution à ses clients qui ont fait le déplacement. Son prix ou sa disponibilité pour le marché français ne nous ont pas été confirmés. Vous pouvez néanmoins demander une cotation.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Ampere Computing à l'assaut d'AMD

H262-P60 : densité, densité, densité

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Fermer

Commentaires (7)


Parfait pour un petit serveur perso :grin:


Des cas d’usage ont été évoqués pour ces serveurs? C’est pour faire de la scalabilité qu’il est intéressant d’avoir autant de coeurs? ça permet plein de micro services cloisonnés?


Intéressant, mais la connectivité de base est vraiment famélique. Le module OCP sera obligatoire.



Je me demande ce que ça donne comme densité en pratique, en prenant en compte le refroidissement.


L’intérêt de miser sur des modules OCP, c’est que tu laisses le choix au client de sa solution réseau. Si tu mets du 10G Intel et que le client veut du Broacom 25G… Je n’ai pas compris la remarque sur la densité ?



Comme dit, principalement les CSP sans doute et tous ceux qui veulent de la densité avant tout.



David_L a dit:


Je n’ai pas compris la remarque sur la densité ?




Bah si tu as une armoire 42U, on va dire qu’on réserve 2U pour le switch, donc tu y rentres 20 serveurs 2U4N. Ça te fait 20480 cores dans ton armoire. On va supposer que les alims sont redondantes, donc disons 2200W x 20 = 44kW par armoire.



Pour chaque armoire remplie, tu dois donc amener une ligne électrique de 200A et évacuer 44kW de dégagement de chaleur, sur moins de 1m ². Ça commence à être costaud. Du coup, en pratique, est-ce que les gens vont vraiment l’utiliser à cette densité-là ou pas ? Déjà à l’époque de la grande mode des blades, c’était un problème et certains prenaient des blades pour gagner en densité, mais ne remplissaient pas les armoires sinon c’était la surchauffe.


Pertinente remarque.


Oui enfin c’est comme tout: si tu achètes sans avoir prévu, change de métier.
Aujourd’hui, dans les grandes villes, la place est moins chère que le froid. Le mec qui veut faire de la densité s’achètera de plus gros blocs clim, c’est tout… (et c’est déjà pas mal hihihi)