NVIDIA dévoile sa DGX Station A100 à quatre GPU et une A100 (Ampere) avec 80 Go de mémoire

NVIDIA dévoile sa DGX Station A100 à quatre GPU et une A100 (Ampere) avec 80 Go de mémoire

Vous avez beaucoup de données ?

Avatar de l'auteur
David Legrand

Publié dans

Hardware

16/11/2020 2 minutes
12

NVIDIA dévoile sa DGX Station A100 à quatre GPU et une A100 (Ampere) avec 80 Go de mémoire

Alors qu'AMD dévoile son Instinct MI100, NVIDIA choisit d'officialiser une carte que certains n'évoquaient qu'en coulisse : une A100 avec pas moins de 80 Go de mémoire, le double du modèle initial. Elle intègrera une station de travail maison dès l'année prochaine.

Lorsque NVIDIA a mis sur le marché sa première carte exploitant un GPU de la génération Ampere, c'était un modèle pour serveur, nommé A100. Elle a depuis été déclinée en différentes versions, pour station de travail (PCIe) ou plus accessible (A40), mais on attendait surtout l'arrivée d'un modèle plus haut de gamme encore.

Mémoire doublée pour l'A100

En effet, il se murmurait que le constructeur irait bien plus loin que les 40 Go de mémoire intégré à ce modèle. C'est le cas aujourd'hui avec une déclinaison à 80 Go de HBM2e. La bande passante annoncée dépasse les 2 To/s contre 1,6 To/s pour le modèle précédent. De quoi permettre de traiter rapidement de très gros jeux de données.

Cela peut avoir un autre intérêt, l'A100 pouvant être découpé en sept portions de GPU virtualisées, chacune avec de la mémoire lui étant dédiée. Cette nouvelle carte permet de doubler la quantité accessible à chaque portion. Le reste des caractéristiques est inchangé, tout comme le TDP (400 watts).

DGX Station A100 : jusqu'à 4 GPU Ampere

On retrouvera bien entendu cette puce dans de nouvelles versions des serveurs NVIDIA DGX A100 et la station de travail DGX Station A100 à quatre GPU (soit 320 Go de mémoire au maximum) annoncée pour l'occasion.

Ses caractéristiques techniques mentionnent un processeur AMD EPYC 7742 (64C/128T, de 2,25 à 3,4 GHz), 512 Go de DDR4, deux ports réseau à 10 Gb/s (RJ45), un à 1 Gb/s pour la gestion distance (BMC), 7,68 To de stockage NVMe (U.2), quatre sorties vidéo Mini DisplayPort (4 Go de mémoire dédiée). Le tout est livré sous Ubuntu.

Atos, Dell, Fujitsu, Gigabyte, HPE, Inspur, Lenovo, Quanta et Supermicro sont annoncés comme partenaires. Ils proposeront leurs propres modèles dès la première moitié de 2021. Aucun tarif n'a été précisé.

Côté réseau, des cartes à 400 Gb/s InfiniBand ont été annoncées par NVIDIA Networking (ex-Melllanox).

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Mémoire doublée pour l'A100

DGX Station A100 : jusqu'à 4 GPU Ampere

Fermer

Commentaires (12)


But does it run Crysis ?


Ampere A100 = pas de pipeline 3D ;)


Bah Linus a bien réussi à le faire tourner en rendu software sur un Threadripper 3990X, on peut bien imaginer qu’un furieux trop fortuné essaye aussi avec ça. :mad2:


Pour les trucs débiles, il y a toujours du monde :D


Vous avez beaucoup de données dollars ?
:cap:


Ca doit marcher du feu de Dieu ça sous BOINC (folding@home ; einstein@home ; asteroids@home)


Je vois pas le prix. C’est superflue pour Nvidia ?


ça doit envoyer les flops… et dans 15 ans on aura plus puissant dans nos smartphones


Ce sont des cartes d’intégration, rarement vendues à part donc on a pas le prix (même si on demande à chaque fois comme indiqué dans l’article ;)). Mais bon, un A100 de base c’est dans la dizaine de milliers d’euros au départ hein, pas franchement le truc que l’on met dans un PC perso :D



Vous m’en mettrez une palette :fumer:



:ooo:



David_L a dit:


Ce sont des cartes d’intégration, rarement vendues à part donc on a pas le prix (même si on demande à chaque fois comme indiqué dans l’article ;)). Mais bon, un A100 de base c’est dans la dizaine de milliers d’euros au départ hein, pas franchement le truc que l’on met dans un PC perso :D




Merci de l’info, je savais que tu avais une idée ;-)



Oui effectivement, c’est pour de l’intégration et vendu aux entreprises. Mais avoir le prix, c’est une idée de ce que NVIDIA attend à faire gagner comme temps ou perf aux intégrateurs/clients.



Vu la bestiole, 10 ou 15k c’est pas si cher quand t’as des besoins gargantuesque de puissance pour l’IA.


Oui et puis bon, c’est aussi du GPU pour AWS & co revendus à la découpe (et pas payé ce prix là ;))