Pascal à tous les étages chez NVIDIA : Tesla P100, DGX-1 à 129 000 $ et Roborace

Vroume vroum
Pascal à tous les étages chez NVIDIA : Tesla P100, DGX-1 à 129 000 $ et Roborace

La GTC était l'occasion pour NVIDIA d'annoncer la Tesla P100, son premier produit exploitant un GPU Pascal. Il était également question d'un serveur DGX-1 avec huit cartes Tesla P100, de nouveautés pour plusieurs SDK et de l'arrivée de la plateforme Drive PX 2 dans les voitures de la Roborace.

Comme chaque année, NVIDIA profite de sa GTC (GPU Technology Conference) pour dévoiler ses nouveautés en matière de GPU, entre autres choses. Bien évidemment, le PDG de la société Jen-Hsun Huang était sur scène afin d'assurer le show, mais aussi pour parler de la nouvelle architecture Pascal.

Tesla P100 (GPU Pascal GP100) : 16 nm, 15,6 milliards de transistors et HBM2

Le fabricant présente en effet sa première carte exploitant une puce Pascal (GP100) : la Tesla P100, qui devrait « offrir des performances et un rendement inégalés afin d'alimenter les applications les plus exigeantes en calcul » promet NVIDIA. Les caractéristiques techniques de la puce sont impressionnantes : elle est gravée en 16 nm FinFET et intègre la bagatelle de 15,3 milliards de transistors sur une surface de 610 mm² ; contre 8 milliards de transistors sur environ 600 mm² pour la Titan X.

Côté mémoire vive, on retrouve 16 Go de HBM2 sur 4096 bits avec un débit de 720 Go/s ainsi que 4 Mo de cache L2. Bien évidemment, NVLink est de la partie afin de proposer une bande passante d'interconnexion de 160 Go/s, soit entre plusieurs Tesla P100 soit avec le CPU. NVIDIA annonce des performances très élevées : 10,6 TFLOPS en simple précision, contre respectivement 5,3 TFLOPS (avec GPU Boost) et 21,2 TFLOPS en double et demi précision. À titre de comparaison, la Titan X de NVIDIA est donnée pour 7 TFLOPS en simple précision, mais seulement 0,2 TFLOPS en double.

Plus en détails, le GPU de la Tesla P100 dispose de 3 584 unités de traitement, soit 512 de plus que la Tesla M40. La carte fonctionne à 1 328 MHz par défaut et jusqu'à 1480 MHz en GPU Boost, contre respectivement 948 et 114 MHz pour la génération précédente.

Tout les détails techniques sont disponibles sur le blog de NVIDIA, repris en partie dans le tableau ci-dessous :

GTC 2016 GP100 Tesla P100

Lors de la keynote, Jen-Hsun Huang indique que la production des Tesla P100 a d'ores et déjà débuté et que les expéditions vont « bientôt commencer ». Les premiers serveurs l'exploitant sont attendus pour l'année prochaine. Parmi les fabricants intéressés, il est question d'IBM, de Hewlett Packard, de Dell et de Cray. 

Rien n'a par contre été annoncé concernant une éventuelle GeForce grand public équipée d'une puce GP100. Selon nos confrères de Hardware.fr qui ont tâté le terrain auprès de NVIDIA, il semble très peu probable qu'une carte graphique pensée pour le jeu exploitant ce GPU soit prévue, tant l'orientation est différente (le GP100 est pensé pour le Deep Learning). Cela n'empêchera évidemment pas NVIDIA de proposer de nouvelles GeForce prochainement, reste à voir si cela sera avec Pascal aux commandes ou non.

GTC 2016

DGX-1 : une IA avec huit Tesla P100 dans une boîte, pour 129 000 dollars

NVIDIA en profite aussi pour dévoiler son DGX-1, « le premier superordinateur dans une boite pour l'apprentissage profond ». Prenant la forme d'un serveur rackable 3U livré « clé en main », il intègre à la fois une partie matérielle et logicielle afin de se permettre aux intéressés de se lancer rapidement dans l'apprentissage profond. 

Il n'exploite pas moins de huit cartes Tesla P100 reliées via NVLink, ce qui lui permet d'offrir une puissance de calcul de près de 170 TFLOPS en demi-précision et 86 TFLOPS en simple précision. 7 To de stockage sous la forme de SSD sont également de la partie, ainsi que deux CPU Xeon de chez Intel (référence non précisée), 2x 256 Go de DDR4, deux ports réseaux 10 Gb/s et quatre InfiniBand à 100 Gb/s complètent l'ensemble. L'alimentation affiche une puissance de 3 200 watts.

GTC 2016

Le DGX-1 est dès disponible pour 129 000 dollars, avec une livraison prévue pour juin. NVIDIA estime que cela pourrait intéresser les sociétés ayant besoin de réaliser d'énormes quantités de calculs, mais sans forcément vouloir ou avoir les besoins de monter des clusters de serveurs. Le constructeur ajoute qu'il a d'ores et déjà un premier partenaire : le Massachusetts General Hospital, qui s'en servira pour éduquer une intelligence artificielle en exploitant sa base de données ne comprenant pas moins de 10 milliards d'images.

Quand les développeurs deviennent les pilotes de voitures de course

NVIDIA profite également de la GTC pour revenir sur sa plateforme Drive PX2 et son ensemble d'outils DriveWorks pour les voitures autonomes. Pour rappel, tous les deux avaient déjà été présentés au CES de Las Vegas. Le constructeur annonce cette fois-ci qu'il sera partenaire de la Roborace, un championnat où s'affronteront des voitures de course autonomes, sans pilotes (voir cette actualité).

Chaque course mettra en compétition dix équipes, chacune avec deux voitures qui seront équipées du système Drive PX 2. Le châssis et les deux « moteurs » (pour les roues et pour l'intelligence artificielle) des voitures seront donc identiques et ce sera aux développeurs de faire la différence pour remporter la victoire. Que le moins buggué gagne ? 

GTC 2016 Roborace

cuDNN 5, CUDA 8, DriveWorks... : les SDK se mettent à jour pour Pascal

Lors de sa keynote, le PDG de la société a également annoncé le lancement du « NVIDIA SDK, un SDK unifié » qui regroupe tous les outils de la société pour l'apprentissage profond, les voitures autonomes, la réalité virtuelle, les jeux, etc. Bien évidemment, l'architecture Pascal était également au cœur des nouveautés concernant les différents SDK afin que ces derniers puissent en tirer pleinement parti.

Il est tout d'abord question d'intelligence artificielle et de l'apprentissage profond avec cuDNN 5 (CUDA Deep Neural Network library). Pour rappel, celui-ci existe déjà depuis longtemps et il permet aux développeurs de se consacrer davantage sur la conception et l'apprentissage de leurs réseaux de neurones, que sur l'optimisation des performances, selon NVIDIA. cuDNN 5 arrivera au mois d'avril, avec la prise en charge de Pascal donc.

GTC 2016GTC 2016

Il est ensuite question de CUDA 8, là encore avec des optimisations pour Pascal, mais pas uniquement. Une nouvelle bibliothèque nvGRAPH (NVIDIA Graph Analytics) sera de la partie afin d'accélérer l'analyse et la création de graphiques de grande taille, accompagnée de NVIDIA IndeX 1.4 (disponible dès à présent). CUDA 8 et nvGRAPH seront tous les deux disponible dans le courant du mois de juin. De la documentation technique sur CUDA 8 est disponible ici.

Il a enfin été question de DriveWorks, un kit de développement pour les voitures connectées déjà présenté au CES. Cette trousse à outils est toujours en développement, mais elle est d'ores et déjà disponible pour certains partenaires de NVIDIA. Une ouverture plus large est prévue pour le deuxième trimestre de l'année, tandis que le lancement est attendu pour 2017, juste à temps pour la Roborace ?

Vous n'avez pas encore de notification

Page d'accueil
Options d'affichage
Abonné
Actualités
Abonné
Des thèmes sont disponibles :
Thème de baseThème de baseThème sombreThème sombreThème yinyang clairThème yinyang clairThème yinyang sombreThème yinyang sombreThème orange mécanique clairThème orange mécanique clairThème orange mécanique sombreThème orange mécanique sombreThème rose clairThème rose clairThème rose sombreThème rose sombre

Vous n'êtes pas encore INpactien ?

Inscrivez-vous !