DLSS et NGX, OC simplifié, 8K, NVLink et VirtuaLink : les GeForce RTX au-delà du ray tracing

Parce qu'il le faut bien 10
Accès libre
image dediée
Carte graphique
David Legrand

Outre les améliorations apportées à ses GPU, NVIDIA accompagne le lancement des GeForce RTX de nouvelles fonctionnalités. Si l'on ne sait toujours pas si les pilotes de la branche 400 auront droit à une cure de jouvence, voici tous les détails que nous avons pu récolter.

Nous l'avons vu, l'architecture Turing de NVIDIA apporte des évolutions au-delà de la simple intégration des RT Cores et de l'accélération du ray tracing. Tant mieux pour le constructeur qui ne va rien avoir à mettre sous la dent de ses clients sur ce terrain avant encore quelques mois. Il le sait et a d'ailleurs commencé à adapter sa communication.

Mais une carte graphique est bien plus qu'un GPU. C'est aussi la qualité de son intégration, la gestion des fréquences et toute une ribambelle de solutions logicielles qui peuvent nous simplifier la vie au quotidien. Au-delà de l'évolution des unités de calcul, caches et autres dispositifs de compression de la mémoire, NVIDIA a travaillé sur ces différents aspects.

Nous allons nous plonger dans chacun d'eux avant l'analyse pratique, une fois les cartes arrivées dans nos labos. Cela nous permettra de comprendre comment le constructeur tente de justifier la hausse de sa tarification autrement que par un gain de performances de 30 %.

Notre dossier sur Turing et les GeForce RTX :

NGX : les réseaux de neurones au chevet des Gamers (mais pas que)

Première fierté de NVIDIA sur la fusion entre les architectures Pascal et Volta que représente Turing, ses Tensor Cores. Ce sont pour rappel des unités spécialisées dans les calculs liés à l'intelligence artificielle.

De manière plus concrète, elles sont chargées d'effectuer plus rapidement que les CUDA Cores des calculs sur des matrices de 4x4 en précision dite mixte. Chacune peut traiter 64 opérations FMA (FP16) par cycle, mais aussi se focaliser sur des modes de précision plus faibles comme INT8 ou INT4.

Elles sont intégrées par blocs de huit dans chaque Streaming Multiprocessors (SM). Une GeForce RTX 2070 en contient 288, contre 368 pour une RTX 2080 et 544 pour une RTX 2080 Ti. Mais quel rapport avec le jeu vidéo ? Les éditeurs pourraient les exploiter pour rendre leurs IA plus « intelligentes », mais ce n'est pas l'approche privilégiée.

  • GeForce RTX NGX DLSS
  • GeForce RTX NGX DLSS
  • GeForce RTX NGX DLSS

En réalité, c'est sur NGX que misent NVIDIA et ses partenaires. Cet acronyme, qui signifie Neural Graphics Acceleration, permet de tirer parti de réseaux de neurones (DNN) afin d'améliorer le rendu ou la qualité d'image (par exemple). Cette solution est une plateforme, ce qui signifie chez NVIDIA qu'elle comporte une dimension accessible aux développeurs et éditeurs (notamment l'API NGX) et une intégration côté client.

Ici, c'est GeForce Experience (GFE) qui prend le relai, ou Quadro Experience (QXP), proposée aux professionnels sous forme d'une Tech Preview. Dans la pratique, lorsqu'un GPU de la génération Turing est détecté, un élément complémentaire est récupéré : NGX Core. Il fera le lien entre les applications et NGX.

Pour les joueurs, il faut voir NGX comme un dispositif de profils. NVIDIA ou les éditeurs peuvent ainsi entraîner un réseau de neurones pour une fonctionnalité précise, et mettre à disposition des utilisateurs le résultat. Celui-ci sera récupéré à travers GFE ou QXP et utilisé dans l'application ou le jeu auquel il est lié. Plus tard, le jeu pourra directement l'intégrer.

Les modèles ainsi générés peuvent s'interfacer via CUDA 10, mais également DirectX ou Vulkan précise NVIDIA.

DLSS : de l'IA dans l'AA

L'exemple le plus mis en avant par le constructeur de cette implémentation est le Deep Learning Super Sampling (DLSS), les travaux sur NGX concernant beaucoup la reconstruction ou l'amélioration de l'image.

Ainsi, plutôt que d'utiliser des méthodes classiques d'anti-aliasing (AA), plus ou moins coûteuses en performances, l'idée est d'exploiter un réseau de neurones chasseur de petits effets d'escaliers. NVIDIA indique que la méthode utilisée consiste à calculer et collecter des milliers d'images avec une définition agrandie 64 fois (Super-sampling 64x).

Servant de références, elles sont ensuite comparées à un rendu classique du jeu, le réseau de neurones étant alors entrainé à retrouver un résultat le plus proche possible de la version de référence via la méthode dite de rétropropagation du gradient. Il doit au passage apprendre à éviter les effets secondaires des méthodes classiques d'AA tels que le flou, la transparence, la désocclusion, etc.

Selon le constructeur, cette solution permet d'obtenir un résultat sans commune mesure avec les méthodes habituelles. Surtout, elle le fait avec des performances renforcées par rapport à une solution pourtant jugée efficace comme le Temporal AA (TAA). Notamment grâce à l'intégration des RT Cores, mais aussi un rendu inférieur pour l'image de départ. 

GeForce RTX NGX DLSSGeForce RTX NGX DLSS

La passe de traitement de DLSS ne se limite donc pas à la seule question de l'aliasing. La solution semble plutôt efficace et améliorera surtout la vie de ceux qui jouent à des définitions classiques (1080p, 1440p) et qui veulent un rendu de bonne qualité. Des points qu'il nous tarde de vérifier dans la pratique. 

En complément de la méthodologie classique, une autre est proposée : DLSS 2X. Comme son nom l'indique, il s'agit de faire passer l'image une seconde fois par le traitement du réseau de neurones. Mais ici, seuls des comparatifs de qualité sont proposés, il n'est plus question de performances chiffrées.

Comme évoqué, DLSS affiche également une limite de taille : un réseau de neurones doit être entraîné (et éventuellement mis à jour) pour chaque jeu, 25 étant compatibles. Les liens avec les éditeurs seront importants. Mais du SLI à 3D Vision, en passant par les profils de réglages de GFE, NVIDIA a déjà montré qu'il savait gérer ce genre de choses sur le long terme.

Slow-Mo, Super Rez et Inpainting

DLSS n'est pas le seul débouché qui devrait être exploité, loin de là. Trois solutions sont évoquées dans les documents techniques liées à NGX. Nous avons déjà eu l'occasion de parler de la première, Super Rez, qui vise à obtenir une image de définition supérieure via un réseau de neurones.

Elle sera notamment exploitée pour Ansel RTX avec AI Up-Res qui arriveront dans GFE à l'automne. Des dizaines de milliers d'images auraient été utilisées pour l'entrainement du réseau de neurones permettant de faire passer une image en 1080p à une définition de 8K. Les concepteurs de TV y seront sans doute attentifs.

Mais les éditeurs d'applications de traitement d'images ou de montage vidéo pourraient également être intéressées. Inpainting permet ainsi de retrouver les éléments effacés d'un cliché, sans doute une future killer feature de Photoshop. L'ajout artificiel d'un effet de slow-motion a aussi déjà été démontré par NVIDIA.

GeForce RTX AnselGeForce RTX Ansel

Connectique fournie et compression HEVC HDR 8K30 en temps réel

Dans le domaine de la vidéo, les GeForce RTX affichent d'autres évolutions intéressantes. Tout d'abord la connectique assez complète des cartes de référence (Founders Edition) : HDMI 2.0b, DisplayPort 1.4a et VirtualLink. Deux écrans 8K peuvent ainsi être gérés en simultané, à 60 Hz.

Le HDMI 2.0b gère la 4K à 60 Hz et la protection HDCP 2.2, le DP 1.4a monte à de la 8K à 60 Hz et peut exploiter la version 1.2 de la compression Display Stream (DSC). VirtualLink se destine aux casques de réalité virtuelle nouvelle génération. NVIDIA a sauté sur l'occasion pour revoir son moteur de (dé)compression vidéo (NVENC), qui passe aussi à la 8K

Il est donc capable de gérer un flux 8K30 avec HDR, en HEVC (H.265) et en temps réel (soit plus de 30 ips). La compression HEVC est améliorée de 25 %, contre 15 % pour le H.264. De quoi proposer une meilleure qualité d'image à nombre de flux identiques. La société vise clairement les usages professionnels et veut marquer des points face aux CPU. 

La phase de tone mapping du HDR est gérée côté matériel et intégrée au pipeline graphique. Côté décompression, les flux VP9 HDR 10 et 12 bits sont pris en charge, tout comme HEVC HDR 8, 10 et 12 bits (4:4:4).

GeForce RTXGeForce RTX

USB Type-C : VirtualLink fait son entrée

Concernant le port VirtualLink, c'est une première pour des cartes graphiques grand public. On retrouve cette connectique sur l'ensemble des GeForce RTX et Quadro RTX de référence, mais il faudra voir si tous les partenaires de NVIDA la conservent sur leurs différents modèles. 

Ce standard repose sur un connecteur USB Type-C. Il peut gérer un flux vidéo DisplayPort 1.4a (quatre liens High Bit Rate 3) et donc grimper à une définition de 8K à 60 Hz, avec HDR. Il peut être utilisé simultanément avec un flux de données USB 3.1 Gen 2, contrairement à un connecteur classique où il faut choisir entre l'un ou l'autre. 

Il fournit également une alimentation pouvant grimper jusqu'à 27 watts (pourra-t-on y recharger un smartphone ?). NVIDIA précise d'ailleurs que son utilisation implique jusqu'à 35 watts de TDP, complémentaire à celui du GPU. Il sera donc à prendre en compte dans le dimensionnement de la solution de refroidissement. 

L'idée est de simplifier la connexion des casques de réalité virtuelle, ce qui ne sera pas un luxe. Il doit permettre aussi l'émergence de modèles plus compacts, avec moins de câbles. 

GeForce RTX

NVIDIA Scanner : l'OC pour les nuls

Que serait une carte graphique sans sa capacité d'overclocking ? Comme pour les CPU, la pratique a perdu de sa superbe avec la montée en puissance des solutions de type « Turbo » qui maximisent les fréquences en fonction de différents critères comme le TDP, la consommation, le refroidissement, etc. 

Néanmoins, on pousse les composants un peu plus loin que leurs caractéristiques de départ, et les constructeurs veillent à ce que cela reste possible, notamment pour vendre des modèles haut de gamme, bien au-delà du prix annoncé pour les cartes de référence.

Avec les GeForce RTX, NVIDIA a travaillé plusieurs points. Tout d'abord, la finition de ses Founders Editions, annoncées comme silencieuses malgré un GPU gardé au frais. Elles exploitent deux ventilateurs et une chambre à vapeur en remplacement du système de refroidissement à turbine jusque-là favorisé par NVIDIA.

  • GeForce RTX OC
  • GeForce RTX OC
  • GeForce RTX OC
  • GeForce RTX OC

Une GeForce RTX 2080 se limiterait ainsi à 29 db(A), même une fois overclockée, contre 32 à 36 Db(A) pour la GTX 1080. Surtout, le processeur graphique serait maintenu constamment sous les 75°C, alors qu'il pouvait atteindre les 95 °C précédemment. Bref, c'est bien mieux. 

Cela permet à la carte d'afficher une plus grande marge autour de son TDP, son étage d'alimentation ayant aussi été amélioré pour favoriser la montée en fréquence. Outre le léger gain proposé par défaut, et celui que l'utilisateur peut espérer atteindre par les méthodes classiques, NVIDIA a travaillé sur son « Scanner ».

Un peu à la manière du Precision Boost Overdrive des Ryzen Threadripper, il s'agit d'une méthode « One-click » pour atteindre les capacités maximales de la cartes sans trop se fouler. Le tout en assurant une stabilité, même lorsque la carte sera utilisée dans les jeux. Ce n'est donc pas un chiffre record qui est visé, mais un résultat exploitable.

Mais la comparaison s'arrête là, puisque les méthodes de fonctionnement diffèrent. Une API a d'ailleurs été mise en place, charge aux constructeurs d'intégrer le dispositif dans leurs applications de gestion des fréquences. Precision X1 d'EVGA a déjà été indiqué comme compatible. Il effectuera une série de tests pendant une vingtaine de minutes, avec une charge et un algorithme définis par NVIDIA. L'utilisateur n'aura plus qu'à admirer le résultat.

  • GeForce RTX OC
  • GeForce RTX OC
  • GeForce RTX OC
  • GeForce RTX OC

Pour se démarquer, chaque constructeur devra donc désormais proposer les cartes qui offrent les plus gros chiffres à travers ce dispositif. À voir dans quelle mesure les overclockeurs arrivent encore à faire mieux.

Notez au passage que NVIDIA n'a pas communiqué sur une éventuelle évolution de la gestion de son Tubo Boost.

NVLink : « vous allez pouvoir jouer en 8K »

L'une des promesses des GeForce RTX est de permettre de jouer en 4K à des titres récents à 60 Hz, dans de bonnes conditions graphiques. Dès lors, comment continuer à vendre des cartes en duo ? Miser sur la 8K !

C'est ici qu'entre en jeu le nouveau connecteur NVLink 2.0 qui remplace les ponts SLI (Multiple I/O). Inspiré des solutions proposées sur le marché professionnel, il propose un débit de 50 Go/s sur la RTX 2080 (un lien x8) et 100 Go/s sur la RTX 2080 Ti (deux liens x8). La RTX 2070 est pour sa part dépourvue de cette fonctionnalité, sans doute jugée trop peu performante pour l'usage visé.

Car NVIDIA met en avant de très hautes définitions comme les 4K/5K/8K, parfois à haute fréquence ou via différents écrans. Autant dire que le public visé est assez minoritaire. Mais à 85 euros le connecteur, nous n'attendions rien d'autre. NVLink n'est pourtant pas dénué d'intérêt technique.

Il permet en effet d'adresser la mémoire du second GPU (de manière partielle) depuis le premier, ce qui est parfois intéressant. Son usage ne vise donc pas que les joueurs acharnés. Notez au passage qu'aucune solution n'est proposée pour ceux qui voudraient relier ainsi trois ou quatre GPU. Seuls des groupes de deux peuvent être composés.

Turing NVLinkGeForce RTX


chargement
Chargement des commentaires...