Avec ses GeForce RTX de série 30, NVIDIA a frappé fort. Il livre une architecture dans la lignée des précédentes, mais profondément remaniée pour changer la donne. RT Cores et Tensor Cores améliorés, unités FP32 doublées, consommation maitrisée... Après les promesses, voici venue l'heure des tests.
Comme on pouvait s'y attendre, l'architecture Ampere telle qu'elle est intégrée au GeForce RTX de série 30 est une amélioration de celle des séries 20. « Telle quelle aurait dû être » diront certains. Mais ce serait oublier que les GPU ne se conçoivent pas en un claquement de doigts, et qu'il faut parfois du temps pour opérer certains changements.
Une densité doublée, l'importance de la maitrise du coût
NVIDIA aurait-t-il pu opérer le doublement des unités de calcul FP32 sans le passage au 8 nm de Samsung ? Non. On le voit d'ailleurs très bien lorsque l'on analyse la densité des puces, qui a presque doublé. AMD garde l'avantage et devrait aller un peu plus loin sur ses Radeon RX 6000 en 7 nm+ (RDNA 2, Navi 2X). Nous verrons.
NVIDIA confirme son choix, de raison : le procédé de gravure en 7 nm de TSMC est trop sollicité pour livrer en volume à un prix raisonnable, ce que même Microsoft (qui l'utilise pour ses prochaines Xbox) a confirmé ces derniers mois. C'est d'ailleurs l'un des soucis auquel devra faire face AMD pour ses nouveaux Ryzen/Radeon.
Chez NVIDIA, cette solution n'est ainsi utilisée que pour la puce A100, destinée aux serveurs.

Car l'un des objectifs de NVIDIA avec Ampere est de démocratiser ses nouveautés techniques. Malgré le succès des GeForce RTX de série 20, tant le ray tracing que DLSS, les Tensor Cores ou encore le rendu 3D accéléré n'ont été accessibles qu'à une part restreinte de ses clients. Surtout pour des produits performants.
GeForce RTX de série 30 : un bien meilleur rapport performances/prix
C'est en partie ce qui explique l'agressivité tarifaire même sur l'offre haut de gamme. Une Titan RTX qui était vendue près de 3 000 euros se trouve désormais moins performante qu'une RTX 3090 annoncée à 1 549 euros. Le glissement est le même pour les GeForce RTX 3070 (520 euros) et 3080 (720 euros) équivalentes des 2080 (Ti).
Là aussi, pour s'en convaincre, il suffit de regarder les chiffres, notamment la constitution de chaque carte/puce :

Comme on peut le voir, la RTX 3070 est calquée sur la 2080, la 3080 sur la 2080 Ti. Le tout en étant bien moins chères qu'à leur sortie ou même leurs tarifs actuels. Comme nous l'avions analysé, la 3080 est le modèle le plus intéressant pour son rapport TFLOPS/euros, ce qui aura son importance, notamment pour les amateurs de calcul.
Il y a quelques subtilités à noter dans ce tableau : tout d'abord le nombre de Tensor Cores, revu à la baisse. Ils sont en effet deux fois plus rapides dans leur « v3 » que la génération précédente, ce qui explique ce choix. Si les RT Cores sont plus nombreux, ils ont un autre avantage de taille : ils gèrent l'exécution concurrentielle. Ils peuvent être actifs en même temps que les Tensor Cores et donc plus efficaces, comme nous le verrons plus loin.
Concernant la puissance de calcul FP64, NVIDIA fait comme à son habitude. Ses schémas ne mentionnent pas d'unités dédiées, mais elles existent bel et bien pour que les applications puissent fonctionner. Il n'y en a toutefois pas autant que dans une A100, où le rapport est de 1:2 par rapport au FP32. Dans les GA102/104, il est de 1:64.
Nous l'avons en effet mesuré avec le test GPGPU d'AIDA64 :
- GeForce RTX 2080 :
- FP32 : 11 706 GFLOPS
- FP64 : 366 GFLOPS
- GeForce RTX 2080 Ti :
- FP32 : 16 348 GFLOPS
- FP64 : 503 GFLOPS
- GeForce RTX 3080 :
- FP32 : 31 698 GFLOPS
- FP64 : 539 GFLOPS
L'information nous a depuis été confirmée par NVIDIA, qui a donc divisé par deux ce rapport, sans doute pour limiter les unités et rester sur le même niveau de calculs en FP64. Nous ne reviendrons pas plus avant sur les évolutions de l'architecture Ampere, déjà détaillées dans de précédents articles.
- NVIDIA dévoile RTX IO et ses GeForce RTX 3070, 3080 et 3090 dès 519 euros
- GeForce RTX 3070, 3080 et 3090 : Ampere expliqué techniquement et simplement
Enfin un ventirad dont le ventilateur s'arrête au repos !
Si NVIDIA a ouvert le bal des GeForce de série 30 avec la RTX 3080, ce n'est pas anodin. Il s'agit de son « flagship », pensée à la fois pour les joueurs et ceux qui veulent en faire une bête de calcul. Certes, la RTX 3090 sera plus performante, mais elle visera des usages particuliers. Ici, NVIDIA vante une carte d'un autre genre.
Elle est annoncée comme deux fois plus performante que la RTX 2080 et meilleure que la 2080 Ti. Suffisamment pour être la première carte permettant de jouer en 4K à 60 images par seconde sans artifices tels que DLSS. Avec une puissance revue à la hausse, certes, mais maitrisée. Son TDP passe de 250 à 320 watts (+28 %).
NVIDIA voulait néanmoins garder une carte silencieuse. Pour arriver au niveau de performances de la 2080 Ti, des concessions avaient dû être faites, notamment sur la température qui pouvait grimper à plus de 80°C et un ventilateur toujours raisonnable, mais qui ventilait plus que sur les autres modèles.
C'est ce qui explique le travail fait autour du PCB, sa réduction pour l'intégration d'un ventilateur traversant, un design pensé pour extraire directement une partie de la chaleur du boîtier, en profitant du flux d'air global pour le reste. Lors de nos tests, même au sein de notre machine compacte, nous n'avons pas relevé de problème.
Le GPU reste comme annoncé dans les 70-75°C. Le ventilateur affiche une vitesse de rotation d'un peu moins de 1700 tpm lorsqu le GPU est sollicité, et d'environ 1000 tpm lorsqu'il l'est peu. Il reste silencieux dans tous les cas. Bonne nouvelle : c'est la première fois sur une Founders edition qu'il s'arrête au repos. Une solution déjà intégrée par de nombreux partenaires et qui manquait aux cartes de NVIDIA.
Le GPU peut grimper jusqu'à 2 GHz selon les cas, descendant désormais jusqu'à 210 MHz au repos. La consommation minimale sur notre machine équipée d'un Core i9-10850K était d'un peu moins de 50 watts, comme avec les anciennes générations ou même les cartes concurrentes. Pas de surprises ici.
Notez que la carte est lourde, 1,4 kg. C'est un peu plus que la 2080 Ti ou la Radeon VII (1,3 kg environ). Elle n'occupe que deux emplacements PCIe au sein du boîtier et ne comporte aucun connecteur NVLink (désormais réservés aux RTX 3090). La Founders edition nécessite un connecteur d'alimentation PCIe 12 broches, un adaptateur étant fourni.
Côté sorties vidéo, elle compte trois DisplayPort 1.4a et un HDMI 2.1 à 48 Gb/s (son débit maximal). Jusqu'à quatre écrans peuvent être gérés en simultané selon la définition.
Notre machine de test
Notre premier chantier sur cette carte a été de vérifier les déclarations de l'entreprise sur les performances. Nous avons monté une machine équipée d'un processeur Core i9-10850K avec 32 Go de mémoire G.Skill à 3 GHz et une carte mère ASRock Z490 Taichi. Pourquoi pas un modèle PCIe 4.0 ? Parce que les gains sont inexistants dans les jeux, surtout pour un modèle haut de gamme. Ce sera sans doute différent avec DirectStorage et RTX IO, en 2021.
Nous avons effectué quelques tests rapides sur un Ryzen 9 3950XT et n'avons pas relevé d'écart particulier. Parfois, la fréquence plus importante du CPU Intel jouait en sa faveur. Nous sommes donc restés sur cette configuration. La machine était installée sous Windows 10 (Mai 2020) à jour, tant pour le système que les pilotes que le BIOS/UEFI.
Nous n'utiliserons pas ici de carte graphique AMD pour référence, car tant les Radeon RX 5700XT que la Radeon VII (qui n'est plus commercialisée) sont positionnées sous la GeForce RTX 2080, les intégrer n'aurait pas eu grand intérêt. Cela montre au passage que 16 Go de mémoire ne suffisent pas à placer un GPU en tête.
Il sera par contre intéressant d'opposer ces Radeon à la future RTX 3070 et de refaire le point sur la 3080 une fois que les RX 6000 seront annoncées et disponibles pour les tests, en novembre.
Nous avons fait le choix de tester la carte en 1080p, 1440p et 2160p (4K). Une manière de voir la progression des performances et surtout quand les jeux sont limités par le CPU plus que par le GPU. Lorsque des packs de textures haute définition sont proposés, nous les avons installés. Le ray tracing et DLSS sont analysés séparément.
Nous avons aussi passé du temps à décortiquer les performances dans différentes applications de rendu 3D, toute la puissance de l'architecture Ampere pouvant s'y exprimer plus pleinement. La charge de travail est en effet mixte entre INT32 et FP32 dans les jeux, ce qui est bien moins le cas dans du pur calcul.
Qu'en disent les benchmarks ?
Commençons simplement par un benchmark assez populaire, Unigine Superposition, qui permet de grimper jusqu'à des tests de rendu en 8K, avec DirectX et OpenGL :

Les gains sont nets et assez stables : la 3080 fait jusqu'à 70 % de mieux que la 2080 et 33 % de mieux que la 2080 Ti en moyenne. Dans le test 4K Optimized, on dépasse les 100 images par seconde pour la première fois.
Continuons avec 3DMark. Nous avons utilisé Time Spy – le test le plus gourmand – dans ses versions classique et Extrême (4K), ainsi que les tests VRS, DLSS et de DirectX Raytracing :
Les évolutions sont du même ordre : 70 % de mieux que la 2080 et 30 % sur la 2080 Ti. Le second cas s'explique facilement : si le nombre d'unités FP32 a été doublé, certaines exécutent également des calculs INT32. Surtout, les unités liées au rendu 3D comme les ROP, unités de texturing, la bande passante mémoire, etc. n'ont pas été doublées, une manière pour NVIDIA de limiter la taille de sa puce. Leur croissance est de 25/30 %.
Notez une exception ici : l'activation du VRS Tier 1 semble bien plus profiter à la RTX 3080 qu'aux anciens modèles. Le gain y est respectivement de 101 % par rapport à la 2080 et 45 % par rapport à la 2080 Ti. Pour rappel, les Radeon RX 6000 seront les premières cartes d'AMD à supporter VRS et DirectX Raytracing.
Dans les jeux : +70 % de la 2080, jusqu'à +40 % par rapport à la 2080 Ti
Les benchmarks restent un brin théoriques. Passons aux choses sérieuses avec les jeux. Premier constat lors de nos essais, c'est que la promesse de NVIDIA d'une carte taillée pour la 4K est tenue. Malgré des tests systématiquement effectués avec les options maximales, nous avons obtenu presque à chaque fois un résultat supérieur à 60 ips. Dans certains jeux, on est à plus du double :
Clairement, cette carte n'est pas faite pour un simple écran 1080p. C'est le cas où les gains sont le plus faibles par rapport aux générations précédentes. On est quand même dans un ordre de 35 % et 16 % en moyenne. On retrouve parfois les 70/30 % des benchmarks, notamment dans les jeux gourmands comme Borderlands 3.
Dès que l'on passe au 1440p les écarts retrouvent leur normale, la carte s'exprimant à son meilleur en 4K. Là aussi Borderlands 3 se distingue avec des gains pouvant atteindre 94/48 %, dépassant pour la première fois les 60 ips en 4K. Des gains impressionnants, surtout lorsque l'on se rappele qu'il s'agit d'une carte à 720 euros, là où la 2080 Ti était commercialisée dans les 1 200 euros encore ces dernières semaines.
Notez que la version Vulkan de Tom Clancy's Breakpoint a rencontré un souci dans sa version 4K avec les RTX 2080 et 3080, sans que nous sachions pourquoi. Sans doute un bug qui devra être corrigé. La version DirectX du jeu n'a pas rencontré le même problème. Nous n'avons donc comptabilisé que celle-ci pour nos moyennes.
Bien que très peu gourmand, Rainbow Six Siege profite aussi du passage à la série 30 de manière plus intensive dès le 1440p, où l'on frôle les 400 ips. Le jeu est donc paré pour les dalles à 360 Hz que vont tenter de nous vendre NVIDIA et ses partenaires. On grimpe à 245 ips en 4K, le CPU limite par contre à 439 ips en 1080p... tout de même.
Performances RTX/DLSS : la cerise sur gâteau
Comme on pouvait s'y attendre, ces écarts augmentent avec l'activation du ray tracing ou de DLSS. Les RT/Tensor Cores ayant été améliorés et la puissance FP32 revue à la hausse, les jeux compatibles en profitent pleinement. Surtout ceux qui n'utilisent plus un rendu classique, comme Quake II RTX :
Ici, on retrouve un gain de 85 à 90 % par rapport à la RTX 2080, comme pour Bordelands en 4K. De 45 à 50 % par rapport à la 2080 Ti. Le 4K à 60 ips n'est pas encore pour tout de suite, mais on s'en approche petit à petit. On peut néanmoins en profiter à près de 90 ips en 1440p, ce qui est déjà impressionnant.
NVIDIA a mis à notre disposition un patch spécifique pour Wolfenstein : Young blood, permettant d'améliorer les performances (notamment en 1080p) et d'activer le fonctionnement asynchrone des RT Cores. Nous avons relevé les résultats de la version actuelle du jeu et de ce patch qui devrait bientôt être rendu public.
Là encore, on dépasse dans tous les cas les 60 ips en 4K sans DLSS 2.0. Avec, on double ce chiffre, même en demandant le niveau de rendu « Qualité ». En moyenne, les gains en 1440p avec RT/DLSS sont de 77/40 % par rapport aux 2080 et 2080 Ti. De 89/43 % en 4K.
Les temps de rendu 3D divisés par deux par rapport à la 2080
Comme on pouvait s'y attendre, si la GeForce RTX 3080 est une carte intéressante dans les jeux, allant jusqu'à dépasser les meilleures cartes de la génération précédente de 30 à 40 % selon les cas, ce n'est pas l'usage qui leur est le plus favorable. Pour s'en convaincre, il suffit de lancer Blender 2.90 dans une scène basique, comme bmw27 :
Bien que simplissime, elle bénéficie d'un gain de... 125 % par rapport à la RTX 2080 et de 70 % par rapport à la 2080 Ti. Ce rendu, qui nécessite près d'une minute même sur les plus gros CPU du marché, ne demande ici que... 12 secondes. Et ce n'est pas la scène qui affiche les plus gros écarts. Nous en avons retenu deux autres.
La première est barbershop, disponible dans les démos publiques de Blender. La seconde est une scène de test fournie par NVIDIA permettant d'activer le flou cinétique, mieux pris en charge par les RT Cores de seconde génération intégrés à l'architecture Ampere, ce qui est d'ores et déjà exploitable via OptiX.
Dans le premier cas, les gains passent respectivement à 125 et 112 %. Une scène qui mettait près de 15 minutes à calculer sur GPU n'en demande désormais plus que 7 ! Les chiffres grimpent à 191/160 % avec le flou cinétique.
Dans la plupart des autres tests, on trouve des écarts de plus de 100 % par rapport à la 2080 et aux alentours de 60 à 70 % par rapport à la 2080 Ti. Nous avons effectué des relevés dans différentes applications compatibles avec l'accélération du ray tracing de NVIDIA : Reshift, V-Ray, Octane, etc. Dans SpecViewPerf, qui n'en tire pas partie, les résultats sont plus limités, même si dans certains tests les gains sont aux niveaux relevés pour les jeux : 70/30 %.
Dans un outil de pur calcul comme Hashcat, qui sert à casser des mots de passe, cela dépendra des algorithmes et de leur complexité. Un MD5 verra par exemple très peu de gains, même si en poussant un peu sur les paramètres en mode manuel nous avons réussi à grimper à 59 759 MH/s, plus que ceux par défaut (workload 4).
Mais sur les PDF, SHA-512crypt ou Scrypt, on s'approche au pire des 100 % par rapport à la 2080, allant jusqu'à 159 %. Vis-à-vis de la 2080 Ti, on est entre 59 et 135 % de gain sur ces trois cas précis.
Pour la compression vidéo, n'espérez pas de gain. Le moteur NVENC reste le même. Les seuls gains pouvant être espérés dans des outils comme Première sont ceux de l'application de filtres CUDA ou exploitant les Tensor Cores par exemple. Nous avons relevé 69,4 ips pour une compression 4K > 1080p dans Handbrake en H.265 via ce moteur, comme sur les RTX de série 20.
Reflex et Broadcast : NVIDIA vise les amateurs de compétition
Comme nous l'avons évoqué ces dernières semaines, l'arrivée des GeForce RTX de série 30 signe celui d'améliorations logicielles. Certes pas du pilote lui-même, qui commence pourtant à se faire vieux, mais des outils annexes et autres solutions pour les développeurs. Notamment Reflex qui intègrera demain Fortnite, puis d'autres.
Mais aussi Broadcast qui permet aux streamers de retirer leur fond en temps réel, d'annuler les bruits ambiants de leurs micros, d'assurer un suivi de leur visage par la caméra automatiquement. Nous aurons l'occasion de revenir en détails dans ces fonctionnalités lorsqu'elles seront pleinement disponibles.
On apprécie aussi que l'overlay soit destiné à être renforcé pour être plus utile, à la manière de ce que propose déjà AMD. De nouveaux pilotes seront ainsi proposés sous peu pour apporter ces améliorations. Des nouveautés qui ne sont pas, pour la plupart, réservées aux GeForce de série 30.
C'est plus performant, d'accord, mais est-ce plus efficace ?
La question de la consommation de la RTX 3080 nous a occupé quelque temps. En effet, c'est la carte la plus gourmande du constructeur jamais produite pour le marché grand public avec ses 320 watts. Impossible donc de mettre un équivalent en face et d'opposer leur niveau de performances.
Surtout, les méthodes classiques de relevé à la prise posent souci. Le CPU a aussi son rôle à jouer, et s'il consomme 150 watts sur 300 watts relevés pour le GPU, il pénalise d'autant les gains d'efficacité relevé. Sans parler du rendement de l'alimentation. Mais cela a l'avantage de correspondre à ce que paiera le consommateur.
NVIDIA recommande de son côté aux testeurs de s'appuyer sur son outil FrameView à une performance fixe dans un jeu (60 ips par exemple) pour opposer une carte à une autre. Il met aussi à disposition de certaines testeurs son kit PCAT (que nous n'avons pas reçu) pour isoler la consommation de la carte du reste du système matériellement.
Nous avons donc opté pour une solution intermédiaire. Les relevés ont été faits à la prise avec un dispositif de notre conception (nous y reviendrons dans un prochain article). Chaque seconde, la consommation est relevée pendant un test. Nous en tirons une moyenne que nous mettons en relation avec les performances observées.
Dans le premier cas, il s'agit du test intégré de Borderlands, lancé en 4K avec le niveau de qualité Brutal. Nous divisons la consommation par le score obtenu afin d'obtenir la quantité d'énergie nécessaire en joules (J) pour calculer une image. Dans le second cas, nous multiplions le temps de rendu de la scène barbershop par la consommation pour obtenir la quantité d'énergie en Wh nécessaire pour effectuer le rendu entier de l'image.
Et comme on peut le voir, si la consommation relevée à la prise est bien en hausse, de 15 à 40 % selon les cas, c'est très largement compensé par les gains de performances. Le rendu de l'image sous Blender ne nécessite ainsi que 38,1 Wh contre 67/70 Wh avec les RTX 2080 (Ti), soit 45 % de réduction. Même constat pour Bordelands où l'on relevait 8,3 et 8,6 joules par image contre 6,9 désormais, une baisse de 28 et 16 %.
RTX 3080 et Core i9-10850K : une alimentation de 620 W suffit-elle ?
L'une des questions qui nous a le plus été posée sur cette GeForce RTX 3080 était l'alimentation nécessaire. NVIDIA recommande 750 watts, certains constructeurs poussent vers leurs blocs de 850 watts. Comme toujours, il n'y a pas de réponse automatique sur le sujet, tout dépendra de votre machine, notamment du CPU.
Pour vérifier qu'une alimentation de 620 watts est suffisante, nous avons utilisé un de nos anciens modèles Antec sur l'ensemble de nos tests. Malgré le Core i9-10850K, il a tenu le choc sans problème. La consommation relevée à la prise (prenant donc en compte le rendement de l'alimentation) grimpait parfois à 520 watts, mais pas au-delà. Si nous poussions volontairement le CPU et le GPU, on pouvait atteindre 620 watts.
Ce bloc est donc suffisant, surtout si vous avez un CPU moins gourmand. Sinon, il atteindra ses limites, particulièrement si vous overclockez le CPU et/ou le GPU. Ce dernier devrait d'ailleurs avoir une bonne marge de manœuvre, ne serait-ce que lorsque l'on poussera la limite de température et ou de consommation.
Nous referons le point sur le sujet lorsque tous les outils auront été mis à jour. D'ici là, considérez la recommandation de NVIDIA comme adaptée. Rien ne sert de monter trop haut ou de dépenser des fortunes, optez simplement pour un bloc d'alimentation de qualité, si possible certifié 80PLUS pour avoir un bon rendement.
La carte haut de gamme dont certains rêvaient
À 720 euros, la GeForce RTX 3080 n'est pas pour toutes les bourses. Certains préfèreront attendre la RTX 3070 à 520 euros qui sera sans doute plus taillée pour le 1440p, comme l'était déjà la 2080 qu'elle remplace. Le tout en profitant des avantages de NVIDIA, du ray tracing à DLSS en passant par Reflex, Broadcast, etc.
La RTX 3080 est taillée pour la 4K, pour le 1440p « confort » notamment avec des écrans à 120 Hz+ et surtout pour le calcul. Il y a de fortes chances que les professionnels se l'arrachent pour cette raison, même si certains attendront sans doute de voir ce que la RTX 3090 et ses 24 Go de GDDR6x ont dans le ventre.
On apprécie le gain en efficacité énergétique apporté par Ampere, le silence de la carte et son design plutôt convaincant. Bien entendu il faudra attendre de voir ce que les partenaires proposeront, mais cette Founders Edition est déjà de très bonne facture. Les stocks seront-ils suffisants ? Nous le saurons demain.
Car pour ceux qui disposent du budget, avoir 40 % de performances en plus d'une RTX 2080 Ti pour 40 % de moins sur la facture finale est déjà un argument suffisant pour craquer. De quoi opposer à AMD et ses Radeon RX 6000 un double défi pour convaincre en novembre prochain : être au niveau, et le faire à un tarif aussi compétitif.