3DMark ajoute un test de performances en ray tracing, nos premiers résultats

3DMark ajoute un test de performances en ray tracing, nos premiers résultats

Le combat approche

Avatar de l'auteur
David Legrand

Publié dans

Hardware

03/11/2020 3 minutes
21

3DMark ajoute un test de performances en ray tracing, nos premiers résultats

Alors que les Radeon RX 6800 (XT) sont attendues pour la mi-novembre, UL Benchmarks vient de publier un nouveau test de performances consacré au ray tracing. Ce sera l'occasion de départager ces cartes avec les GeForce RTX de NVIDIA.

3DMark propose déjà une scène exploitant DirextX Raytracing (DXR) : Port Royal. Mais c'est autre chose qui est annoncé aujourd'hui, puisqu'il s'agit d'un Feature Test. Leur objectif est de permettre l'analyse d'une fonctionnalité en particulier, et donc d'obtenir un score qui soit le reflet des capacités des GPU en la matière.

Il en existe déjà pour la bande passante PCIe, DLSS, ou VRS. Le petit nouveau se focalisera donc sur le ray tracing via DXR (Tier 1.1). Selon nos constatations, il est incompatible avec les GeForce GTX, ce qui n'est pas le cas de Port Royal qui pouvait être exécuté sans accélération matérielle via les RT/Tensor Cores.

Dans son guide technique, mis à jour pour l'occasion, UL Benchmarks précise que le rendu des rayons est volontairement le facteur limitant de cette scène. Leur nombre pouvant être modifié. On compte ainsi 12 samples par pixel, utilisés pour créer un effet de profondeur de champ puis de flou de mouvement lors des déplacements.

3DMark Feature test Ray tracing

Aucun denoising n'est appliqué. La définition par défaut est de 2560 x 1440 pixels, tous les effets autres que le ray tracing sont réduits au minimum pour éviter qu'ils n'influent sur les performances relevées. La scène est statique, la structure utilisée pour l'accélération du ray tracing n'est ainsi calculée qu'une seule fois. 

Le score obtenu ne devrait donc pas être le reflet des performances en jeu, mais un bon indicateur des capacités des derniers GPU. Nul doute qu'AMD et NVIDIA se battront pour obtenir le meilleur résultat. Notez qu'un mode interactif est proposé et que 3DMark ainsi que plusieurs scènes ont été mis à jour au passage.

Nous avons pour le moment effectué quelques relevés et voici nos résultats :

3DMark Ray tracing RTX Benchmark

Il est intéressant d'opposer ici les résultats entre ces scènes, pour deux raisons. La première, c'est que l'on voit que l'écart est bien moins important dans le cas des RTX de série 30 (de 9 à 16 %) par rapport à celles de série 20 : 33 et 36 % pour les 2060 (Super) et 27 % pour la 2080 Ti. Au point que la 3070 dépasse cette dernière dans le Feature Test.

Ensuite parce que l'on note que sur les 2060 (Super), le gain par rapport au modèle précédent est plus faible sur le Feature Test par rapport à celui sur Port Royal. C'est l'inverse pour les modèles supérieurs. Il ne nous reste plus qu'à placer les Radeon RX 6800 (XT) et 6900 XT dans ce graphique, ce que nous ferons dès qu'elles seront arrivées au labo.

Comme toujours, n'hésitez pas à partager vos propres scores en commentaires. La scène est proposée sans surcoût à ceux qui disposent d'une licence Pro ou d'une Advanced achetée à partir du 8 janvier 2019.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Fermer

Commentaires (21)


Avec une RTX 3080 FTW3 Ultra, que j’ai aussi un peu OC à la main, j’ai 48,19 fps.


Le score obtenu ne devrait donc pas être le reflet des performances en jeu, mais un bon indicateur des capacités des derniers GPU.


C’est quelque chose que je ne suis pas sûr de comprendre.
Aujourd’hui les CG sont utilisées pour du rendu 3D dans les jeux, pour du rendu 3D dans des logiciels de 3D, et pour du calcul scientifique, en gros.
Si ce bench n’est pas utile pour estimer les performances en jeu, ni pour le calcul scientifique, on doit comprendre que ça ne sert que pour les softs de rendu 3D ?
Ou c’est juste un nouveau chiffre sur lequel les marketeux de Nvidia vont communiquer mais qui ne va se traduire par absolument rien derrière pour le consommateur ?


C’est juste pour avoir les performances d’une carte en ray tracing.
Comme le test de bande passante du PCIE ou bien des performances d’une carte en DLSS.



Comme ça tu peux voir les améliorations de perf d’une génération à l’autre, d’une carte à l’autre, d’un constructeur à l’autre, sur ce domaine précis.



dylem29 a dit:


Avec une RTX 3080 FTW3 Ultra, que j’ai aussi un peu OC à la main, j’ai 48,19 fps.




Est ce que l’OC influe sur ce test en particulier ?
J’essaierai ce soir sinon


Je ne pense pas, j’ai une carte OC de base, que j’ai OC aussi moi-même à la main, et j’ai juste 0,67 fps de + pas rapport à la 3080 de NXI. :D



Les RT cores ne peuvent pas s’OC je pense.


Chez NVidia, je vois à peu prêt comment le raytracing fonctionnent : il est grandement accélérer grace au RTCore (en gros, il servent à trouver le point de collision d’un rayon) et au Tensor Core (denoising), il ne reste donc que quelque calculs à faire sur les FP32/int32 core avec du coup des conséquences assez contenues sur la rastérisation (du raytracing hybride).



Pour AMD, je n’ai pas vu s’ils ont donné des détails de la façon dont ils s’y prennent, on ne sais même pas s’ils ont des unités dédiées pour ce genre de calculs ou si ça tape directement dans la puissance pour faire la rastérisation. A priori, AMD possède un équivalent des RT core, le Ray Accelerator (RA). Je ne sais cependant pas comment ils fonctionnent. Je n’ai pas vu d’équivalent des Tensor Core non plus (si c’est le cas, tout ce qui est denoising et équivalent d’un DLSS nécessite de détourner de la puissance de calcul 3D).


C’est un bench brut en RT, tout est désactivé ou presque à part le rendu RT. Dans un jeu, ce ne sera pas le cas. C’est utile pour décortiquer les performances d’un GPU, mais pas pour se faire une idée des performances concrète in-game.



Quant à savoir si ce test servira à AMD ou NVIDIA, on verra dans les faits. Le fait qu’il sorte avant les RX 6000 va plutôt dans le sens d’AMD d’ailleurs, on verra comment il tire profit d’Infinity Cache notamment et à quel point ils recoupe les performances réelles lors des tests.



AMD n’a rien dit des RA pour le moment, on verra d’ici les tests.


En gros le raytracing va devoir faire appelle à différentes unités de calculs de la carte graphique. Chez NVidia, le calculs principal du raytracing, la recherche de collision est effectuer par les RTCore. Mais il reste tout de même encore d’autres calculs à effectuer qui vont etre supporté par les unité de calculs plus générique. Or ces unité de calculs sont aussi mobilisé pour faire le rendu 3D de base de la scène (on est dans du ray tracing hybride, la scène est d’abord calculé traditionnellement en rastérisation, puis les effets de lumières sont améliorer par raytracing). Du coup, In Game, il va avoir une concurrence pour l’accès à ces unité de calculs génértiques là où dans ce bench, le coût de calcul de rastérisation est à priori très faible.



Il y a plein d’autre point qui peuvent ainsi faire que ce bench ne donne pas les réelles performance global d’une GC dans un jeu en raytracing, mais donne seulement une idée de la puissance maximale pour le raytracing. Ce n’est pas parce qu’une voiture atteint les 600km/h sur les lacs salés qu’elle sera performante en course sur un circuit.


Lien vers le guide technique mort, il ramène vers l’adresse 404 de inpact-hardware
(je sais pas si c’est vraiment le bon endroit pour signaler ce soucis ^^)



(reply:52360:Pieryck A.)




Il y a un bouton pour ça, mais c’est corrigé ;)


C’est pour cela que je déteste NVIDIA, toujours à foutre la merde avec leurs techno propriétaires alors que des standards sont proposés par les différents moteurs de rendu (Physx, RTX, DLSS …)


C’est marrant de dire ça sur RTX qui se repose sur DirectX Raytracing pour son implémentation dans les jeux sous Windows depuis le départ :D D’ailleurs tout le travail autour de DX Ultimate (qui englobe aussi VRS) a été conjoint à NV/MS puis implémenté par AMD dans RDNA 2.



Pour DLSS, ils développent la technologie pour leurs GPU (autant le modèle que la distribution, l’intégration aux moteurs/jeux), comme AMD le fait dans son propre cas pour certaines de ses solutions (Smart Access, toussa). Avec le temps, ces technologies se démocratisent et se standardisent parfois.



Après on peut préférer d’autres approches, mais il faut faire attention avec le “on se repose sur des standards” qui est parfois une manière de botter en touche quand on est à la bourre sur un sujet sans perdre la face (voir le cas FreeSync où AMD s’est raccroché à VRR pour faire oublier que la v1 de sa techno était vraiment mauvaise et que même sa v2 est encore en retrait sur certains aspects).



Je le dis souvent, mais il faut arrêter de penser que machin est vertueux ou que bidule est le mal. Ce sont des sociétés privées qui font avec leur environnement concurrentiel. AMD comme Intel comme NVIDIA a déjà eu des sales pratiques, en a encore et en aura encore. Les trois ont aussi des positions parfois très utiles pour l’ensemble du marché et une tendance à l’ouverture.



Rien n’est absolu dans ce monde, si ce n’est la position de certains utilisateurs :chinois:


Je dis pas que j’idolâtre AMD. Et ils m’ont déçu objectivement par leur manque d’ambition principalement pendant quelques années, je dis que j’aime pas la manière de procéder de NVIDIA.



Qu’ils développent du hardware aux petits oignons pour exploiter la partie soft, c’est bien, tant mieux pour la concurrence et pour les prix.



Mais par contre leur manière à chaque fois qu’une évolution technologique se présente, de toujours avoir l’idée d’en limiter l’accès à certains à coups de “soutiens” aux développeurs. Ça me les brise. Je préfèrerais qu’ils aient une approche plus ouverte, dans l’intérêt de tous les gamers et de tous les développeurs.



Et du coup ça m’énerve parce qu’AMD à l’air de prendre le même chemin.



Et pour finir laisse moi rêver de mon monde idéal :transpi:


comme dit, NV a une approche ouverte sur certains sujets, pas sur tous, comme AMD. Ils ne sont juste pas dans la même position de marché, ce qui implique des différences stratégiques parfois. Mon propos c’était surtout un rappel que le raytracing dans les jeux c’est principalement DXR.



NV a par contre travaillé sur ses propres extensions Vulkan quand il n’y avait pas d’implémentation standard. Mais là aussi l’intérêt de tout le monde est de passer par l’API unique. Mais chacun pousse ses technos chez les éditeurs/studios partenaires. Et quand ils peuvent se garder un avantage concurrentiel, ils n’hésitent pas à le faire.


Nous sommes d’accord et j’aime pas ça :D


Par exemple Cyberpunk semble être compatible RTX et non DXR si j’ai bien compris, et si c’est le cas: “On en à gros sire” !


Vous pensez quoi de Godfall qui nécessiterait 12 Go de Vram en 4k avec tout à fond ? J’ai la chance d’avoir une rtx 3080 mais j’avoue que je ne suis pas serein.


Faut attendre les benchs vu que c’est un studio soutenu par AMD apparemment, t’as plus qu’a attendre et prier :D


Ca va paraître noob mais je pensais que la gddr6x permettrait aussi de justifier une quantité moindre.



Daedelus a dit:


Par exemple Cyberpunk semble être compatible RTX et non DXR si j’ai bien compris, et si c’est le cas: “On en à gros sire” !




Je ne vois pas sur quoi tu te bases pour dire ça ? Comme dit, un jeu DirectX qui utilise le raytracing passe forcément par DXR.




Daedelus a dit:


Nous sommes d’accord et j’aime pas ça :D




:D




Yann14000 a dit:


Vous pensez quoi de Godfall qui nécessiterait 12 Go de Vram en 4k avec tout à fond ? J’ai la chance d’avoir une rtx 3080 mais j’avoue que je ne suis pas serein.




On verra, il risque d’y avoir une bataille sur ce terrain et les tentations sont grandes d’utiliser les jeux pour tirer sur la corde dans tel ou tel sens (on a déjà vu certaines fonctionnalités être poussées à l’extrême pour privilégier tel ou tel). Mais il n’y a pas de raison sur le fond.



L’un des soucis d’AMD sur cette génération sera notamment de justifier de ses 16 Go inutiles à part l’empirique “feature proof” déçoit dans 100% des cas (parce que le temps que ce soit utile la capacité de calcul de la carte est dans les choux). Et assumer que c’est surtout utile pour les crypto c’est pas top :D



Dans tous les cas on verra quand les jeux seront dispo et quelles seront les options intéressantes à (dés)activer selon les cas et besoins. Il n’y a que ça qui vaut, les prédictions et autres rumeurs n’existent que pour faire du clic ;)



Yann14000 a dit:


Vous pensez quoi de Godfall qui nécessiterait 12 Go de Vram en 4k avec tout à fond ? J’ai la chance d’avoir une rtx 3080 mais j’avoue que je ne suis pas serein.




Si t’as un pc avec un peu plus de 32 Go de ram, tu devrais pas avoir de soucis.
Tu vas me traiter de noob mais je me suis rendu compte avec des softs 3Ds que d’énormes scènes 3D ne tenant pas en RAM graphique se servaient de la RAM CPU en guise de cache “lent”, avec une augmentation des performances démentielles (passage de 15 secondes par images à 30 images par seconde…) (Logiciels: Cinema4D / Blender)