La Gamescom est lancée ! NVIDIA profite du salon européen consacré au jeu vidéo pour mettre sur le marché ses GeForce RTX pensées pour le ray tracing, en dévoilant seulement quelques caractéristiques. En attendant les tests, voici ce que nous pouvons vous en dire.
Hier soir, NVIDIA a dévoilé sa nouvelle génération de GeForce, destinée au marché des joueurs. Une annonce attendue, deux ans après celle des GeForce GTX 1070/1080 et l'arrivée des GPU de la génération Pascal dans nos PC.
On ne peut pas dire que la conférence fût une grande réussite. En retard, répétitive, assez longue et comprenant très peu de détails sur les produits. Jen Hsun Huang aura passé plus de temps à nous parler du reflet des flammes dans les yeux d'un personnage de Battlefield V que des performances de ses nouveaux bébés. Certains y verront un signe.
Sans parler du site mis en ligne une heure avant l'annonce sur scène ou les blagues tombées à plat, comme la répétition du mantra de NVIDIA ces derniers mois : « tout ce que vous avez lu est faux, vous allez être étonnés ». Un discours qu'il aurait été bon de ne pas tenir, toutes les photos et caractéristiques des produits ayant fuité dans les 24 dernières heures.
Mais passons sur ces erreurs de forme, pour nous attaquer au fond. Si le PDG a dit peu de choses de ses nouvelles cartes exploitant l'architecture Turing, la presse devant dévoiler tous les détails techniques d'ici le lancement, certains éléments sont déjà assez intéressants à analyser pour comprendre ce qui nous attend.
Et autant vous dire qu'il n'y a pas que des bonnes nouvelles.
Les GeForce de la série 20 sont là !
La première surprise vient de l'absence totale d'annonces concernant l'écosystème. En effet, s'il a été (longuement) question de rayons de lumière, des partenaires et des jeux qui tireront parti de la technologie RTX pour le ray tracing (partiel) en temps réel ou le Deep Learning Super-Sampling (DLSS), nous n'avons pas entendu un mot sur l'évolution des pilotes (qui en auraient bien besoin).
Même chose pour le port VirtuaLink ou l'arrivée des Big Format Gaming Display qui n'ont même pas droit à un billet de blog (pour le moment). Ils étaient pourtant annoncés pour cet été et s'adaptaient parfaitement à l'annonce du jour : des GPU capables de faire tourner des jeux à 60 images par seconde, en 4K HDR, sur de nombreux titres haut de gamme.
Il a donc simplement été question du lancement de trois cartes : les GeForce RTX 2070, 2080 et 2080 Ti. Ici, on note que NVIDIA a fait le choix de dégainer directement un modèle « Ti », sans forcément aller jusqu'à annoncer un « Titan ». Ce dernier étant plutôt destiné aux stations de travail qu'aux joueurs, la Gamescom n'était sans doute pas le moment le plus adapté. Heureusement, il reste la GPU Technology Conférence (GTC).
L'annonce d'un modèle Ti semble montrer que NVIDIA voulait marquer le coup, et qu'il n'était pas persuadé que le simple duo de 2070/2080 suffirait à obtenir ce résultat. C'était sans doute bien vu.
Pour s'en persuader, il suffit de regarder les caractéristiques de la gamme. Nous avons regroupé ici tous les modèles depuis la GeForce GTX 1070 jusqu'aux Titan V. N'ayant pour le moment pas le détail du nombre de ROP, de Tensor/RT Cores, d'unités de texturing, etc. nous avons fait l'impasse sur ces points :
Comme on peut le voir, les caractéristiques de la RTX 2070 se situent assez proche de la 1070 Ti, tout en restant en dessous sur la plupart des éléments (excepté la bande passante mémoire et RTX), alors que la RTX 2080 semble à mi-chemin entre les 1080 et 1080 Ti. Il fallait donc une carte plus pêchue, capable de faire dire à Jen Hsun Huang « nous faisons mieux que la Titan Xp » hors du simple cadre du ray tracing, c'est là que la RTX 2080 Ti entre en scène.
Son rapport CUDA Cores / fréquence / mémoire semble lui donner une avance de 10/15 % sur la Titan Xp, même s'il est pour le moment impossible de savoir ce que la nouvelle organisation de l'architecture Turing apportera comme gains à caractéristiques constantes. Ce sera l'un des points fondamentaux à analyser lors des tests.
Pour le moment, seule la Titan V semble hors de portée sur le papier, avec ses 5 120 CUDA Cores à 1,46 GHz et ses 12 Go de HBM2 à 653 Go/s. Avec un GPU qui compte au maximum 4 608 CUDA Cores à en croire les caractéristiques de la Quadro RTX 8000, pour une bande passante de 672 Go/s, il faudra bien un nouveau modèle Titan pour la détrôner.
Là aussi, il sera intéressant de voir comment NVIDIA va communiquer, et si le constructeur n'est pas tenté de mettre le ray tracing spécialement en avant pour compenser une potentielle faible évolution sur d'autres aspects.
Penser la mesure de performances autrement
C'est d'ailleurs lorsque Jen Hsun Huang a commencé à indiquer qu'il fallait de nouveaux indicateurs de performances que cette idée saugrenue nous est venue à l'esprit.
Quand un constructeur commence à évoquer ce genre de thématique sans montrer le moindre graphique vantant les résultats de son nouveau produit dans des conditions classiques... c'est en général qu'il faut s'attendre à être déçu. C'est peut-être aussi une manière de préserver une bonne surprise, nous verrons lors du verdict de nos confrères.
Dans tous les cas, le véritable écart entre les séries 10 et 20 semble destiné à se retrouver une fois le ray tracing exploité. Pour le moment, les quelques démonstrations effectuées ne semblaient pas de nature à changer la vie des joueurs, mais sur ce terrain, NVIDIA joue le long terme.
La société sait que tout dépendra de l'évolution des prochaines générations de moteurs graphiques, qui vont progressivement intégrer DirectX Raytracing (DXR) et les technologies de chaque constructeur, pour les diffuser dans les jeux. Ces GeForce RTX seront alors déjà prêtes (mais il faudra sans doute en changer pour mieux en profiter).
Mais comment le constructeur conseille-t-il d'évaluer ses cartes ? Quels outils sont mis en avant ? Quelles démonstrations seront mises à la disposition des testeurs ? Là aussi, les réponses seront intéressantes à décortiquer.
Des prix élevés, annoncés de manière honteuse
Surtout que NVIDIA ne peut pas se permettre de décevoir pour une simple et bonne raison : les prix sont élevés. Jen Hsun Huang ne s'y est d'ailleurs pas trompé, et a surtout martelé sur scène que ses cartes étaient proposées « à partir de 499 dollars ». Un tarif hypothétique et pour le moment introuvable, et cela risque de ne pas s'arranger.
On regrette une telle pratique, d'autant que même les modèles Founders Edition, vendus en direct par NVIDIA, voient leur tarif débuter à 599 dollars pour la GeForce RTX 2070. L'évoquer sur scène apparaissait comme la moindre des choses, mais peut-être cela aurait-il nécessité d'expliquer que ces cartes coûtent de 100 à 200 dollars plus chères pour 5 à 6 % de fréquence boost en plus, et un refroidissement à deux ventilateurs sélectionné par NVIDIA :
Pour rappel, lors de l'annonce des GTX 1070 et 1080 il y a deux ans, les tarifs étaient les suivants :
- GeForce GTX 1070 : 379 dollars
- GeForce GTX 1070 FE : 449 dollars
- GeForce GTX 1080 : 599 dollars
- GeForce GTX 1080 FE : 699 dollars
L'année suivante, la 1080 avait droit à 100 dollars de rabais et la 1080 Ti était annoncée à 699 dollars. Autant dire qu'avec un tarif de 999 à 1 199 dollars pour la 2080 Ti, l'inflation parait un brin élevée. NVIDIA semble ici avoir fait un choix : appliquer la tarification des Titan aux GeForce Ti. Pour rappel, en mars 2015, la Titan X était lancée à... 999 dollars.
Turing a intérêt à montrer son efficacité
Ce surcoût de la série 20 s'applique d'ailleurs au reste de la gamme. Actuellement, on peut trouver des GeForce GTX 1070 (Ti) et 1080 (Ti) entre 400 et 700 euros. On notera que les choses sont en train de bouger puisqu'une 1080 et une 1070 affichent désormais le même prix d'entrée : 500 euros.
Selon notre relevé de ce matin, qui compte déjà quelques augmentations par rapport au lancement des précommandes hier soir, une GeForce RTX 2080 coûte 830 euros contre 1240 euros pour le modèle Ti. Si l'on applique une règle identique à la RTX 2070, elle devrait se situer aux alentours de 600 euros.
L'inflation à dénomination constante se situe donc entre... 50 et 80 %, selon les cas. C'est le prix à payer quand la concurrence est totalement absente (avec des Radeon RX Vega sans doute complètement larguées).
Jusqu'à six fois plus de performances ? Sans doute pas dans un jeu classique
Le problème, et c'est là que la question de l'efficacité de l'architecture Turing sera vitale, c'est que les caractéristiques ne suivent pas vraiment la même hausse. Notre « score d'intérêt » qui prend en compte le nombre de CUDA Cores, la fréquence et la bande passante mémoire grimpe de 15 à 25 % selon les cas.
Le score intérêt/prix passe de 0,7/0,8 pour les GeForce GTX à 0,5/0,6 pour les GeForce RTX, en baisse de 20 à 30 %. Il était de 0,43 pour la Titan Xp, 0,2 pour la Titan V. Là encore, espérons que la conception et l'efficacité de l'architecture Turing permettront de compenser la baisse de ces chiffres.
Achetez d'abord, on vous dira tout ensuite
C'est d'ailleurs là que l'on reproche à NVIDIA une autre pratique, de plus en plus courante chez les constructeurs : le lancement des précommandes dès l'annonce. Mais au moins, quand AMD dévoile de nouveaux Ryzen, il se donne la peine de livrer quelques chiffres de performances lorsqu'il utilise une pratique si détestable. Ici, rien ou presque.
Les revendeurs ne publient pas les caractéristiques complètes des cartes, nous n'avons aucune idée des performances sur les jeux actuels, les acheteurs doivent donc faire confiance à NVIDIA et à l'enthousiasme de son patron... et attendre le 20 septembre pour savoir si votre dépense de 800 à 2 000 euros valait le coup.
Les journalistes, eux, n'auront accès à tous les détails que dans les jours à venir. Il faudra sans doute compter sur les premières fuites pour en savoir plus, et patienter quelques semaines/mois avant de bien appréhender tout ce qu'implique l'arrivée de l'architecture Turing... mais les premiers lots seront déjà écoulés.
Rendez-vous donc sous peu pour savoir si les GeForce RTX étaient un coup de bluff, ou un coup de génie.