AMD Fidelity FX Super Resolution pour le 22 juin : les GeForce compatibles, peu de jeux concernés

AMD Fidelity FX Super Resolution pour le 22 juin : les GeForce compatibles, peu de jeux concernés

Les détails ? Plus tard

Avatar de l'auteur
David Legrand

Publié dans

Hardware

01/06/2021 3 minutes
11

AMD Fidelity FX Super Resolution pour le 22 juin : les GeForce compatibles, peu de jeux concernés

S'il y a bien une technologie qui était attendue chez AMD ces derniers mois, c'est son Fidelity FX Super Resolution. Le Computex a été l'occasion pour la société de donner de nouveaux détails à son sujet, mais il faudra encore attendre pour réellement savoir de quoi il en retourne.

Avec ses GeForce RTX de série 20 (Turing), NVIDIA a mis en place une solution technique intéressante : DLSS, ou Deep Learning Super Sampling. L'idée était de calculer l'image dans une définition inférieure à celle demandée, pour maximiser les performances, puis d'effectuer une mise à l'échelle via un modèle généré par une IA et les Tensor Cores. 

La première version était poussive et limitée, mais la 2.x est bien plus convaincante, intégrée à de nombreux jeux et des moteurs comme l'Unreal Engine. Elle est néanmoins limitée aux seules GeForce RTX. Depuis, AMD a toujours promis une solution équivalente, connue depuis peu sous le nom de Fidelity FX Super Resolution (FSR).

Notre dossier sur AMD au Computex 2021 :

FSR sera disponible le 22 juin, sur GeForce et Radeon

La société annonce aujourd'hui qu'elle sera accessible dès le 22 juin prochain. Elle fonctionnera aussi bien sur les Radeon que les GeForce, sans se limiter aux dernières générations (dès RX 470/Vega chez AMD), ce qui est plutôt une bonne chose. Mais la société ne dit pas comment cela fonctionne, passant rapidement sur le niveau de qualité obtenu.

Quatre niveaux de qualité/performances seront proposés. Dans Godfall sur une RX 6800 XT, cela permettra de passer en 4K avec ray tracing de 49 ips à 79 ips, 99 ips 124 ips ou 150 ips. Mais avec quel niveau de qualité ? La société ne s'est pour le moment pas vraiment étendue sur le sujet. Ce sera néanmoins le facteur de succès, ou d'échec.

Une compatibilité large, mais avec peu de jeux

AMD promet une compatibilité avec « plus de 100 » CPU et GPU, une dizaine de studios et moteurs de jeux en 2021, mais selon nos informations, seuls quelques jeux seront concernés au lancement. La société nous promet plus de détails d'ici le 22 juin. On devrait alors en savoir plus sur le fonctionnement concret de cette solution.

Vous pouvez proposer vos jeux à l'adresse suivante : amd.com/fsr. Pour rappel, l'Unreal Engine 5.0 intègrera une solution similaire, sur laquelle AMD dit avoir travaillé pour une optimisation à ses Radeon.

  • AMD FidelityFX Super Resolution FSR
  • AMD FidelityFX Super Resolution FSR
  • AMD FidelityFX Super Resolution FSR
  • AMD FidelityFX Super Resolution FSR

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

FSR sera disponible le 22 juin, sur GeForce et Radeon

Une compatibilité large, mais avec peu de jeux

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Commentaires (11)


Je reste curieux de savoir comment fonctionne leur solution. Autant DLSS, c’est “simple” car ça utilise du réseau de neurone, donc ça tape principalement dans les TPU (tensor core) des CG RTX (et derrière ça laisse donc les Cuda Core à la 3D). Cependant, les Radeon n’ont pas de TPU, donc quelque soit la façon dont ça fonctionne, il faut taper dans la puissance de calcul qui pourrait servir à la 3D.



Les réseaux de neurone risquent en effet d’être beaucoup trop consommateur en puissance pour avoir un gain aussi significatif dans ce cas là. De plus ce ne serait pas à l’avantage des Radeon lorsqu’en face, les RTX ont une partie matérielle dédié à ce genre de calcul (donc des gain de performance bien plus important si bien mise en oeuvre). Je pencherai donc sur un algo plus classique pour faire de l’upscaling.


Oui ça passera forcément par les shaders, mais à voir sur quelle implémentation. C’est surement ce qui explique les quatre niveau de qualité, pour reporter le choix sur l’utilisateur. Mais si au final on a les perfs de DLSS sans la qualité ou la qualité de DLSS sans le gain de perf… ça se verra vite (même sur quelques jeux)


Ce n’est pas la cible de l’article, mais j’aurais été curieux de savoir si cette techno sera utilisable sur les PS5/XsX…


C’est fait pour et annonce tel que. C’est d’ailleurs surtout là que ce sera intéressant, comme ça on pourra dire que les consoles peuvent faire de la 4K60 sans (enfin, trop) mentir :D Après il faudra voir quels seront les jeux supportés, mais il y a de grande chances que ce soit natif sur les prochains portages. Sans parler ensuite des solutions qui seront natives au moteurs comme l’UE 5.0


C’est un peu le sous entendu qui va avec. En effet, (attention, c’est assez simplifié) dans le cas des réseau de neurone convolutif (ce qui est très certainement le DLSS), l’image est analysée localement pour déterminer la nature des objets afin de faire un upscaling plus adapté, un peu comme si on nous demandait de peindre une photo sur une grande toile, on va interpréter l’image, les objets qui s’y trouvent afin de les redessiner en plus grand.



A coté, un algo type shader “classique”, je doute qu’il y ai beaucoup d’interprétation de l’image. J’ai du mal a voir comment ça peut tenir face au DLSS.



Techniquement, ça semble être que purement “logiciel” et ne pas faire appel à du matériel spécifique ou des capacité exclusive récent (vu que ça tourne sur une GTX1060 qui a déjà 5ans au compteur). Donc, ça devrait être utilisable sur les consoles.


Merci pour vos réponses.



Si c’est efficace, ou même que cela apporte un boost de perfs non négligeable (sans être à la hauteur du DLSS 2), ce sera toujours bon à prendre…


Je pense que ça fera toujours un bon taf ça donnera très certainement un image bien meilleur qu’un upscaling par interpolation (celui que tu as quand tu demandes à ta télé de sortir une image 4k avec une source HD ou FHD).



La 3D dans les jeu vidéo aujourd’hui, c’est beaucoup de petite astuce permettant de produire une image qui fait illusion en un minimum de temps (pour faire du temps direct). C’est déjà plein d’effet qui en soit ne sont en théorie pas terrible, mais dans la pratique, passe souvent assez bien tant que l’on ne sais pas où regardé. Par exemple, sans RT, les reflets sont généralement des technique très approximatives (un reflet dans l’eau, c’est souvent l’inversion intelligente de l’image déjà calculé et/ou d’un “ciel”-> ark survival n’aime pas les pioches) et je ne compte pas le nombre d’effet qui ne sont que des images 2D détouré et incrusté dans l’image (faire une pause dans un replay d’Overwatch et voir toute les effet “tourner” vers la caméra et je ne serai pas étonné que ce soit détouré grace au z-buffer).



Pour cette upscaling, malheureusement, les personnes savent où et comment regarder pour voir ses “problèmes”, donc ça va certainement gueuler que c’est moche. Mais dans la réalité, déjà, c’est un gain par rapport à rien (de toute façon, le matos n’est pas capable d’avoir les mêmes performances en résolution native) et il y a de grande chance que la plupart des joueurs, si on ne leur dit pas et qu’il ne savent pas, n’y verront que du feu.


bonjour,



je sais pas ce que va donner leur solution logiciel, mais pour une solution matérielle je pense qu il faudra attendre rdna 3 et ses chiplets, si j ai bien compris la technologie un cpu ou gpu chiplet c est un gpu composés de plusieurs chiplets ( “ et un chiplet = 1 core ” ). Si ( les chiplets/cores ) ils peuvent les programmés pour qu ils fonctionnent comme les “ Tensor core ” ils auront là , la solution matérielle.



A propos des “ Tensor core” est-ce que les gpu Nividia actuels sont-ils a “ moitié ” chiplets ? ( parce que a force d entendre parler de Tensor core j imagine une partie du gpu (14 voir 13 du die est composet de chiplets = tensor core)) ???


J’ai rien compris de ton histoire de conversion (un tensor core c’est une unité spécialisée dans le calcul matriciel, il n’y a pas de “conversion” possible). Il n’y a rien de chiplet dans les GPU NVIDIA, ils sont monolithiques, c’est une même puce, avec différents types d’unités.


ok , et je crois que je comprend mieux comment fonctionne les chiplets donc les Tensor core sont des unités dédiés a certaines opérations ( notamment les IA )


J’ai l’impression que tu confond chiplet et circuit logique programmable (genre FPGA). Un chiplet, ce n’est rien d’autre qu’une puce que l’on soude par dessus une autre puce.



Comme David l’a expliqué, une puce NVidia, c’est gravé d’un seul tenant, le terme “monolithiques” prend tous son sens. Cependant, dans les puce, tu peux répéter plusieurs fois une même “unité”. Par exemple, dans une RTX3080 il y a 68 répétitions d’un bloc qu’ils appellent le Streaming Multiprocessors (SM)



Dans ces SM, tu trouves 4 unité dédié aux calculs génériques sur les chiffre à virgule (FP32 : floating point 32bit), 4 unité capable de faire des calculs sur des entier ou, nouveauté d’Ampère, sur des chiffre à virgule (FP32+int32) 4 unités dédiées uniquement pour faire un seul type d’opération (D = A * B + C où A, B, C et D sont des matrice), 1 unité pour un type d’opération spécifique au calcul du raytracing (en gros ça va retourner ce que touche un rayon) et enfin plein d’autre trucs.



DLSS n’est pas vraiment une solution “matériel” non plus. Ca utilise le Deep Learning (ou plutôt les réseaux de neurones, car celui fournis est déjà appris). Or cette famille d’algo utilise massivement l’opération D = A * B + C. Il est possible de faire ce genre de calculs avec les unité FP32 (ou int32), mais les Tensor Core le réalise d’une manière particulièrement efficace (il fait matériellement ce calculs sur une portion complète des matrices là où la solution classique passe par un calcul “case par case”). Normalement, il serait très certainement possible de faire tourner DLSS sur une Geforce Serie 10 (et peut-être même des cartes plus ancienne), cependant ça risque d’avoir l’effet inverse tellement le calculs peut détourner beaucoup de puissance de calcul (principalement les FP32 et Int32) qui aurait pu servir à la 3D. Les Série 20 et 30 sont en effet capable de déléguer une grosse charge du calcul du DLSS (ainsi que du denoising dans le cas du raytracing) au Tensor Core, laissant les FP32 et les Int32 faire le calcul 3D de la scène