Radeon RX 6800 (XT) : détails de l'architecture, disponibilité et Smart Access Memory

Radeon RX 6800 (XT) : détails de l’architecture, disponibilité et Smart Access Memory

Bientôt les RX 6700 ?

Avatar de l'auteur
David Legrand

Publié dans

Hardware

18/11/2020 10 minutes
30

Radeon RX 6800 (XT) : détails de l'architecture, disponibilité et Smart Access Memory

C'est le grand jour pour les nouvelles Radeon RX 6800 (XT) d'AMD. Elles seront (brièvement) mises en vente à 15h, leur tarif public annoncé étant de 599/649 dollars. On en sait désormais plus sur leur architecture. Voici ce qu'il faut retenir en attendant les tests.

Nos confrères de VideoCardz ont pu mettre la main sur la présentation officielle des nouvelles Radeon RX 6800 (XT) d'AMD exploitant une puce Navi 21 gravée en 7nm. L'occasion de découvrir ce qu'elle cache et ses avantages.

RDNA 2 : AMD double sa mise

Il s'agit d'une puce complexe : 26,8 milliards de transistors pour 519,8 mm². Cela reste en deçà du GA102 de NVIDIA et ses GeForce RTX 3080/3090 : 28,3 milliards de transistors pour 628,4 mm². La densité est aussi supérieure à tout ce que l'on a vu jusqu'à maintenant : 51,6 millions de transistors/mm², contre 41 pour Navi 10, 45 pour le GA102.

AMD a fait, comme l'on s'y attendait, le choix d'une puce deux fois plus grosse que la précédente, d'où ses noms de code : Navi 2X et Big Navi. Elle a néanmoins misé sur un avantage de poids face à NVIDIA côté performance brute : elle n'intègre pas d'unités consacrées à l'IA (Tensor) et de manière réduite pour le ray tracing.

À la place, la société a fait deux choix stratégiques : doubler son nombre d'unités de calcul FP32 tout en ajoutant un large cache interne de 128 Mo lui permettant d'améliorer l'efficacité, toute relative jusque-là, de Navi.

80 CU, 80 Ray Accelerators... et l'Infinity Cache

La composition de la puce reste assez proche de ce que l'on avait jusque-là chez le constructeur, ce que les présentations de Microsoft sur le SoC de la Xbox Series X (qui exploite aussi RDNA 2) avaient déjà indiqué.

On retrouve ainsi 80 Compute Units (CU) et 4 Async Compute Engine (ACE), ce qui n'est pas sans rappeler la Instinct MI100 (à 120 CU), basée sur GCN, qui vient d'être annoncée. Chaque CU dispose de 64 stream processors, 4 unités de texturing et 1 seul ray accelerator. Ce dernier peut traiter 1 intersection de triangle ou 4 de box par cycle.

Comme on pouvait s'y attendre, AMD précise que son implémentation, bien que plus rapide qu'une solution logicielle, est encore assez basique. Si le calcul des intersections est accéléré, le parcours de la structure BVH et le shading sont en effet traité par des shaders via les Compute Units, de manière classique.

C'est sans doute ce qui pousse la société à vanter une approche sélective (et donc légère) dans les scènes du ray tracing. D'autant que cela arrange sans doute bien les consoles de nouvelle générations à la puissance limitée.

AMD Ray accelerator

L'Infinity Cache de 128 Mo évoqué précédemment sert ici à masquer la latence de cette implémentation. AMD précise au passage que sa consommation est bien plus faible qu'un accès mémoire (ce qui est assez logique) : 1,3 pJ par accès, contre 7 à 8 pJ pour la GDDR6 (avec un taux de réussite pouvant atteindre 58 % en 4K parfois).

Cela devrait sans doute expliquer des cas où la carte sera plus ou moins performante que dans d'autres, selon la capacité de l'Infinity Cache à faire ses preuves... et donc la conception des jeux. AMD ne s'en cache d'ailleurs pas, une bonne partie du gain d'IPC vient de ce cache, mais aussi d'évolutions d'unités (géométrie, tessellation), une meilleure gestion des fréquences, etc. Pour le reste, on a 4 Mo de L2 (partagé) et 1 Mo de L1 (distribué). 

Comme sur la MI100, les unités de calcul RDNA 2 ont droit à une fonctionnalité attendue : le calcul en précision mixte, nécessaire pour tous les traitements liés à l'IA qui ne nécessitent pas forcément du FP16/32 :

AMD RDNA 2 Mixed Precision
Crédits : VideoCardz

Ce sera notamment utile pour le ray tracing, puisque le principe d'un tel rendu en temps réel est pour l'instant de calculer une image incomplète, « bruitée », puis de la compléter. Ici, pas d'accélération spécifique mais AMD se reposer sur sa solution maison, présentée comme très efficace : FidelityFX Denoiser.

Son code source n'ayant pas encore été publié, on ne sait pas s'il se base ou non sur l'AI Denoiser qui avait été produit pour ProRender. On dispose également des autres nouveautés de DirectX Ultimage au sein de RDNA 2 : Mesh Shading, Sampler Feedback, VRS, DirectStorage.

Notez aussi que le HDMI 2.1 (48 Gb/s) avec rafraichissement variable est supporté. AMD reprécise travailler sur un équivalent de DLSS : Super Resolution. Mais il n'est pas encore disponible.

AMD DirectX Ultimate RDNA 2

Une carte « normale »

AMD vante son respect des formats classiques dans sa présentation, pour répondre à la conception inhabituelle des Founders Editions de NVIDIA et leur ventilateur traversant. Mais aussi leur TGP élevé et l'utilisation d'un connecteur PCIe à 12 broches plus compact. Le ventilateur est ici assez simple avec une chambre à vapeur, de la graphite pour le contact entre la base et le GPU, et une ventilation annoncée comme plus efficace.

Bien entendu on retrouve du fan stop, avec une nuisance sonore annoncée comme 6 dBA inférieure aux RX 5700XT. On note que le design est aussi plus plaisant, AMD précisant avoir également fait des efforts au niveau du PCB pour réduire le nombre de phases pour l'alimentation par exemple, la consommation au repos, la latence de réveil, etc.

AMD Radeon RX 6800

Grosse quantité de mémoire, petite consommation

La RX 6800 XT se contente ainsi de 8 puces mémoire et 2 phases d'alimentation, 15 pour le GPU. Le PCB est composé de 14 couches. Un connecteur est présent pour la gestion des LED. Les puissances d'alimentation recommandées sont de 650/750 watts pour les 6800 (XT) dont les consommations sont de 250 et 300 watts.

Trois profils de fréquence sont proposés, dont le fameux Rage Mode. Balanced étant celui par défaut. Les limites de TDP de ces modes n'ont pour le moment pas été précisées :

  • Silence : 1 950 MHz, jusqu'à 2 185 MHz
  • Équilibré : 2 015 MHz, jusqu'à 2 250 MHz
  • Rage : 2 065 MHz, jusqu'à 2310 MHz

Pour la vidéo on a droit à la décompression AV1 jusqu'à la 8K et la compression HEVC jusqu'en 8K également, avec B-Frame. Pour ce dernier point, NVIDIA le supporte également depuis Turing. La carte est bien entendu PCIe 4.0 x16. Elle embarque 16 Go de GDDR6 à 16 Gb/s. Un point qui ne semble pas abordé en détail.

Il ne devrait de toute façon avoir qu'un impact limité dans les jeux, agissant surtout côté marketing pour les joueurs amateurs de gros chiffres. Mais de telles quantités ne sont et ne devraient pas être nécessaires, même en 4K, avant un certain temps (hors de jeux inhabituellement gourmands). C'est surtout dans le domaine du calcul que cela peut montrer son intérêt. AMD ne semble pas communiquer sur le sujet pour le moment.

Nos confrères publient également de premiers chiffres de la Radeon RX 6800XT avec ray tracing, issus d'une présentation d'AMD qui a été plutôt discret sur le sujet en amont de ce lancement, malgré de nombreux détails diffusés. Mais cette fois, aucune comparaison n'est faite avec NVIDIA. Il faudra donc attendre 15h pour en savoir plus.

AMD Godfall Le jeu parfait selon AMD ? Godfall

Smart Access Memory pour Zen 3, Resizable BAR : que faut-il retenir ?

Autre point qui n'est pas évoqué dans la retranscription de nos confrères : Smart Access Memory (SAM). Pour rappel, il s'agit d'une solution propriétaire, réservée aux Radeon RX 6000, Ryzen 5000 et chipsets de série 500 (carte mère avec AGESA 1.1.0.0) qui permet de grappiller jusqu'à 11 % de performances selon le site du constructeur.

Comment ? « Dans les systèmes PC Windows classiques, les processeurs ne peuvent accéder qu'à une fraction de la mémoire graphique (VRAM) à la fois, ce qui limite les performances du système. Avec AMD Smart Access Memory, le canal de données augmente pour tirer parti de tout le potentiel de la mémoire du GPU, en utilisant la bande passante de PCI Express pour supprimer les goulots d’étranglement et améliorer les performances. »

Mais comme l'a fait remarquer NVIDIA à certains de nos confrères depuis, il s'agit en réalité d'une fonctionnalité standard du PCI Express, qui serait déjà implémentée sur certains produits professionnels. Son intégration au sein de solutions grand public est en cours chez l'ensemble des constructeurs, via les des standards du marché.

AMD Smart Access Memory

AMD aurait donc fait « une NVIDIA », à savoir, sortir une version maison réservée à ses produits en avance de phase pour favoriser ses dernières nouveautés : RDNA 2 et Zen 3. Une pratique que la société a pourtant tendance à critiquer quand c'est son concurrent qui s'y adonne. Et à l'inverse, le père des GeForce joue l'ouverture.

Interrogé sur le sujet, il nous confirme que la fonctionnalité Resizable BAR du PCI Express (puisque c'est de cela dont il est question) est supportée par ses cartes de génération Ampere (RTX de série 30). L'activation passera par ses pilotes et devrait permettre un fonctionnement avec les CPU AMD et Intel lorsque l'écosystème sera prêt.

AMD ouvrira-t-il alors à son tour plus largement SAM ? On peut espérer que oui. Mais pour le moment, nous avons seulement eu droit à la réponse suivante lorsque nous avons interrogé la société sur le sujet :

« En tant que seule société à proposer des CPU et GPU haute performance pour les joueurs, AMD est dans une position unique pour offrir une expérience de jeu incomparable. Avec Smart Access Memory, nous avons conçu, optimisé et validé tant des technologies logicielles que matérielles avec toutes les combinaisons de Ryzen 5000, de Radeon RX 6000 et de cartes mères équipes d'un chipset de série 500 avec les derniers BIOS et pilotes. Nous pensons que cette association ouvre l'accès à la performance maximale de la plateforme.

Smart Access Memory est basée sur les fonctionnalités standard du PCIe et de firmware (Resizable BAR) et a été développée avec une validation et une optimisation étendues de la plateforme. Nous accueillons toute opportunité de soutenir d'autres constructeurs dans leurs efforts tels que notre engagement à utiliser des solutions communes et des standards ouverts pour améliorer l'expérience utilisateur. »

Nous n'en saurons donc pas plus pour le moment.

Quid de la disponibilité des cartes ?

Comme nous l'avions évoqué assez tôt, et cela a été confirmé depuis par de nombreux confrères, la disponibilité des Radeon RX 6800 (XT) sera très faible. Encore récemment, aucune carte n'était arrivée. Finalement, des stocks fournis en dernière minute permettront à AMD d'éviter d'avoir droit au qualificatif de « paper launch ».

Mais on est dans l'ordre des dizaines d'exemplaires, qui devraient partir assez vite si les tarifs annoncés sont respectés. Que deviendront les 599/649 dollars annoncés ? Là aussi, rendez-vous à 15h pour le découvrir. Nous n'avons pour le moment pas de visibilité précise sur de futurs arrivages.

Nous tenterons de faire le point d'ici quelques jours. Nous mettrons bien entendu cet article à jour au fur et à mesure que de nouvelles informations seront diffusées.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

RDNA 2 : AMD double sa mise

80 CU, 80 Ray Accelerators... et l'Infinity Cache

Une carte « normale »

Grosse quantité de mémoire, petite consommation

Smart Access Memory pour Zen 3, Resizable BAR : que faut-il retenir ?

Quid de la disponibilité des cartes ?

Fermer

Commentaires (30)


FP64 en 1:16 ? pas mal du tout ça ! enfin c’est mieux que 1:32 ou 1:64 quoi :D


C’était déjà le cas sur Radeon VII. Après, faut que ce soit exploitable dans la pratique quoi :D


Ouaip mais c’est cool qu’ils n’aient pas fait une Nvidia là dessus


bonjour,



Pour la consommation de 300 W ca doit être en aircooling car c est pas précisé pour : “ la RX 6800 poussée à 2 553 MHz à seulement 60° C / 270W ” [[ l auteur de la new suppose du watercooling (ce qui parait logique vu les résultats) ]] -> https://www.tomshardware.fr/une-rx-6800-poussee-a-2-553-mhz-a-seulement-60c/ ( bon ok, c’est du Tomhardware c est l’équivalent aux journaux papiers a scandales/ragots).



la belle surprise de ces nouvelle cartes c’ est çà ( car je supposé que ce serait les rx6900 aux coudes à coudes avec les 3090) : la RX 6800XT plus performante que la RTX 3090 en 4K sous Ashes of the Singularity ->https://www.generation-nt.com/proposition-https-wccftech-com-amd-radeon-rx-6800-xt-beats-nvidia-rtx-3090-in-leaked-aots-4k-benchmark-actualite-1982269.html



et je retrouve plus la new lu dimanche ou lundi ou la 6800 de base, même un peu plus cher que la 3070 “ est largement ” plus performante que la 3070 ( je crois que c est hors raytracing, en raytracing elle est censé faire mieux de 10%-15% qu une 2080 super mais reste bien en dessous d une 3070, logique c’est la “ deuxième génération raytracing ” chez Nvidia.
Pourquoi j ai pas écris “ troisiéme génération ” bas tout simplement parce que le passage des 20702080 -> 2070 super/2080 super y a pas de changement.


300 watts c’est ce que donne AMD comme caractéristique, on verra dans la pratique. Pour le reste, comme tu fais tes bloubi-boulga habituels, je passe mon tour :chinois:


c’était pas 12 mais bridé à 14 la VII ?


Ah oui my bad, 1:16 c’était le rapport sur Navi et Vega classique :chinois;


“Faire une Nvidia”?! Quand Nvidia fait d’énormes Nvidias comme leurs bouses de RTX ou de DLSS personne ne leur fait de remarque. Là pour le SAM d’AMD qui n’oblige pas les développeurs à implémenter ou optimiser quoi que ce soit de propriétaire on se dépêche de dire qu’AMD “fait une Nvidia”? Le fait que le SAM ne fonctionne qu’avec des CPU et GPU AMD est sans commune mesure avec la propriétarisation des moteurs de jeux avec le RTX et le DLSS de Nvidia. Ou comment projeter les mauvaises pratiques de Nvidia qu’on a jamais osé critiquer sur AMD à la première petite occasion.


RTX repose sur DXR pour rappel dans le cas des jeux ;) Pour DLSS c’est différent, il n’y a pas de standard ou même de solution concurrente. Critiquer est une chose, encore faut-il le faire bien (et venir me reprocher de ne pas être critique, c’est quand même assez risible :D)



Là AMD a pris un standard en cours et l’a verrouillé sur ses produits pour faire une annonce en avance de phase. Faire une NVIDIA, c’est ça. Ce qui est d’autant plus étonnant qu’AMD se plaint constamment de telles pratiques (mais n’hésite pas à le faire de temps en temps).



Après comme dit, l’important c’est qu’ils ouvrent aux autres processeurs (notamment AMD) cette possibilité qui vient d’un standard à terme, et tout le monde sera content.


Hâte de voir les test du bouzin pour savoir si AMD nous fait bel et bien un retour sur le segment haut de gamme (enfin avec quelques béquilles quand même).


J’ai vraiment hâte de voir les tests aussi, je n’ai que faire du DLSS (ou autre logiciel d’upscaling) et je ne suis que moyennement convaincu par le Raytracing.



NVIDIA essaye de bluffer avec leur technos non utiles dans les jeux (RT Core, Tensor Core) et design de carte.



La founder edition est certes plus belle mais pas meilleur (overclocking, bruit et température) que les cartes des partenaires avec un design classique.



Si cela est avéré qu’en Raytracing elle bat la 2080 ti, je me poserai la question de l’utilité des RT Cores aussi …


DLSS c’est quand même une vraie bonne techno avec ses évolutions récentes. L’idéal serait d’avoir une implémentation générique dans tous les jeux, mas ça prendra sans doute du temps. Pour les RT Cores, c’est juste une accélération d’une fonctionnalité désormais présente dans les jeux (sans parler de l’aspect pro). On peut s’en passer, mais les jeux vont évoluer dans ce sens, même AMD le reconnaît.



Attention aussi à un point sur le ray tracing : le principe c’est comme évoqué de calculer une image bruitée puis d’utiliser un algo de denoising. D’un fabricant à l’autre, l’algo sera différent, la qualité d’image finale aussi. Il faudra comparer que l’on a bien des performances similaires à qualité similaire. (voir ce que l’on avait analysé sur Blender qui posera le même genre de questions dans les jeux).


Le potentiel d’OC à l’air intéressant, curieux de voir combien de MHz on va pouvoir en tirer



David_L a dit:


Après comme dit, l’important c’est qu’ils ouvrent aux autres processeurs (notamment AMD) cette possibilité qui vient d’un standard à terme, et tout le monde sera content.




Je présume qu’ils ne le font pas avec Intel pour l’instant a cause de la limitation de la bande passante du PCIe3.




David_L a dit:


DLSS … L’idéal serait d’avoir une implémentation générique dans tous les jeux




Je peux me tromper, mais il me semble que le DLSS est issu d’un entrainement de deep-learning entre la petite et la grosse résolution native, et que c’est le résultat de cet entrainement qui sert a faire l’amélioration d’image. Donc déjà c’est jeu dépendant, mais du coup c’est aussi SDK dépendant.
Déjà que NVIDIA et AMD arrivent pas a se mettre d’accord sur leurs SDK de calculs, alors je vois mal comment ils peuvent faire ça avec leur SDK de deep-learning :(


Du coup, il n’y pas de Core dédié au produit matriciel ou tout autre accélération pour les réseaux de neurones. J’attends donc de voir leur concurrent à DLSS, parce que là, tout se fera sur la puissance brut de la CG au dépend du calcul de la 3D.



Pour ce qui est debruitage du rendu en Ray tracing, c’est pareil.




Norde a dit:


Hâte de voir les test du bouzin pour savoir si AMD nous fait bel et bien un retour sur le segment haut de gamme (enfin avec quelques béquilles quand même).




Pour la rastérisation (“3D classique”), j’ai aucun doute qu’AMD propose de très bonne carte graphique et a largement les moyen d’exploser NVidia en ratio perf/prix.



Cependant NVidia a plus d’un joker dans sa manche et peut largement être avantager grace a ses performance en ray tracing (RT Core+denoiser sur tensor core) et post-traitement (tensor core avec entre autre DLSS2).



Il va surtout être beaucoup plus dur de comprendre les bench.



(reply:52982:Naruto`kun)




C’est pour ça qu’on a inventé les standards ;)



game1337 a dit:


J’ai vraiment hâte de voir les tests aussi, je n’ai que faire du DLSS (ou autre logiciel d’upscaling) et je ne suis que moyennement convaincu par le Raytracing.



NVIDIA essaye de bluffer avec leur technos non utiles dans les jeux (RT Core, Tensor Core) et design de carte.



La founder edition est certes plus belle mais pas meilleur (overclocking, bruit et température) que les cartes des partenaires avec un design classique.



Si cela est avéré qu’en Raytracing elle bat la 2080 ti, je me poserai la question de l’utilité des RT Cores aussi …




Les RT core sont des unité spécialisées pour faire une grosse partie du calcul de ray tracing sur les cartes NVidia. AMD propose ici son équivalent au travers des Ray Accelerators. Tu ne peux pas faire du ray tracing de manière raisonnable sur des unité générique de calcul.



Donc si tu veux comparer les chose, compare avec une séries 30 chez NVidia.



Les Tensor Core sont des unités spécialisé pour faire une grosse partie du calcul des réseau de neurones. Il s’avère que les réseau de neurones convolutif sont très performant pour ce qui est traitement des images et surpasse tous les algos classique. Ils sont ainsi utilisé pour le raytracing pour réaliser le débruitage et le DLSS.



Le DLSS est, comme l’a dit David, une bonne solution pour générer une image à moindre frais. La 3D en jeu vidéo, c’est de la triche 99% du temps (on va même jusqu’à triché au niveau des maths et utiliser une fonction approximative suffisant bonne pour que ça ne se voit pas trop).



Il faut en effet réussir à réaliser une beau rendu mais le faire en temps réel avec une fréquence acceptable. Il faut donc trouver des astuces pour avoir des effets qui rendent bien dans un temps faible. Et ça, la 3D, ce n’est que ça, ce n’est que des truc au mieux approximatif, au pire totalement faux mais ça passe crème quand même, mais qui s’exécutent rapidement.



DLSS s’inscrit dans ce principe de rapport qualité/prix, l’upscaling intelligent permet de produire une image de très bonne qualité, DLSS 2.0 n’a pas a rougir d’un rendu en résolution natif, mais surtout permet de n’avoir à calculer un rendu qu’avec 2 fois moins de pixel. Ce gain permet alors soit d’augmenter la fréquence, soit d’améliorer l’image (typiquement DLSS+ray tracing).




David_L a dit:


DLSS c’est quand même une vraie bonne techno avec ses évolutions récentes. L’idéal serait d’avoir une implémentation générique dans tous les jeux, mas ça prendra sans doute du temps.




D’après NVidia, DLSS 2.0 est générique à tous les jeux (Un seul réseau pour tous les jeux). Mais si ec que tu veux dire c’est qu’ils soit intégré dans tout les jeux, c’est en effet une autre histoire.


En fait DLSS 2.0 n’a plus besoin d’avoir un modèle adapté à chaque jeu. Mais chaque jeu doit proposer DLSS pour que l’utilisateur puisse l’activer. Vu que ça passe en général par le moteur, ça se répand avec le temps, mais dans tous les cas on est dépendant d’une implémentation particulière. L’autre solution serait d’appliquer le traitement à l’image affichée plutôt qu’à celle en cours de rendu, mais je suppose que ça couperai l’accès à de nombreuses informations utiles pour le modèle.


Finally! I can now start waiting for RDNA 3


“Critiquer est une chose, encore faut-il le faire bien”. Dans ce cas la critique sur le SAM comparé à une “Nvidia” c’est risible :mdr2: Aucune logique. AMD n’oblige pas les devs à implémenter quoi que ce soit pour cette techno contrairement à Nvidia qui prend le standard DXR pour le verrouiller et en plus oblige les devs à bosser pour eux pour l’implémenter. Idem pour le DLSS, et pourtant la presse applaudit. Quand Nvidia fait des Nvidia personne ne les critique, quand AMD fait le quart du tiers on le fait bien remarquer. Deux poids deux mesures. :keskidit:


Surtout que techniquement, c’est juste une optimisation du standard en soit. Donc si les jeux s’optimisent avec ce standard, ça sera juste plus percutant sur du full AMD. Un peu comme quand ça tourne mieux sur un Intel que sur un AMD plus puissant sur tout les plans. C’est x86 mais pas optimisé pareil.


L’important dans une techno c’est ce qu’elle apporte. Ensuite, la critique peut venir sur la manière dont on y accède. Comme évoqué, AMD prend une fonctionnalité du standard pour la réserver à une partie des composants de sa gamme alors que l’implémentation générique du standard (et ils le savent) est pour bientôt ailleurs. C’est détestable et si NVIDIA faisait ça, AMD serait le premier à critiquer.



Après tu peux comparer ça au boulot fait sur DLSS par NVIDIA qui n’a aucun équivalent. Mais entre développer de A à Z une telle solution pour tes produits et gratter un standard de quelques mois (sans le dire à tes clients) pour ton marketing, si tu ne vois pas de différence, je n’y peux plus rien.




Br31zh a dit:


Surtout que techniquement, c’est juste une optimisation du standard en soit. Donc si les jeux s’optimisent avec ce standard, ça sera juste plus percutant sur du full AMD. Un peu comme quand ça tourne mieux sur un Intel que sur un AMD plus puissant sur tout les plans. C’est x86 mais pas optimisé pareil.




Non, ils ont juste pris RBAR et l’ont locké sur chipset 500, Zen 3 et RX 6000. Il n’y a pas (que je sache) d’optimisation particulière. On verra quand on pourra comparer les deux implémentations dans le détails, mais c’est à peu près comme quand ils ont réservé Store MI (qui était un logiciel tiers sous licence) à certains chipsets uniquement (qui étaient pour certains des renommés d’anciennes versions pas concernées par la compatibilité).



Il leur fallait surtout un argument “plateforme”, c’était le candidat idéal.


En meme temps, si ça marche pas avec les autres CPU pour le moment car les autres CPU ne supportent pas encore ce standard… Ça me semble correct qu’AMD dise que ça marche mieux avec leur CPU. Et la réponse d’AMD va dans ce sens il me semble, ils vont respecter les standards quand ils seront dispo. Pour moi ça me semble être pas loin de la même chose que les routeurs qui se basent sur des draft de la norme Wifi.



Ça fait plusieurs fois que je trouve que les articles NI sont particulièrement critiques envers les produits graphiques d’AMD.



AMD participe quand même pas mal aux standards et fait beaucoup d’efforts sur l’open source, ce qui aide a la transparence de ce qu’ils font. Et on ne peut pas vraiment en dire autant de NVIDIA.


Ce n’est pas ce qu’ils disent, mais on verra ;)



Pour la critique, je suis dur envers tout le monde. Après, par période, certains font plus n’importe quoi que d’autres. Tu vois par exemple ici une critique, relis le propos sur le produit, je dis que la carte est… bien. Et même meilleure que ce que l’on attendait. Mais oui, AMD savait qu’il n’avait rien à proposer en stock, personne ne sait quand ce sera réapprovisionné, mais ça a été lancé quand même comme si de rien n’était.



Pour SAM, c’est aussi un truc détestable que de voir AMD, qui se drape dans le respect des standards dès que ça l’arrange, faire l’inverse dès que ça l’arrange (et ce n’est pas la première fois que c’est le deux poids, deux mesures dans leurs pratiques). Et par exemple, Godfall est un jeu DirectX dont le ray tracing est… exclusif AMD.



Je le dis souvent, mais je comprends que certains aiment bien AMD, ce sont les petits gentils face aux gros méchants. Mais spoiler : non, la réalité ce n’est pas ça, et je ne suis pas là pour dire du bien de tel ou tel pour le défendre ou inversement. Je suis là pour dire ce qui est.



AMD, Intel et NVIDIA sont des constructeurs, peuvent avoir des pratiques qui vont à l’encontre de l’intérêt de leurs clients. Dans tous les cas on le dénonce. Et quand ils font de bons produits (ce qui est le cas des 6800 modulo le ray tracing & co), on le dit aussi.



tazvld a dit:


(on va même jusqu’à tricher au niveau des maths et utiliser une fonction approximative suffisant bonne pour que ça ne se voit pas trop).




Excellent, j’étais passé à côté de cette astuce à l’époque.



[ mavie ] j’avais codé en assembleur 6502 (8 bits) sur Commodore 64 de la multiplication flottante (sur 16 ou 32 bits je ne sais plus), c’était sport. J’avais essayé des astuces dans le cadre de fractales de Mandelbrot, par exemple pour l’élévation au carré.


D’où évidemment le “Et à l’inverse, le père des GeForce joue l’ouverture.”
C’est pas comme si c’était grâce à AMD qu’on avait Vulkan (API Mantle à l’origine).
C’est pas comme si c’était grâce à AMD qu’on avait de l’affichage adaptatif (FreeSync)
C’est pas comme si c’était grâce à AMD qu’on avait de grosses avancées en termes de support Linux (ouverture large des pilotes même si évidemment il reste des parties propriétaires, libération du code d’outils logiciels ou API bas niveau).



Bien évidemment ils font ça parce que c’est également dans leur intérêt mais il n’empêche que ça reste une avancée majeure.



Par ailleurs il me semble assez ridicule de dire que AMD aurait “verrouillé le standard”.
S’il s’agit effectivement d’une “fonctionnalité standard du PCI Express”, alors exploiter cette fonctionnalité signifie simplement “enrichir son pilote pour que sa carte graphique puisse l’exploiter”. Je ne vois pas en quoi ni comment ce pourrait être une portion de code standard et partageable dans toutes les cartes graphiques de tous les constructeurs, ni pourquoi AMD devrait le faire pour les autres.



Environ 8 minutes de recherche m’auront suffi à confirmer mon intuition.
L’implémentation de la fonctionnalité requiert que a) la carte graphique le supporte matériellement, b) que la carte mère le supporte logiciellement, c) que le système d’exploitation le supporte logiciellement.
Or la spécification initlale date de 2008, et deux specs “enrichies” de 2016.
Or Linux supportent ça depuis plusieurs années, tout comme les pilotes graphiques open source d’AMD (ce qui réduit à néant le soi-disant aspect “propriétaire) confer par exemple…
https://www.reddit.com/r/Amd/comments/jk76u9/smart_access_memory_already_works_on_linux_and_is/
https://www.reddit.com/r/hardware/comments/jlhg7z/amd_smart_access_memory_what_it_is_and_how_it/
https://patchwork.kernel.org/project/linux-pci/patch/[email protected]/Et sous Windows depuis 2017.
https://docs.microsoft.com/en-us/windows-hardware/drivers/display/resizable-bar-support



Autrement dit, il n’y a rien de “propriétaire” ici, c’est juste que pour que la fonctionnalité soit exploitable il faut que chaque maillon de la chaîne la supporte matériellement et logiciellement. Il revient donc logiquement à chaque constructeur matériel d’assurer sa part (ne serait-ce que parce que c’est le mieux à même de le faire puisqu’il en est le concepteur et le rédacteur de pilotes).



AMD ont simplement décidé les premiers d’intégrer dans leurs cartes grand public une fonctionnalité qui était avant réservée aux cartes dédiées à certains types de calculs (et de pousser les constructeurs de carte mère à également intégrer le support logiciel afférent).



Tant que tu installes une carte qui le supporte, sur une carte mère qui a un BIOS capable de le gérer, et un système dont les pilotes permettent de l’exploiter, c’est ok. Peu important au-delà de ça la combinaison de constructeur de CPU, GPU, carte mère, et logiciel



Bref, Nvidia a fait un bon gros FUD juste parce qu’ils ont été vexés de pas y penser les premiers (ou qu’ils ont pu s’en passer jusqu’à maintenant pour conserver leur position et ont peur qu’AMD leur dame le pion avec ça sur cette génération), et tu reproduis avec enthousiasme.



Dis moi, tu traites toutes les news avec le même niveau de légèreté ? Ou c’est juste ton ressentiment personnel envers AMD qui te conduit à ça ?
Parce que bon les jugements de valeur inutiles qui égrènent tes articles passe encore (quoique), mais propager du bullshit marketing sous couvert de le dénoncer, c’est fort.



Si je me plante, je te remercie par avance d’indiquer les sources te permettant d’affirmer que a) seul un logiciel propre à AMD permettrait d’exploiter cette fonctionnalité pour les nouvelles cartes et b) il serait possible d’avoir un micro-code commun à l’ensemble des cartes graphiques pour exposer cette fonctionnalité.


@David_L J’essaye vraiment de mettre mon fanboyisme de côté, mais peut-être qu’il en reste encore :chinois:



Pour Godfall, je me dis que c’est peut-être pas nécessairement AMD qui les a forcé à faire une exclusivité (même si le tweet ne dit pas ça textuellement, mais je te crois). Les commentaires montrent que le jeu existe sur PS5, qui est aussi une RDNA 2. Les devs de Godfall préfèrent peut-être simplement investir dans une techno qu’ils pourront réutiliser sur leurs autres plateformes. (mais je te l’accorde, c’est hypothétique).



Enfin, pour SAM, apparemment qu’AMD le disent d’eux même que c’est principalement un renommage marketing de “Resizable BAR”: https://youtu.be/oUzCn-ITJ_o?t=124 . Perso je n’interprète pas cela comme une exclusivité ou un enfermement de l’utilisateur dans les produits AMD (à l’inverse d’NVIDIA avec son G-SYNC par exemple), mais plutôt comme une implémentation d’un standard comme ils l’ont fait précédemment avec FreeSync, qui n’était qu’une implémentation de VESA Adaptive-Sync.



Au final, les standards sont respectés chez AMD, mais toujours pas chez NVIDIA (enfin.. ils supportent les deux maintenant.. c’est déjà ça de pris).


Je sais pas pourquoi, je n’avais plus la fonctionnalité “répondre” mais c’est revenu. C’est juste pour te poker gentilement pour ma réponse ci-dessus ;)


Comme dit, AMD a pris une fonctionnalité qui doit fonctionner partout, en cours d’implémentation (et ils le savent), et on dit “regardez y’a SAM c’est un truc à nous et ça ne fonctionne que sur Zen 3 / RX 6000”. Faire ça, le présenter ainsi, c’est aller à l’encontre de tout ce que défend AMD.



Bien entendu qu’on doit pas mal de trucs ouverts à AMD (avec tout de même une vision moins romanesque que la tienne en réalité, surtout que leur ouverture est une position de marché), c’est d’autant plus détestable de les voir faire ça.



Après comme dit dans les différents articles, quand l’implémentation logicielle du standard (matériellement elle l’est déjà) chez d’autres constructeurs (pas que NV), on verra comment chacun se positionne. Pour le moment, AMD ne nous répond pas clairement sur le sujet.



ET au risque de me répéter, je n’ai de ressentiment pour personne. Je dis simplement quand un produit est bon ou mauvais. Quand un constructeur a des pratiques intéressantes ou l’inverse. Concernant SAM, la position d’AMD est mauvaise, son discours tout autant. Sur les 20 ans que je fais ce métier, j’ai dit du bien et du mal de tous, selon les périodes.



Il ne faut pas confondre l’amour qu’un lecteur porte à une marque (ce que je peux comprendre) et son incapacité à supporter qu’elle soit critiquée (ce que je comprends moins) avec du fanboyisme de ma part. Pour moi, aucune marque n’est sacrée. Toutes se moquent des utilisateurs dès que c’est dans leur intérêt.




Creak a dit:


Pour Godfall, je me dis que c’est peut-être pas nécessairement AMD qui les a forcé à faire une exclusivité (même si le tweet ne dit pas ça textuellement, mais je te crois).




On ne peut jamais vraiment savoir, mais bon, le jeu a été taillé pour son usage mémoire notamment ;) Pour le reste, c’est surtout assez étonnant de voir un jeu AMD réserver DirectX raytracing (une API standard) à RDNA2 après tout le foin fait par AMD sur le sujet du ray tracing par NV (alors que tous les jeux fonctionnant avec les RTX fonctionnent en RDNA2). La seule exception c’est Vulkan, parce que l’API n’avait pas à ses débuts de ray tracing, les développeurs se sont donc basé sur les extensions NV au début pour l’implémenter, Vulkan les ayant depuis intégrée en générique.




Enfin, pour SAM, apparemment qu’AMD le disent d’eux même que c’est principalement un renommage marketing de “Resizable BAR”: https://youtu.be/oUzCn-ITJ_o?t=124 .




Ils ont commencé à le dire une fois que NVIDIA était sorti du bois sur le sujet. Au début c’était simplement “voici SAM notre superbe nouvelle fonctionnalité RDNA2+Zen3”. Mais bon, comme dit l’important c’est à quel point ce sera ouvert à terme.




Perso je n’interprète pas cela comme une exclusivité ou un enfermement de l’utilisateur dans les produits AMD (à l’inverse d’NVIDIA avec son G-SYNC par exemple), mais plutôt comme une implémentation d’un standard comme ils l’ont fait précédemment avec FreeSync, qui n’était qu’une implémentation de VESA Adaptive-Sync.




C’est un peu plus compliqué que ça, mais sur le fond, il ne faut pas oublier que G-Sync c’est avant tout une solution matérielle intégrée aux écrans. On apprécie ou pas, mais c’est ça qui a apporté certaines garanties dans la qualité de la solution (notamment le 0-360 Hz, que ne proposent pas les VRR/FreeSync).



Comme dit au-dessus, AMD compte beaucoup sur les standards, mais ce n’est pas toujours par choix. Mais ils ont aussi toujours à travers le temps tenté de s’y raccrocher (XGP pour le GPU externe qui était un PCIe externe modifié, leur concurrent du Thunderbolt qui n’est jamais sorti, etc.).




Au final, les standards sont respectés chez AMD, mais toujours pas chez NVIDIA (enfin.. ils supportent les deux maintenant.. c’est déjà ça de pris).




Je ne vois pas quel standard NVIDIA ne respecte pas. AMD comme NVIDIA ont des solutions qui reposent sur des standards. Parfois ils ont des fonctionnalités propriétaires pour tel ou tel aspect de leurs produits en complément. Pour le calcul NVIDIA gère parfaitement OpenCL par exemple, mais ils ont aussi CUDA et des solutions comme Optix pour le ray tracing, mais qu’ils implémentent dans Blender. AMD son ROCm, et son moteur ProRender, mais ils vont participer aussi à Cycles apparemment, etc.



Là où NVIDIA se différencie, c’est qu’ils n’ont pas de pilote open source officiel. Ils contribuent ici ou là mais ce n’est pas encore aussi poussé qu’AMD ou Intel sur le sujet. M’est d’avis qu’avec le temps ça évoluera, mais ce n’est pas encore le cas, et ça on peut clairement le leur reprocher :chinois:



PS : on a fait le point sur la limiitation d’accès à DXR dans Godfall/Cyberpunk 2077


Le RTX, le DLSS, le CUDA ce sont des standards? C’est quand la dernière fois que Nvidia a joué l’ouverture? Franchement faut arrêter d’inverser les réalités. Je comprends que certains aiment bien Nvidia mais de la à reprocher à AMD ce que fait tout le temps Nvidia sans essuyer la moindre critique c’est fort de café quand même. D’un côté AMD serait critiquable pour le SAM et de l’autre Nvidia on n’a rien à leur reprocher? Désolé mais là c’est un peu hypocrite… Nvidia n’arrête pas d’obliger les devs à optimiser leurs moteurs pour ses technos propriétaires. C’est quand la dernière fois qu’AMD a fait ça?