Au CES 2022, AMD, Intel et NVIDIA évoquent leurs nouveaux GPU

Au CES 2022, AMD, Intel et NVIDIA évoquent leurs nouveaux GPU

Mais pas leurs prochaines architectures

Avatar de l'auteur
David Legrand

Publié dans

Hardware

07/01/2022 8 minutes
16

Au CES 2022, AMD, Intel et NVIDIA évoquent leurs nouveaux GPU

2022 va être une année importante dans le domaine des solutions graphiques, Intel devant proposer ses premières cartes dédiées exploitant une architecture Xe. AMD et NVIDIA doivent aussi renouveler leur offre. Tout le monde se prépare donc, même si le CES de Las Vegas s'est concentré sur le court terme.

Depuis des années, le marché des solutions graphique évolue peu dans ses équilibres, malgré les nouveautés régulièrement mises sur le marché. Intel est largement leader avec les IGP de ses processeurs Core, NVIDIA domine le marché des cartes graphiques. Et AMD ? Il se fait une place plus ou moins importante selon les périodes.

Mais avec le « transfert » de Raja Koduri d'AMD vers Intel, et la construction d'une équipe dédiée à son projet Xe, le géant de Santa Clara a clairement affiché sa volonté de devenir un acteur de poids dans le domaine des cartes graphiques, tant pour les joueurs sur l'offre grand public que les professionnels dans les serveurs.

Il faut dire que le GPU a pris du poids, que ce soit au niveau financier ou dans la part de marché des solutions de calcul haute performances. Outre ses investissements dans des accélérateurs divers, Intel ne pouvait pas rester sans rien faire. Après le lancement de nouvelles solutions graphiques intégrées à ses processeurs Core (de 11e et 12e génération), 2022 doit être le grand moment pour ses GPU maison, désormais connu sous le petit nom d'Arc

Mais tout ne s'est pas passé comme prévu. Le CES de Las Vegas n'était donc que l'occasion de faire le point. Pendant ce temps, AMD et NVIDIA continuent de déployer la feuille de route de leurs générations actuelles, pour PC de bureau et portables, avant de dévoiler leurs nouvelles architectures plus tard dans l'année. 

Intel Arc : ça arrive, c'est promis

Avec Raja Koduri, on a tendance à se méfier des effets d'annonces et autres promesses qui pourraient ne pas être tenues. L'homme est connu pour son amour du teasing, parfois un peu précoce. Xe/Arc n'a pas échappé à la règle.

Cela fait des mois qu'il publie des photos des puces DG2, que l'on a droit à des vidéos de présentation, mais rien de vraiment concret : quelles performances, quelle gamme, quels prix ? Officiellement, nous n'en savons rien. Le CES devait au départ être un moment important pour le lancement de ces cartes graphiques, puis cela a été retardé.

Comme nous l'avions annoncé il y a quelques semaines, la décision a été prise de positionner le lancement plutôt fin février ou courant mars. Car la dernière promesse en date est un lancement au premier trimestre 2022. Elle a été réitérée par l'équipe Intel Graphics pendant la conférence du CES, évoquant de premières livraisons aux intégrateurs (OEM). Mais comme l'on remarqué certains, le site officiel ne mentionne plus que 2022 désormais.

Ceux qui s'attendaient à plus de détails à l'occasion de la conférence diffusée il y a quelques jours auront été déçus. On a simplement eu droit à une démonstration de la rapidité de compression vidéo avec un GPU utilisé conjointement à une partie graphique intégrée, XeSS en est encore au stade du travail avec les éditeurs.

Bref, on sent qu'Intel tire un peu la langue pour tenir les délais et va sans doute user d'autres astuces marketing dans les deux prochains mois pour que le lancement se déroule bien au premier trimestre même si tout n'est pas tout à fait prêt. L'enjeu est d'ailleurs sur un point qui n'a pas beaucoup été évoqué : les pilotes. Ce sont eux qui pourront faire le succès ou le raté du lancement à venir pour ces solutions visant les joueurs.

AMD multiplie les nouveautés (gare aux détails)

Comme pour les processeurs, AMD avait de nombreuses nouveautés à évoquer à l'occasion du CES de Las Vegas. La première était l'arrivée au premier trimestre d'un nouveau pilote majeur, devant notamment apporter la fonctionnalité Radeon Super Resolution (RSR). Elle permettra d'appliquer le super sampling maison à n'importe quel jeu, même ceux ne supportant pas FidelityFX Super Resolution (FSR), comme l'a fait NVIDIA il y a peu.

AMD évoque aussi des améliorations pour AMD Link 5.0, la technologie Privacy View pour éviter que des tiers lisent votre écran par-dessus votre épaule dans les lieux publics sans filtre matériel (via l'eye tracking d'eyeware).

Du côté des PC portables, de nouveaux GPU mobiles sont au programme : les Radeon RX 6850M XT, RX 6650M XT, RX 6650M, RX 6500M et RX 6300M. Elles sont détaillées ici. Mais ce qui est le plus intéressant est sans doute l'arrivée des Radeon RX 6000S, des modèles « sweet spot » au niveau de l'efficacité énergétique, comme Max-Q chez NVIDIA.

AMD Radeon RX 6000SAMD Radeon RX 6000S

L'objectif est ainsi similaire : permettre la mise sur le marché de machines pour joueurs plus fines et silencieuses, le tout accompagné du programme AMD Advantage. AMD évoque aussi l'arrivée de SmartShift MAX pour une gestion équilibrée de la puissance et de l'échauffement entre un CPU Ryzen (6900H) et une Radeon (RX 6850M XT).

Un mode SmartShift ECO doit également arriver plus tard dans l'année, avec la promesse d'un temps de jeu doublé sur batterie. De premières machines sont attendues pour ce trimestre, comme le ROG Zephyrus G14 d'ASUS qui sera le premier modèle Advantage à intégrer un Ryzen 9 6900HS et une Radeon RX 6800S. D'autres suivront.

Du côté des cartes graphiques pour PC de bureau, les Radeon RX 6400 et RX 6500 XT ont été lancées comme prévu. AMD espère bien qu'elles seront largement disponibles du fait de leur mémoire de 4 Go, qui « tue » tout intérêt pour les amateurs de cryptomonnaies. Elles pourraient ainsi être plébiscitées. Mais attention aux détails.

En effet, leurs fiches techniques nous apprennent que l'accélération matérielle pour la compression H.264/H.265 et la décompression AV1 n'est pas de la partie, contrairement aux autres Radeon RX 6000. De plus, ASRock les indique comme limitées à du PCIe 4.0 x4. Il faudra donc attendre de pouvoir analyser leurs performances en pratique.

Notez enfin que ces limitations sont liées à l'utilisation d'une nouvelle puce, gravée en 6 nm : Navi 24. Elle est utilisée comme base pour ces nouveaux modèles d'entrée de gamme et les Radeon RX 6300M/6500M.

NVIDIA joue les gros bras avec sa GeForce RTX 3090 Ti

Du côté des GeForce, les conférences se suivent et se ressemblent. On a eu droit au rappel du ray tracing via RTX qui arrive dans de nouveaux jeux, tout comme Reflex, avec de nouveaux écrans à la clé. GeForce Now a aussi été évoqué, afin de préciser que de nouveaux titres arrivaient, mais que le service était intégré aux TV Samsung.

Les GeForce RTX 3070 Ti et 3080 Ti pour PC portables Max-Q de 4e génération ont été annoncées. Tarif de départ pour ces machines fines et silencieuses, attendues dès février : 1 499 et 2 499 dollars, officiellement.

Mais on attendait surtout des nouvelles de la GeForce RTX 3050, nouveau modèle « d'entrée » de gamme qui a été annoncé à 249 dollars. Pénurie mondiale oblige, on s'attend à ce que ce modèle soit bien plus cher en pratique, même s'il comportera un limiteur de hashrate pour désintéresser les mineurs de cryptomonnaies. 

Cette carte sera disponible le 27 janvier et promet des performances bien meilleures que la GTX 1650. Elle dispose de 8 Go de GDDR6 (128 bits), 9 TFLOPS de puissance de calcul via 2560 CUDA Cores, son TDP est de 130 watts. Elle dispose du même moteur de traitement vidéo que les autres RTX de série 30 :

GeForce RTX Série 30 2022

Elle se positionne ainsi par-dessus la Radeon RX 6500 XT qui est annoncée à 199 dollars pour AMD (19 janvier). Il sera donc intéressant de comparer ces cartes en pratique, ainsi que leurs tarifs réels chez les revendeurs.

Notez enfin que les professionnels ont désormais accès à Omniverse, disponible en Production Release. Une mise à jour de Canvas AI et de l'application dérivée sont aussi accessibles. De nouveaux pilotes (511.09) ont d'ailleurs été mis en ligne dans la foulée. Mais on a surtout eu la confirmation du lancement prochain de la GeForce RTX 3090 Ti.

NVIDIA doit en dire plus à son sujet dans le courant du mois. Il s'agira dans doute d'un modèle grand public dérivé de l'actuelle RTX A6000, avec moins de mémoire... et à un tarif très élevé mais tout de même moindre.

GeForce RTX 3090 Ti

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Intel Arc : ça arrive, c'est promis

AMD multiplie les nouveautés (gare aux détails)

NVIDIA joue les gros bras avec sa GeForce RTX 3090 Ti

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Fermer

Commentaires (16)


Je me demande pourquoi je lis, tellement je suis blasé par cette situation de pénurie et de minage qui rend les CG hors de prix (quand on en trouve)… Ou alors, il faut prendre des CG de moins de 4Gb de mémoire si je comprends bien l’article, c’est un début.



Mais du coup, David, Je ne comprend pas trop ce terme “des modèles « sweet spot » au niveau de l’efficacité énergétique” ? Help ! Histoire que je couche moins bête ce soir :)



(reply:62152:dvr-x)




Le but c’est de trouver le compromis consommation performance.
En gros l’augmentation de perf sur une architecture n’est pas linéaire, pour gagner quelques mhz à la fin la tension s’envole et donc la conso aussi, c’est une courbe exponentielle en général.



Le but ici c’est donc de rester dans la partie basse, avant que la conso ne s’envole pour avoir une conso raisonnable avec de grosses perf.
Là ou jusque là on a tendance à grappiller le plus possible pour péter les perfs histoire de dire c’est moi qui ait la plus grosse.



“nous apprennent que l’accélération matérielle pour la compression H.264/H.265 et la décompression AV1 n’est pas de la partie, contrairement aux autres Radeon RX 6000.”
ça j’espère que ce n’est pas le cas, car ça tue totalement l’intérêt des petits gpu pour la vidéo. :/



(reply:62152:dvr-x)
Tu peux te caler sur les liste de diffusion des éditions fondeur (FE partalert sur telegram par exemple).
Les prix sont raisonnables mais il faut être rapide quand il y a un nouvelle arrivée.



J’ai hâte de lire le test de la 3050. Enfin une carte adaptée à mon boîtier mini ITX avec une consommation réduite. Même si je me fais aucune illusion sur la possibilité d’en acheter une…


je me demande pourquoi nvidia ne surf pas sur le bitcoin, avec des cartes graphiques vendu un bras et ultra performante, vu les usines de carte graphiques qui existe avec + de 1000 cartes, ca comblerait les mineur en herbe et rendrait dispo leurs autres cartes pour les joueurs.


Parce que les cryptos sont volatiles et la demande variable. Investir dans des lignes de montages et une architecture dédiée sans être sur de la pérennité de la demande me paraît risqué quand à côté tout se vend sans le moindre effort.



Ils surfent déjà à fond sur la vague.


L’AV1 est encore très peut utilisé mais ça pourrait peut être poser quelques soucis sur le long terme mais d’un autre côté la majorité des gens qui achètent ce genre de carte n’ont aucun besoin de compression H.264/H.265, si ?


Ben ça peut justement.
L’intéret d’un gpu d’entrée de gamme, c’est de moderniser une config ancienne pour alléger le cpu sur tout ce qui est multimédia justement.



De plus, ASRock les indique comme limitées à du PCIe 4.0 x4




ça a vraiment un impact sur les perfs d’une carte graphique entrée de gamme d’être câblée en x4 au lieu de x8 ou x16 ? de mémoire j’avais vu un test du scaling PCIe avec une 1080 et la différence de perf n’était significative qu’à partir du PCIe 2 en 8x donc sur une carte moins performante ça devrait être encore moins visible non ?



crozet a dit:


ça a vraiment un impact sur les perfs d’une carte graphique entrée de gamme d’être câblée en x4 au lieu de x8 ou x16 ? de mémoire j’avais vu un test du scaling PCIe avec une 1080 et la différence de perf n’était significative qu’à partir du PCIe 2 en 8x donc sur une carte moins performante ça devrait être encore moins visible non ?




sur un GPU bridé en VRAM et une plateforme récente oui : Le driver peut essayer de compenser le manque de VRAM en utilisant la DDR5 du système, s’il doit passer par un port 4x, c’est un pb. Sur une grosse config, c’est moins problématique je pense.



Ne pas oublier que cette carte sera bridé en 4x sur les vielles configs également et si ta CM a un port v3 ça fait justement la vitesse limite que tu annonces PCIe3 4x = PCIe 2 8X = PCIe 1 16x



Tirnon a dit:


L’AV1 est encore très peut utilisé mais ça pourrait peut être poser quelques soucis sur le long terme mais d’un autre côté la majorité des gens qui achètent ce genre de carte n’ont aucun besoin de compression H.264/H.265, si ?




Au hasard…une visio, je suppose qu’un Teams ou un Zoom utilise largement les fonctions de (dé)compressions vidéos du GPU -quand elles sont dispo- afin d’avoir un meilleur framerate et de limiter la conso.
Avec un GPU trop limite tu pourrais être limité à un codec moins bon (donc une plus grosse conso de BP), ou une image de moins qualité, voir des lags par limitation CPU…


est ce qu’on aune idée de la durée minimum où les prix resteront élevés ?
je chercherai un site qui suit les évolutions de tarifs sur les cartes graphiques, quelqu’un connait ça ?


Tu as pcpartpicker qui tiens une historique plutôt clair, mais pour chaque référence séparément, par ex https://fr.pcpartpicker.com/product/LRmFf7/asus-geforce-rtx-3080-10-gb-strix-gaming-oc-video-card-rog-strix-rtx3080-o10g-gaming?history_days=730


L’ étape de la simple fabrication de barres de sillicium pour les découper en galettes était au départ déjà en défaut, insuffisantes pour simplement pouvoir fournir toutes les usines de fonderie en support de base selon les propos de Lisa Su.
Pour la gravure de ces galettes, même problème.
Pas assez d’ usines au top niveau par rapport au niveau du produit demandé.
La pénurie de capacité de fabrication accompagnera ces prix élevés jusqu’ à la mise en oeuvre de nouvelles usines de fabrication.
Entre le démarrage des travaux et leur fin, c’ est environ deux ans et demi et plusieurs milliards de dollars.
L’ administration Biden vient juste en 2021 de décider d’ un plan d’ attribution d’ aides de quelques milliards pour résoudre le problème.
Intel bénéficiera sans doute de cette aide.
Avant que l’ offre ne surpasse la demande et qu’ en conséquence les prix demandés par les usines comme TSMC aux bureaux d’ études AMD, NVIDIA retrouvent un niveau raisonnable, il se passera un bail de 2 ans encore.
Samsung aura ou démarera la construction d’ une nouvelle usine en 2024.
Pas d’ espoir proche pour quiconque si même des usines de fabrication d’ automobiles se retrouvent à l’ arrêt en train de perdre des milliards faute de composants.
Et dès que des capacités seront disponibles, elles seront sans doute réservées par ces constructeurs automobiles et donc inaccessibles au commun des mortels.
Intel lui même s’ est réservé des capacités de fabrication chez TSMC pour ses nouvelles cartes.
Perso, le seul espoir pour moi c’ est d’ attendre la sortie d’ APU performants à compléter de cartes graphiques plus tard dès que prix et disponibilités seront redevenus des réalités viables à la portée du commun des mortels.


TSMC est en train de construire une nouvelle usine pour produire en 5nm dans l’Arizona mais elle ne sera opérationnelle qu’en 2024.
TSMC s’est associé aussi avec SONY pour construire une nouvelle usine au Japon mais pareil sa production ne débutera pas avant 2024.
SAMSUNG va débuté la construction d’une nouvelle usine au Texas mais pareil sa production ne démarrera pas avant 2024.


Ma vision des choses : au début QSV chez Intel a semblé coïncider avec les capacité de “projection d’écran” (Miracast qui utilise du H264). Après je suppose que la suite c’est aussi tous les gamers qui font du streaming.
Aucune idée de la part de marché représentée par ces 2 usages ceci dit.



AV1 semble au contraire très utilisé (tout ce qui est SVOD) du fait de sa compression bien meilleure. Les Android TV récentes doivent avoir le décodage matériel (ie c’est a priori exigé par Google).