AMD fête les 5 ans de l'annonce des processeurs Ryzen et évoque (enfin) sa feuille de route 2022

AMD fête les 5 ans de l’annonce des processeurs Ryzen et évoque (enfin) sa feuille de route 2022

Vers une nouvelle trilogie ?

Avatar de l'auteur
David Legrand

Publié dans

Hardware

12/10/2021 5 minutes
32

AMD fête les 5 ans de l'annonce des processeurs Ryzen et évoque (enfin) sa feuille de route 2022

Il y a cinq ans, AMD se préparait à révolutionner le marché du processeur grand public avec son architecture Zen. Depuis, la société n'a cessé de grapiller des parts de marché, en profitant pour monter en gamme (et en prix). On attendait des détails sur la prochaine feuille de route, une vidéo nous en livre quelques-uns.

Après des années difficiles avec l'architecture Phenom et de la fin des Opteron, AMD a travaillé pour revenir au score, sous la direction de Lisa Su et avec l'aide de Jim Keller à la technique. Un travail qui s'est avéré payant, puisqu'en 2016 on découvrait l'architecture Zen, commercialisée en mars 2017 avec les premiers Ryzen sur socket AM4.

Ryzen : une révolution en plusieurs étapes

La plateforme a eu des débuts difficiles. Outre le besoin d'adapter l'écosystème logiciel, il fallait convaincre les partenaires, ce qui n'avait pas été chose aisée. Depuis, nombre de ceux qui ont travaillé sur le projet et nous ont confié leurs souvenirs de cette époque où de nombreux problèmes restaient à régler, parfois dans la douleur.

AMD avait rapidement revu ses prix à la baisse, mais cet effort et une montée en nombre de cœurs importante permise par sa stratégie « one die fits all » lui ont ouvert les ports d'un nombre croissant de PC. La feuille de route dessinée sur trois ans s'est ensuite déroulée (presque) sans accroc, avec à chaque fois de nouveaux succès. 

Certes, le socket AM4 n'a pas tenu la promesse initiale de pouvoir accueillir tous les modèles à venir sans distinction, mais sa durée de vie et les possibilités de mise à jour ont tout de même été plutôt bonnes dans la durée.

Zen 2 est rapidement venu corriger les erreurs de jeunesse de l'architecture, permettant de convaincre du simple Athlon aux EPYC pour datacenters en passant par les Threadripper pour station de travail. Zen 3 a enfoncé le clou, même s'il tarde à se décliner. On attend ainsi toujours les modèles Threadripper (Chagall).

De Zen 3 à Zen 4 : un passage de témoin tardif

C'est là que la machine AMD a commencé à se gripper, à différents niveaux. Ces derniers mois semblent d'ailleurs correspondre avec quelques années de décalage à la période où Keller a quitté la société pour rejoindre Tesla, nécessitant une réorganisation interne. Un trou d'air que l'on paie aujourd'hui, la crise sanitaire n'arrangeant rien ?

Quoi qu'il en soit, lorsque l'on parle de feuille de route avec le constructeur ou ses partenaires en ce moment, un ange passe. Certes, nous avons déjà obtenu et publié de premiers détails sur la prochaine grande architecture à venir, Zen 4. Mais elle ne sera pas là avant la mi-2022. Pour combler cet espace, AMD a trouvé une solution : 3D V-Cache

Cette technologie consiste à ajouter du cache L3 par-dessus le die pour améliorer les performances : jusqu'à 25 % promis dans les jeux. Elle a été prévue pour être proposée sur les Ryzen (Zen 3) ainsi qu'EPYC (Milan-X). Mais AMD avait jusqu'à maintenant gardé le silence sur la suite des évènements. Seuls quelques partenaires nous en ont parlé ces dernières semaines, et le plus souvent pour nous expliquer à quel point cette technologie serait coûteuse. Notamment sur EPYC avec un cache L3 total (interne et 3D V-Cache) pouvant atteindre 768 Mo

AMD donne rendez-vous en 2022, même pour 3D V-Cache

AMD se devait donc de prendre la parole, sans attendre le CES de janvier ou d'autres évènements plus spécifiques, surtout qu'Intel multiplie les annonces et déclarations de guerre ces derniers mois. La société a donc décidé de fêter aujourd'hui les 5 ans de Ryzen en publiant une vidéo de John Taylor (marketing) et Robert Hallock qui est depuis quelques années maintenant le directeur du marketing technique et la voix d'AMD concernant Ryzen.

Ils y évoquent leurs souvenir des années passées, mais aussi les plans d'ici à l'année prochaine. Bien entendu le passage à Zen 4 avec la DDR5, du PCIe 5.0 et le socket AM5 (compatible AM4 pour le refroidissement), marqueur de la nouvelle ère. Mais aussi 3D V-Cache qui sera lancé sur des processeurs exploitant Zen 3 dès le début de l'année prochaine. Ils auront pour rôle de s'opposer à Intel et Alder Lake-S, qui sera annoncé à la fin du mois avec de premiers modèles « K » mis sur le marché, avant une extension de la gamme attendue pour le CES. Sans parler des NUC.

L'un questionne ainsi l'autre (ce qui évite les désaccords) sur différents sujets, dont les architectures hybrides comme on le voit dans le mobile ou avec Alder Lake chez Intel. Pour AMD, ce n'est pas un besoin du fait de son avance sur les différentes technologies qui font le succès d'un processeur (fréquence, packaging, consommation).

Le constructeur semble d'ailleurs au passage oublier qu'Apple est désormais l'un de ses concurrents, le dépassant sur certains points avec le M1. L'arrivée d'accélérateurs divers, notamment pour l'IA, est par contre à l'ordre du jour, sans plus de précisions. Il est aussi question de passer d'un type de gestion de l'énergie à une autre selon les besoins plutôt qu'une approche « one size fits all » comme c'est le cas actuellement, à travers le firmware du CPU.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Ryzen : une révolution en plusieurs étapes

De Zen 3 à Zen 4 : un passage de témoin tardif

AMD donne rendez-vous en 2022, même pour 3D V-Cache

Fermer

Commentaires (32)


Il y a peu d’évènements / de sorties de produits qui m’ont vraiment marqués… Et bizarrement la sortie des Ryzen en est un. Cela annonçait le retour d’AMD, un renouveau dans le domaine des CPU dominé par Intel et qui était globalement stagnant en performance, très segmenté en caractéristiques. Là en début 2017 j’ai vu AMD renverser la table : débauche de coeurs, hausse brutale des performances sur tous les segments de gamme, prix contenu (en tout cas bon rapport perf/prix). La promesse a eu des soucis à se concrétiser comme le rappelle l’article, mais au fil des générations la solution s’est fiabilisée. Bref, une grande réussite de ces dernières années !!
A quand la même chose dans leurs GPU ? :D


On peut déjà dire que leurs RX6000 sont au niveau des GeForce RTX 3000. La seule chose qui manque à ces GPU, c’est d’être disponibles en quantité suffisante.



(reply:60484:Aristide Rutilant)




Non et pas en tous points. Mais on est clairement plus dans la situation d’il y a quelques années. Le souci majeur d’AMD reste d’ailleurs toujours le même par rapport à Intel et NVIDIA : l’écosystème.


bonjour,




(quote:60484:Aristide Rutilant)
On peut déjà dire que leurs RX6000 sont au niveau des GeForce RTX 3000. La seule chose qui manque à ces GPU, c’est d’être disponibles en quantité suffisante.




ok si on prend uniquement compte le raytracing oui Nvidia est loin devant ( forcément étant déjà a sa deuxième génération gpu raytracing là ou amd sort sa première en raytracing…)
mais si on regarde niveau consommation en haut de gamme on comprend pourquoi y a un
“Un nouveau connecteur,12VHPWR, pour les prochaines cartes graphiques en PCI-E 5.0? ”
->https://www.cowcotland.com/news/78264/un-nouveau-connecteur-12vhpwr-pour-les-prochaines-cartes-graphiques-en-pci-e-5-0.html
Les futures Nvidia 4090 et 4080 vont surement en avoir besoin des 600 W en sortie de prise vu ce que consomment déjà les 3080 et 3090 actuelles… on peut même parier qu ils leurs faudra 2 de ces nouveaux connecteurs.


Les évolutions de connectique concernent aussi les modèles Pro, la question des TDP étant moins un problème pour les serveurs. Pour le reste, on verra, spéculer dans le vide n’a aucun intérêt. D’autant plus en utilisant des termes comme “surement” quand on sait que dalle :D



horrus a dit:


bonjour,



ok si on prend uniquement compte le raytracing oui Nvidia est loin devant ( forcément étant déjà a sa deuxième génération gpu raytracing là ou amd sort sa première en raytracing…) mais si on regarde niveau consommation en haut de gamme on comprend pourquoi y a un “Un nouveau connecteur,12VHPWR, pour les prochaines cartes graphiques en PCI-E 5.0? ” ->https://www.cowcotland.com/news/78264/un-nouveau-connecteur-12vhpwr-pour-les-prochaines-cartes-graphiques-en-pci-e-5-0.html Les futures Nvidia 4090 et 4080 vont surement en avoir besoin des 600 W en sortie de prise vu ce que consomment déjà les 3080 et 3090 actuelles… on peut même parier qu ils leurs faudra 2 de ces nouveaux connecteurs.




Il n’y au final pas énormément de jeux qui utilisent le raytracing donc dans l’absolu, ce n’est pas un avantage si important que ça. Ensuite, bah non, les Geforce RTX 3000 ne consomment pas 600W. La 3080 est à 320 W de TDP et la 3090 à 350 (peut-être un peu plus je n’ai plus le chiffre en tête). Dans l’absolu, c’est déjà énorme, donc j’espère que ça n’augmentera pas plus pour les prochaines générations.


J’ai pas tout compris sur la vidéo, il n’y a pas les sous-titres disponibles sur youtube


5 ans déjà, mais quand on se refait le film:




  • AMD est revenu en force dans les PC performants (les premiers Ryzen étaient impressionnants mais Intel faisait encore mieux sur de nombreux point)

  • Ensuite AMD a repris la couronne dans quasiment tous les cas sur le moyen et le haut de gamme

  • AMD a aussi reconquis l’entrée de gamme, les APU, bien qu’on en parle assez peu, sont vraiment bien équilibrés (même si la partie graphique fait un plateau)

  • La roadmap est tenue! (coucou Intel avec le 10nm qui a tant été attendu!)

  • Intel poussé dans ses derniers retranchements, le turbo à mort en prenant de gros risque (conso/échauffement) face à AMD dont les Ryzen sont les vrais bulldozers/caterpillars :)

  • Et AMD qui arrive avec des Ryzen pour portables aussi, convaincants au début (mais avec quelques défauts d’autonomie) puis carrément concurrentiels

  • Plus effectivement les threadrippers et les EPYC qui taillent doucement des croupières dans les workstations/serveurs…

  • La PS5 …



Une belle remontada pour qui se rappelle comment on essayait de se convaincre que les générations avant Ryzen étaient des concurrents…



Ceci dit, je continue à penser que non, l’avenir n’est pas à un PC à 20 coeurs 40 threads pour tous à la maison.
Bien que AMD sorte des produits très performants, très intéressants, je crois que la vision d’intel qu’un CPU grand public est plus dans le 4C/8T voire 6C/12T est plus réaliste, les logiciels optimisés pour plus tenant de la niche.



Mais n’empêche bon sang, sacré coup de fouet ces dernières années!


Je ne suis pas d’accord. Pour moi, Intel s’était surtout limité à 8-10 cœurs parce qu’ils ne pouvaient pas vraiment faire autrement avec leur process de fabrication 14 nm. S’ils arrivent à débloquer leur 10 et leur 7 nm (pardon, Intel 7 et Intel 4), ça devrait aussi leur permettre de produire des CPU avec plus de cœurs. Après quoi, le renouvellement naturels des PC devrait pousser les développeurs à utiliser ces cœurs.



De nos jours, il faut déjà avoir au moins 6 cœurs physiques pour jouer dans de bonnes conditions à des jeux vidéos, il n’y aucune raison que ça ne monte pas à 8 d’ici quelques années puisque les dernières consoles en ont justement 8, et désormais vraiment performants.


Avec les ps5/Xbox qui ont 8 coeurs, il y aura de plus en plus de jeux qui vont être optimisés dans ce sens.



À moyen/long terme, je me demande si ce ne sont pas les archi arm qui vont faire de l’ombre à Intel/amd. On le voit déjà avec Apple mais même sur serveurs, quand on voit les perfs d’ampere altra qui est pourtant un nouvel arrivant…



(reply:60495:Aristide Rutilant)




Intel à surtout fait le choix du monolithique alors qu’AMD a opté pour le multi-die, ca change tout. Va faire 64 cœurs « Core » en monolithique. 7 nm ou 14 nm, c’est coton.



A court terme c’est AMD qui a le plus à perdre face à ARM, sa position de numéro notamment. Mais à long terme le match ce sera Intel VS NVIDIA, notamment dans les serveurs. Tout ce qui se prépare actuellement les en prévision de ca, chez l’un comme chez l’autre


Toujours autant de négativisme dans le ton c’est impressionnant de parti pris. :mdr:


Ceux qui voient du parti pris dans ces propos c’est ceux qui ont quelque chose à défendre à travers tel ou tel. Comme je le dis souvent, je suis dur avec tous les constructeurs, dans mes propos comme mes analyses. J’ai 20 ans de background où j’ai tapé sur tout le monde selon les périodes, donc tu peux sans problème garder ton “:mdr:” ;) Et me voir en défenseur d’Intel (ça doit les faire marrer) : LOL :D



Mais objectivement, le point fort d’AMD c’est la densité à pas cher en 1S/2S. Malheureusement sans réel écosystème autour du CPU (si ce n’est leur GPU et Xilinx désormais). Quand tu vois l’étendue d’Intel et NVIDIA sur les différents marchés, AMD n’est pas leur problème principal ni à court ni à long terme.



Pour rappel, au bout de 5 ans de Ryzen Intel est toujours largement majoritaire sur le marché avec un bénéfice trimestriel équivalent au CA d’AMD (qui dépend de TSMC). Je sais qu’on a tendance à les mettre à égalité parce qu’ils vendent du CPU, mais il faut bien avoir ça en tête. Et si ARM perce, ce sera à travers… la densité à pas cher (voir Graviton et Ampere Computing). Ils s’attaqueront à la place d’AMD, pas d’Intel.



AMD va mieux et c’est tant mieux. Mais ils ont aussi montré des points de faiblesse ces dernières années comme je le dis dans cet article. Dans les mois à venir on verra s’ils sont à nouveau en mode combatif ou s’ils continuent sur le trend actuel, qui transpire bien dans cette vidéo : “on est les meilleurs, on va gagner” qui explique leur comportement à différent niveaux, leur politique tarifaire, etc.



ADL va faire bouger les lignes (mais pas renverser Ryzen sur certains points), SPR va introduire pas mal de choses de long terme assez intéressantes, on va sans doute revenir à une concurrence plus équilibrée dans les produits, même si Zen 4 remettra une couche côté densité package. On verra ce que sera Xe pour les GPU (sans doute pas une révolution), mais à la place d’AMD, je ferai tout de même attention à ce que je déclare… quand Apple annonce une conférence où on risque de découvrir un nouveau SoC.



Parce qu’à dire “on a la meilleure fréquence, le meilleur IPC, la meilleure efficacité énergétique” quand ce n’est pas vrai, on risque de finir par y croire, et c’est comme ça que tous les constructeurs à la mode (dont Intel à une époque) tombent de leur piédestal.



David_L a dit:


Et si ARM perce, ce sera à travers… la densité à pas cher (voir Graviton et Ampere Computing). Ils s’attaqueront à la place d’AMD, pas d’Intel.




Les derniers bench sur Phoronix sont encourageants: plus ou moins les perfs des Intel AMD, avec 2 fois plus de coeurs, mais en consommant la moitié. Certains benchs complètement à l’avantage des ARM, de loin.
Et si on combine avec de nouveaux concepts, le CPU ne sera plus forcément un point primordial (et come je le dis souvent, ce n’est déjà pas souvent un point primordial)



Dans le domaine des BDD, c’est encore très frileux à mettre de l’ARM, mais dans le domaine du serveur Web (frontal et back), ARM n’est plus juste convaincant: il est carrément envisagé (bon, je n’en n’ai pas encore vu, certainement car il reste des doutes sur le support et la viabilité des constructeurs/distributeurs)




David_L a dit:


Parce qu’à dire “on a la meilleure fréquence, le meilleur IPC, la meilleure efficacité énergétique” quand ce n’est pas vrai, on risque de finir par y croire, et c’est comme ça que tous les constructeurs à la mode (dont Intel à une époque) tombent de leur piédestal.




C’est clair que Apple a lâché une grosse brique dans la marre. Le problème ne semble plus de trouver de l’IPC pour du x86, mais d’être capable d’intégrer des unités hétérogènes, mettre à disposition assez de données pour saturer les unités. Je lisais que dans les futurs iGPU, Intel utilisera des pages de 64ko au lieu des pages de 4Ko chères (et coûteuses) à nos x86. Intel pousse le oneDNN qui pourra abstraire la complexité des implémentations (sur GPU? AVX-512?) au lieu de jongler en permanence avec les bibliothèques dans python pour passer d’une implémentation à l’autre. Tous envisagent d’ajouter des unités de calcul - sans vraiment avoir un standard.




(quote:60495:Aristide Rutilant)
De nos jours, il faut déjà avoir au moins 6 cœurs physiques pour jouer dans de bonnes conditions




90% des PC ne servent pas à jouer (statistique: de moi-même). Et ceux qui jouent ne jouent pas forcément à ces jeux là (exemple: moi-même aussi).
En pro, Excel parallélise bien mais plein de fichiers ne peuvent être parallélisés correctement au-delà de 6 threads (trop de dépendances). Un ryzen 3600 est généralement totalement inutile en pro, on garde de l’APU, l’antivirus tourne très bien dessus en parallèle des protections RGPD et des applis. On a même des pics à 25% de CPU par tranche de 5 min.



Avoir 4C/8T, c’est agréable, on peut lancer plein d’applis sans soucis. Mais en général, aucune appli ne se parallélise bien à part:




  • l’édition vidéo

  • le calcul intensif (SIG par exemple)

  • la compilation
    –> la grande majorité des utilisateurs ne profitent que très peu d’avoir 6C/12T.



Le cache est redevenu une bataille importante (d’ailleurs Ryzen a monté les enchère énormément sur ce sujet): Intel, AMD et IBM ont eu des annonces intéressantes dans ce domaine (3D-Vcache de AMD et la cache “virtuelle” de IBM qui transforme le L2 non utilisé d’un coeur en L3 partagé - à la fois une évolution majeure et un risque de fou vu les dernières méthodes d’attaque CPU…)


5 ans déjà ! Qu’est-ce que ça passe vite. En tout cas toujours aussi satisfait de mon Ryzen 🥰



(quote:60502:brice.wernet)
Un ryzen 3600 est généralement totalement inutile en pro,




Define “pro”. Ca va du logiciel de gestion de lignes qu’un ouvrier va remplir lentement au logiciel d’édition vidéo qui gère des flux 16K en amont, en passant par de la bureautique simples mais éparpillées en plusieurs logiciels simultanés. On peut pas dire que le processeur X ne convient pas à l’utilisation Y car il y a trop de cas différents.




Avoir 4C/8T, c’est agréable, on peut lancer plein d’applis sans soucis. Mais en général, aucune appli ne se parallélise bien




Oui mais justement l’intérêt c’est aussi comme tu le dis d’augmenter la quantité d’applications “sans rapport” qui tourne. Pas besoin d’être monteur vidéo pour profiter de multicores. Suffit d’avoir à gérer Teams, Outlook, un navigateur web, ton soft de boulot (dans mon cas un IDE) et une poignées de petits softs en fond (gestionnaire de mdp, cloud, vpn si télétravail…) et tu auras ton cas d’utilisation. Je bosse sur un i7-10610U, 4C/8T, et je suis jamais sous les 25% d’utilisation alors que je coche aucun de tes cas “utilisation intensive”.



On a tout à gagner à augmenter le nombre de cœurs, Il faut arrêter de se dire “les gens ont pas besoin d’autant”. Les gens ont besoin de faire fonctionner ce qu’ils veulent utiliser et si ils peuvent faire plus pour le même prix alors tout le monde est content.



Soraphirot a dit:


On peut pas dire que le processeur X ne convient pas à l’utilisation Y car il y a trop de cas différents.




Un 4C/8T couvre +90% des cas d’utilisation. Surtout avec du cloud, des applis web, etc…
La charge de travail la plus conséquente en CPU, c’est l’antivirus hebdo sur des ordis en SSD.



Bien sûr qu’un monteur vidéo, un modélisateur 3D, il sera aux anges avec un truc à 8C/16T, mais vu que toute une partie des ces logiciels “de niche” est déportée sur la CG, un CPU plus balèze ne fera pas toujours une différence notable non plus.




Suffit d’avoir à gérer Teams, Outlook, un navigateur web, ton soft de boulot (dans mon cas un IDE) et une poignées de petits softs en fond (gestionnaire de mdp, cloud, vpn si télétravail…) et tu auras ton cas d’utilisation. Je bosse sur un i7-10610U, 4C/8T, et je suis jamais sous les 25% d’utilisation alors que je coche aucun de tes cas “utilisation intensive”.




Euh, change le :). Un 8250U est sous les 15% à 800MHz avec tout cela (et quand je dis 15, c’est pour te faire plaisir - d’ailleurs en plus j’ai 2 instances SQL server qui tournent).



Mais je plaisante: 25% d’utilisation moyenne ne me dérange pas, c’est d’ailleurs extrêmement rarement atteint sur des serveurs en PME/PMI et plus. La question est surtout: combien de temps passes-tu à 80100%? Quelle part serait améliorée par plus de coeurs? Et si tu as des pics, sont-ils couvert par le temps de boost ou est-ce qu’ils dépassent?




On a tout à gagner à augmenter le nombre de cœurs,




Non, on y perd sur la conso à vide, l’enveloppe thermique ou la vitesse maxi (même si des subterfuges permettent de limiter cette dernière). Plus de coeurs sur ton portable = moins d’autonomie.



J’utilise encore des ordis en 2C/4T quotidiennement (i3 6100U notamment), et on fait jusqu’au montage vidéo dessus. Bien sûr le rendu final on le fait plutôt sur une autre machine, mais on a besoin de 1 machine puissante pour combien de machine qui le sont moins?



Et je ne dis pas que c’est inutile, je dis que c’est loin d’être universel ou franchement nécessaire, ou même réellement visible pour nombre d’utilisateurs.



Le multithreading n’a pas attendu d’avoir du multicoeurs pour être utile quand c’est adéquat!



(quote:60494:brice.wernet)
5 ans déjà, mais quand on se refait le film:




  • AMD est revenu en force dans les PC performants (les premiers Ryzen étaient impressionnants mais Intel faisait encore mieux sur de nombreux point)

  • Ensuite AMD a repris la couronne dans quasiment tous les cas sur le moyen et le haut de gamme

  • AMD a aussi reconquis l’entrée de gamme, les APU, bien qu’on en parle assez peu, sont vraiment bien équilibrés (même si la partie graphique fait un plateau)

  • La roadmap est tenue! (coucou Intel avec le 10nm qui a tant été attendu!)

  • Intel poussé dans ses derniers retranchements, le turbo à mort en prenant de gros risque (conso/échauffement) face à AMD dont les Ryzen sont les vrais bulldozers/caterpillars :)

  • Et AMD qui arrive avec des Ryzen pour portables aussi, convaincants au début (mais avec quelques défauts d’autonomie) puis carrément concurrentiels

  • Plus effectivement les threadrippers et les EPYC qui taillent doucement des croupières dans les workstations/serveurs…

  • La PS5 …



Une belle remontada pour qui se rappelle comment on essayait de se convaincre que les générations avant Ryzen étaient des concurrents…



Ceci dit, je continue à penser que non, l’avenir n’est pas à un PC à 20 coeurs 40 threads pour tous à la maison. Bien que AMD sorte des produits très performants, très intéressants, je crois que la vision d’intel qu’un CPU grand public est plus dans le 4C/8T voire 6C/12T est plus réaliste, les logiciels optimisés pour plus tenant de la niche.



Mais n’empêche bon sang, sacré coup de fouet ces dernières années!




La majorité des vents de AMD se fait aussi sur du 6C/12T voire du 8C/16T, les autres sont assez marginaux au final.



(quote:60523:brice.wernet)
Non, on y perd sur la conso à vide




La conso à vide ne dépend pas du nombre de cœurs ou très peu. Les cœurs secondaires sont le plus souvent totalement éteints lorsqu’ils ne sont pas utilisés (le gating étant généralisé depuis un moment). Par contre tu as des différences entre les modèles APU/CPU ou les HEDT (Core X, Threadripper), où la plateforme consomme aussi plus en général.



(quote:60523:brice.wernet)
Non, on y perd sur la conso à vide, l’enveloppe thermique ou la vitesse maxi (même si des subterfuges permettent de limiter cette dernière). Plus de coeurs sur ton portable = moins d’autonomie.




On y perd tellement que les PC portables hdg d’aujourd’hui arrivent à flirter avec les 10h d’autonomie, qu’Intel fournit des 10 cores avec un TDP réglable à 25W et qu’on dépasse les 4GHz sur la majorité des puces en boost (et le mien ne descend jamais en dessous en une journée d’utilisation pour un TDP cible de 15W). Et bien sur chez ARM aussi le nombre de cœurs augmente.



Intel a fait un travail phénoménal sur la conso de ses puces portables. AMD est revenu dans la course aussi et ARM n’en finit pas d’optimiser sa gestion des cœurs. On a atteint un mur avec les fréquences depuis la fin des Pentium, approcher les 5GHz demande énormément alors que multiplier les cœurs est devenu aisé.



David_L a dit:


Pour rappel, au bout de 5 ans de Ryzen Intel est toujours largement majoritaire sur le marché avec un bénéfice trimestriel équivalent au CA d’AMD (qui dépend de TSMC). Je sais qu’on a tendance à les mettre à égalité parce qu’ils vendent du CPU, mais il faut bien avoir ça en tête. Et si ARM perce, ce sera à travers… la densité à pas cher (voir Graviton et Ampere Computing). Ils s’attaqueront à la place d’AMD, pas d’Intel.




De quel marché on parle là ? Parce que le marché desktop c’est presque du 5050… Après, laptops et serveurs on partait de tellement loin (du genre de 1% pour les serveurs), que bien sût qu’ils ont encore beaucoup de part de marché à rattraper, mais passer de 1 à 20% en si peu de temps c’est absolument fantastique. Il faut bien garder ça en tête.


Tu confonds le marché desktop avec celui de la vente au détail, qui n’est qu’une partie du marché desktop ;)


Je confond rien du tout, je demandais justement de quoi on parlait, parce que dire qu’ils sont très loin c’est juste pas clair du tout.
(le steam survey par exemple, les gamers pourtant ultra Intel, AMD est passé de 22 à 30% ces 18 derniers mois)
Et le ton passif agressif général c’est fatigant au passage.


Tu dis que le marché Desktop c’est 5050. C’est sans doute vrai chez certains revendeurs pour la vente au détail, très certainement faux si tu parles du marché Desktop dans son ensemble. Ce n’est pas du passif agressif, je fais juste remarquer qu’il y a très certainement confusion dans l’analyse.


Dans mon job, je conseille des architectures pour des applicatifs temps réels. AMD coté station de travail (Rizen ou Threadripper) n’est pas identifié comme pertinent car l’essentiel de la charge est sur la GPU et l’offre Intel est plus adapté à la cible qui réclame un niveau de fiabilité supérieur à l’exigence de performance/conso. (je ne dis pas qu’AMD n’est pas fiable juste que les projets n’ont pas assez de recul sur AMD.
Coté serveur, j’ai eu à faire une seule plateforme basée sur Epyc qui est me semble t-il particulièrement adapté à la virtualisation. Mais cet unique projet en 2021, c’est 1 sur une 20aine.
Intel continue d’être privilégié pour des questions de support et de confiance dans le couple Wintel sachant que chaque projet aujourd’hui c’est sur 6-8 ans.



Ce qui est vrai en CPU est vrai aussi en GPU: le monde pro aime bien Nvidia avec Cuda. Il y a sans doute de place pour AMD mais oui c’est bien l’argument de l’écosystème qui est ici central. C’est pourquoi je crois plus en l’avenir GPU Intel que celui d’AMD pour rivaliser avec Nvidia dans le monde pro.


Pour les serveurs c’est en train de bouger. A part pour des besoins spécifiques, epyc commence à avoir un passé qui rassure. Même pour des plateformes comme Truenas, pourtant très conseillé pour Intel pendant très longtemps, on voit de plus de plus d’epyc et ça fonctionne super bien.


Si le rachat d’arm se concrétise, ce qui n’est pas gagné !


ARM avancera que le rachat se fasse ou pas (et il se fera sans doute, actuellement ce qui se joue en coulisse et derrière les déclarations de tel ou tel, ce sont les contraintes qui seront imposées). Et même si le rachat ne se faisait pas, NVIDIA (comme Intel ou d’autres) a déjà bien avancé sur ses plateformes ARM visant le marché du datacenter (et la couche logicielle qui va avec).


Nvidia veut mettre un contrôleur Nvlink directement dans le CPU, ce qui explique en partie d’ARM personne d’autres ne mettra un contrôleur Nvlink dans le CPU



Vu que les autorités chinoises font tout retarder les rachats en cours des boites US, forcément le rachat de Xillink prend plus de temps. Xillink savent faire de l’ARM aussi



Pour rappel, au bout de 5 ans de Ryzen Intel est toujours largement majoritaire sur le marché avec un bénéfice trimestriel équivalent au CA d’AMD (qui dépend de TSMC).
Et Intel à aussi 10x plus d’employés qu’AMD et que Nvidia


Oui mais ils opèrent sur pas mal de marchés différents, pas que le CPU. Pour Grace, je ne sais pas à quoi tu fais référence exactement, mais l’idée c’est surtout d’avoir un GPU-RAM système le plus rapide possible (bien plus que NVLink). Après tu as toujours une fabric entre CPU et GPU, le marketing lui donne bien le nom qu’elle veut :D (l’important étant que ça ne fasse pas goulot d’étranglement pour l’usage visé)


Sisi tu as un parti pris extrêmement clair. Tu as une dent contre AMD, de manière complètement irrationnelle, et ça se voit de plus en plus.
Tu n’auras qu’à aller lire des articles de concurrents sur le sujet la différence de ton est impressionnante (d’ailleurs certains font comme toi mais dans l’extrême opposé avec des envolées lyriques sur le thème “AMD a complètement renversé les positions” ce qui est au mieux une projection optimiste sur les prochaines années, on va dire que ça compense :D).



Le fait que tu ne t’en rendes pas compte c’est ça qui m’attriste.
Si un jour j’ai le temps je te reprendrai un article “AMD” et un article “INTEL” et je les réécrirai en “inversant” tes styles respectifs, peut-être alors réaliseras tu… :)




Cetera a dit:


Intel continue d’être privilégié pour des questions de support et de confiance dans le couple Wintel sachant que chaque projet aujourd’hui c’est sur 6-8 ans.




Clairement c’est un facteur majeur, l’inertie décisionnelle dans les entités. À laquelle il faut également rajouter le cycle de renouvellement nettement ralenti ces dernières années (jusqu’à l’arrivée des Ryzen on grapillait quelques pourcents à chaque génération, pas de quoi fouetter un chat et tout changer tous les trois ans dans les entreprises pour lesquelles ça ne conditionne pas le succès commercial. Plus le coût du renouvellement, en soi, même si techniquement c’est amorti en charges, et l’impact écologique qui commence doucement à être en prise de conscience).



Citan666 a dit:


Sisi tu as un parti pris extrêmement clair. Tu as une dent contre AMD, de manière complètement irrationnelle, et ça se voit de plus en plus.




C’est ta lecture des choses, n’en fait pas une vérité. Comme dit, je ne défend aucune chapelle, je me fous complètement de ces considérations (et je ne fonde pas mes analyses sur les propos des autres sites).



Je me suis toujours opposé à l’ensemble des constructeurs, AMD, comme Intel, comme NVIDIA (ils peuvent tous en témoigner sans problème je pense :D). Chacun a ses bonnes et ses mauvaises périodes, notre rôle est d’analyser leur offre à l’instant “t” et pour ce qui vient au regard de ce qui a été. Ceux qui voient dans ces analyse du partisanisme sont ceux qui ont un parti pris.



D’ailleurs, je dis bien qu’AMD a renversé la situation. Mais cela n’a pas renversé les parts de marché. Pour Intel, relis les articles périodes BK. On s’est fâché assez fort avec eux à cette époque, notamment pour ça. C’est le propre de notre métier : on nous adore quand on va dans le même sens, on nous dit partisan quand on va à l’opposé. Notre direction ne dépend pas du nom du constructeur, mais de la qualité des produits, de la roadmap et de la réaction du marché.




Le fait que tu ne t’en rendes pas compte c’est ça qui m’attriste.




Je me dis pareil en lisant ton commentaire, mais comme évoqué ci-dessus, c’est “le jeu”. J’y suis habitué.