AMD lance enfin Kaveri : notre analyse et la revue de presse

AMD lance enfin Kaveri : notre analyse et la revue de presse

Le bundle Battlefield 4 est annoncé, mais pas encore proposé

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

14/01/2014 8 minutes
25

AMD lance enfin Kaveri : notre analyse et la revue de presse

C'est fait ! AMD a enfin levé le voile sur ses fameux APU Kaveri qui prennent la suite de Richland. Trois modèles sont ainsi annoncés aujourd'hui : les A8-7600, A10-7700K et A10-7850K. Ceux-ci sont d'ailleurs déjà disponibles à la vente, et testés par de nombreux confrères. On reste par contre sans nouvelle du bundle Battlefield 4 pourtant annoncé.

Kaveri est la nouvelle génération d'APU d'AMD, attendue de longue date. En effet, on pensait au départ qu'elle verrait le jour en 2013, et ce ne fût pas le cas. Le produit était en retard et c'est finalement Richland qui a dû jouer le rôle de bouche-trou en attendant, sans avoir vraiment rien de bien nouveau à mettre en avant.

 

AMD Roadmap 7 Janvier 2013 AMD Roadmap 2014

Kaveri, c'est un produit qui a vu le jour en 2013 : promis !

 

Bien que le constructeur ait cherché par tous les moyens à jouer du flou de ses roadmaps et sur les mots, c'est donc bien en ce début 2014 que ces puces voient le jour. Et bonne nouvelle : elles sont réellement disponibles. Mais avant d'aller plus loin dans notre analyse, commençons par le commencement.

Kaveri : cap sur le socket FM2+, mais pas de révolution du côté des chipsets

Kaveri introduit tout d'abord le besoin d'utiliser une carte mère avec un nouveau socket : le FM2+. De tels produits existent déjà depuis quelques mois, bien que les constructeurs profitent de ce lancement pour faire quelques annonces. C'est notamment le cas de Biostar et de Gigabyte par exemple. Ces puces exploitent soit des chipsets existants (A55, A75, A85X), soit les nouveaux A78 et A88X. Malheureusement, le site d'AMD ne référence pas ces produits et la marque ne communique nullement sur le sujet.

 

Comme toujours avec la marque, la rétrocompatibilité est de la partie. Pour faire simple, cela signifie qu'un processeur de la génération Kaveri nécessite une carte mère FM2+ pour fonctionner, et sera incompatible avec les modèles FM2 et FM1. Par contre, un processeur de la génération précédente (Llano FM1, Trinity ou Richland FM2) pourra fonctionner sur ces nouvelles cartes mères. Vous pouvez donc mettre à jour celle-ci dans un premier temps, et ensuite changer votre APU.

 

AMD Kaveri Slides

Deux fois plus de transistors dans des dimensions identiques

Du côté des améliorations de la puce elle-même, nous ne reviendrons pas de manière détaillée sur le sujet puisque nous avions déjà fait le point à l'occasion d'une précédente annonce lors du CES. L'architecture se veut plus efficace et passe de Piledriver à Steamroller, la finesse de gravure de 32 nm à 28 nm (enfin !) et la partie graphique ne se contente pas de changer de nom puisqu'elle est désormais basée sur l'architecture GCN des Radeon HD 7000 et autres Radeon R7 par exemple. On retrouvera donc le support des technologies comme TrueAudio ou Mantle, mais il faudra voir ce que cela permet dans la pratique, notamment lors de l'arrivée du patch destiné à Battlefield 4.

 

La recette d'AMD est de toute façon toujours la même : faire évoluer en douceur le CPU et tout miser sur la montée en puissance du GPU. Celui-ci est en effet toujours le talon d'Achille du concurrent, Intel, et il faut donc frapper fort sur ce point. C'est d'ailleurs pour cela qu'AMD a pris une décision que certains jugeront étrange : baisser la fréquence de fonctionnement par rapport à la génération précédente. Car le passage du 32 nm au 28 nm s'est fait avec un process permettant le doublement du nombre de transistors à taille de la puce identique, rien que cela.  Notez au passage que l'espace occupé par le GPU au sein de la puce est aussi revu à la hausse puisqu'il est désormais question de 47 %.

 

Il faut dire que pour AMD le défi est important. En effet, tant de son côté que de celui d'Intel, les puces graphiques intégrées, même sur les générations récentes, n'étaient pas encore à la hauteur pour les joueurs. Le géant de Santa Clara a compensé cela avec un doublement des unités sur Haswell, et l'introduction d'une mémoire embarquées sur ses modèles haut de gamme, mais on ne peut pas dire que ceux-ci soient largement disponibles hors des solutions d'Apple. Il fallait donc revoir les choses pour être la hauteur, notamment suite à l'intégration des solutions AMD dans les PS4 et Xbox One et surtout ne laisser aucune marge de manœuvre à la concurrence en faisant grimper les performances en flèche tout en gardant la même stratégie de prix plancher.

Trois modèles annoncés entre 120 € et 170 € : les Core i3 et i5 d'Intel dans le viseur

Au final, on se retrouve donc avec trois modèles annoncés à 120 €, 150 € et 170 €. Notez qu'AMD se met à communiquer sur le nombre de cœurs de manière unifiée, mais prend la peine de détailler les choses dans sa communication à la presse. Espérons qu'il en sera de même auprès du grand public :

 

AMD Kaveri Slides

 

On trouvera d'ailleurs étrange de ne pas avoir de parité entre ce nombre et celui présent après le « A » dans la référence du produit. La différence entre les A8 et A10 semble ainsi assez floue. Pour rappel, le nombre à quatre chiffres qui suit est celui permettant d'identifier la génération de la puce : 

  • Llano : 3000
  • Trinity : 5000
  • Richland : 6000
  • Kaveri : 7000

Le « K » en fin de référence désigne, pour sa part, la possibilité d'overclocker librement ou non le processeur. Notez d'ailleurs que cette génération dispose d'un TDP configurable, comme le propose Intel depuis quelque temps, afin de permettre de limiter cette valeur ou de l'augmenter. Une façon de jouer avec les performances afin de limiter l'échauffement thermique, ce qui peut être une bonne chose pour ceux qui veulent utiliser un tel produit dans un Mini PC par exemple.

Battlefield 4 en bundle... enfin en théorie

Côté disponibilité, pour le moment, AMD semble avoir tenu ses promesses puisque Top Achat référencent les A10-7700K et A10-7850K à 148,99 € et 168,99 € respectivement. Du côté de LDLC, seul l'A10-7700K est en stock pour 149 €, contre 149,90 € / 169,90 € chez Rue du Commerce et 149,99 € / 169,99 € chez Materiel.net. Toutes les boutiques se tiennent donc dans un mouchoir de proche pour le moment.

 

AMD Kaveri Slides

Ou pas...

 

Mais attention, si AMD promet un bundle Battlefield 4, celui-ci n'est évoqué par aucun revendeur en France pour le moment. Si vous pouvez attendre, faites-le donc le temps que l'on en sache plus à ce sujet. Selon nos sources, il sera en effet bien proposé en France, mais rien n'assure que ce sera systématique et / ou rétroactif. Il faut donc s'attendre à la même situation que les Radeon R9, ou certains revendeurs jouent le jeu, et d'autres non.

Un modèle n'est pas disponible, mais c'est celui qui est proposé en test

L'A8-7600 ne sera par contre pas encore proposé. C'est d'autant plus étonnant que c'est celui mis en avant par AMD lors des différents tests. En France, les APU sont arrivés assez tard dans les différentes rédactions, mais globalement, les avis semblent tous aller dans le même sens : l'évolution de la consommation en charge va dans le bon sens, mais celle au repos est revue à la hausse. De la même manière, les gains par rapport à la génération précédente sont bien plus faibles que l'on ne pouvait s'y attendre, surtout pour la partie graphique qui se démarque surtout dans des situations qui sont injouables (moins de 10/20 fps).

 

Il semble donc qu'il faudra toujours continuer de compléter une telle solution avec une carte graphique indépendante si l'on veut jouer à des jeux qui n'ont pas déjà quelques années avec une définition et des paramètres réduits. 

 

AMD Kaveri Slides

 

Le prix devrait néanmoins aider les acheteurs potentiels, notamment face à des Core i3 4340, Core i5 4430 ou 4670 de la génération Haswell. Mais pour vous faire une idée, rien de mieux que d'aller lire les différents tests de nos confrères :

 

En français :

En anglais :

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Kaveri : cap sur le socket FM2+, mais pas de révolution du côté des chipsets

Deux fois plus de transistors dans des dimensions identiques

Trois modèles annoncés entre 120 € et 170 € : les Core i3 et i5 d'Intel dans le viseur

Battlefield 4 en bundle... enfin en théorie

Un modèle n'est pas disponible, mais c'est celui qui est proposé en test

Fermer

Commentaires (25)


C’est pas encore pour cette fois <img data-src=" />


C’est moi où le mode Turbo du CPU semble encore fonctionner en fonction des émanations psychiques de Cthulhu et des phases de la Lune ? <img data-src=" />



Joli perfs sinon sur la partie GPU <img data-src=" />



Par contre le prix et le TDP sont dissuasif <img data-src=" />


résultat calamiteux, je trouve qu’AMD fait de plus en plus de CPU de merde.








typhoon006 a écrit :



C’est pas encore pour cette fois <img data-src=" />









loapinouminou a écrit :



résultat calamiteux, je trouve qu’AMD fait de plus en plus de CPU de merde.





Perso, je trouve ça plutôt pas mal, surtout pour le prix! En plus j’ai monté il y a quelque temps une machine “low cost” avec un A8-6XXXK (je ne sais plus exactement lequel, mais génération Richland, donc), ben j’ai été bien bluffé par les perfs en jeu.



Après, ce n’est clairement pas suffisant pour un PC de gamer, on est d’accord… et surtout, SURTOUT, il leur reste à améliorer la partie CPU (le GROS point noir). Mais apparemment (d’après Anandtech) ça serait lié à l’architecture de Bulldozer et ne devrait pas trop s’améliorer jusqu’à la prochaine architecture… <img data-src=" />



A côté de ça, leur architecture mémoire unifiée, l’apport du HSA, et les outils à disposition des devs pour profiter de tout ça, me semblent vraiment TRES prometteurs. Normalement, tout est en place pour que la prochaine génération (après Excavator) soit au top… ils n’ont pas intérêt à se planter sur le CPU, ce coup-ci!









trshbn a écrit :



A côté de ça, leur architecture mémoire unifiée, l’apport du HSA, et les outils à disposition des devs pour profiter de tout ça, me semblent vraiment TRES prometteurs. Normalement, tout est en place pour que la prochaine génération (après Excavator) soit au top… ils n’ont pas intérêt à se planter sur le CPU, ce coup-ci!





C’est justement ça qui est décevant, dans la pratique le gain est quasi nul. Bon après on verra à terme et ça devrait être intéressant si OpenCL prend une autre tournure que le côté gadget auquel on le confine pour le moment. Mais bon, si on compare Trinity à KAveri, je ne suis pas sur que malgré les deux générations de différence, on voit des sauts flagrants. C’est d’autant plus dommage sur la partie GPU, surtout avec le doublement du nombre de transistors…



Moi j’attends le renouvellement de la gamme FX avec un passage à 12 coeurs et TDP de 100W max. Et bien sûr à moins de 200€. Si AMD pouvait nous sortir ça ça serait une tuerie <img data-src=" />


C’est quoi cette mode avec les APU ? Il y a vraiment possibilité de voir un jour une solution de pointe ? Ou n’est-ce qu’une chimère marketing, les APU étant seulement faits pour le petit prix / petit format / petite conso ?



Parce qu’en dépit d’une synergie accrue du CPU et du GPU je vois deux limitations :



* La capacité même à faire des APU compétitifs en termes de puissance. J’ai l’impression (fausse ?) qu’on doit forcément sacrifier quelque chose, soit pour des raisons thermiques, soit parce que les socles font les même dimensions que les CPU normaux et ont le même nb de transistors (moins de cache ?).



* La capacité à travailler efficacement avec une CG en plus. Concrètement, comment se passe la distribution des calculs ? Par exemple avec un APU AMD et une CG NVidia, le GPU de l’APU est quand même utilisé ?





Si encore il s’agissait seulement d’ajouter aux coeurs principaux des coeurs secondaires moins complexes mais plus nombreux, sans viser le jeu en particulier, je trouverais ça intéressant. Mais là ça ressemble aux GPU intégrés bon marché.



Si quelqu’un peut éclairer ma lanterne…


Rien de neuf en AM3 ?


l’am3 semble abandonné



cette apu est intéressante dans ça version faible fréquence pour des petit PC



la version top perf est trop cher et les perf ne sont pas suffisante pour les jeux donc inutile



si la GGDR5D n’avais pas était abandonné à cause de la mort d’elpidia ça aurais sauvé cette APU



AMD manque de chance









HarmattanBlow a écrit :



C’est quoi cette mode avec les APU ? Il y a vraiment possibilité de voir un jour une solution de pointe ? Ou n’est-ce qu’une chimère marketing, les APU étant seulement faits pour le petit prix / petit format / petite conso ?



Parce qu’en dépit d’une synergie accrue du CPU et du GPU je vois deux limitations :



* La capacité même à faire des APU compétitifs en termes de puissance. J’ai l’impression (fausse ?) qu’on doit forcément sacrifier quelque chose, soit pour des raisons thermiques, soit parce que les socles font les même dimensions que les CPU normaux et ont le même nb de transistors (moins de cache ?).



* La capacité à travailler efficacement avec une CG en plus. Concrètement, comment se passe la distribution des calculs ? Par exemple avec un APU AMD et une CG NVidia, le GPU de l’APU est quand même utilisé ?





Si encore il s’agissait seulement d’ajouter aux coeurs principaux des coeurs secondaires moins complexes mais plus nombreux, sans viser le jeu en particulier, je trouverais ça intéressant. Mais là ça ressemble aux GPU intégrés bon marché.



Si quelqu’un peut éclairer ma lanterne…







une APU est très bien si les logiciel utile la parti GPU comme un coprocesseur

je pense que dans quelque année ça sera le cas

à AMD de ressortir un bon gros pross 8 coeur avec un petit GPU derrière qui sert de coprocesseur



Comme d’hab’, la partie cpu est très moyenne et la partie gpu complètement à la ramasse par rapport à une carte dédiée, vraiment trop limite pour jouer aux jeux récents.



AMD devrait se contenter d’adapter les apu de ps4 et xbox one sur nos chères machines. Vous ne trouvez pas? <img data-src=" />



HarmattanBlow&gt;La partie gpu de l’apu n’est utilisée que si tu n’as pas de carte graphique dédiée. Si tu as une carte graphique dédiée, alors la partie gpu ne sert plus à rien. Ce genre de processeur n’a d’intérêt que pour une machine compacte ou un pc portable.








Reparateur a écrit :



une APU est très bien si les logiciel utile la parti GPU comme un coprocesseur

je pense que dans quelque année ça sera le cas

à AMD de ressortir un bon gros pross 8 coeur avec un petit GPU derrière qui sert de coprocesseur





ça serait le pied!

miam!



Pour les jeux, le point faible restera toujours la bande passante mémoire qui sera en retrait versus une solution fixe. (et de plus partagé avec le CPU).



Pour OpenCL, dans bien des cas, ça semble avoir que peu d’impacte dans bien des cas.



Mais au final cet APU souffre de son choix d’en faire un APU ou le GPU est un coprocesseur. Pour le moment, peu de logiciel en profite, mais cela nécessite de faire des modification qui nuisent au application traditionnel.



@HartmattanBlow



L’objectif avoué d’AMD est de faire du GPU une partie intégrante du CPU un peu comme lorsqu’on a intégré les coprocesseurs x87 au CPU il y a très longtemps… Mais le chemin pour y arriver, surtout en étant outsider, est très long.








elite7words a écrit :



Si tu as une carte graphique dédiée, alors la partie gpu ne sert plus à rien. Ce genre de processeur n’a d’intérêt que pour une machine compacte ou un pc portable.









Punkenjoy a écrit :



L’objectif avoué d’AMD est de faire du GPU une partie intégrante du CPU un peu comme lorsqu’on a intégré les coprocesseurs x87 au CPU il y a très longtemps… Mais le chemin pour y arriver, surtout en étant outsider, est très long.





Merci à vous deux pour vos réponses. <img data-src=" />







Reparateur a écrit :



une APU est très bien si les logiciel utile la parti GPU comme un coprocesseur

je pense que dans quelque année ça sera le cas





Merci également à toi. Cela dit, en tant que développeur, je peux dire que même dans quelques années très peu de logiciels utiliseront OpenCL car peu de problèmes s’y prêtent (les besoins ne sont pas les mêmes que pour le jeu). Mais qui sait, peut-être dans dix ans aurons-nous de nouveaux besoins pour lesquels le modèle OpenCL serait crucial.









elite7words a écrit :



AMD devrait se contenter d’adapter les apu de ps4 et xbox one sur nos chères machines. Vous ne trouvez pas? <img data-src=" />





Il y a certainement des conditions d’exclusivité. Le marché console est certainement une providence pour AMD, je ne connais pas les chiffres mais j’imagine que c’est loin d’être anecdotique face à leurs parts anémiques de marché en CPU pour ordis.

Par ailleurs, la PS4 s’appuie sur de la GDDR5, impossible à trouver en barrette pour monter un PC donc chère. De même la Xbox one a de la mémoire embarquée, technique pour optimiser à moindre coût, mais nécessitant un développement spécifique (au moins en partie).



Je crois plutôt que le AMD doit jouer sa carte Mantle, en s’appuyant sur le fait qu’une architecture AMD est présente sur les deux consoles principales du marché et sur PC. La actuelle cible, c’est plutôt NVidia que Intel: NVidia est un peu isolé, ayant des concurrents fort sur toutes ses activités (ARM pour le mobile, AMD pour le jeu puisque AMD est sur toutes les consoles sauf la NVidia, Intel et autre sur le Highperf computing).



Si AMD arrive avec Mantle à orienter les développement avec ses propre outils, NVidia va passer quelques sales années sur le marché grand public.



(Remarque: Je ne suis pas convaincu du tout que Mantle soit une révolution au niveau perfs).



C’est plutôt sympathique pour monter une config de jeux raisonnable à un prix assez bas, même en achetant une petite carte vidéo pour profiter du Dual Graphics…



…mais je constate surtout qu’il n’y a toujours pas de raisons d’upgrader vers de l’AMD quand on a déjà un AMD (j’ai un Phenom II X4 955, 4 ans presque), sauf à prendre un FX mais la différence de prix avec les équivalents Intel alors que la consommation et chauffe sont horribles font que Intel est le seul choix possible…








David_L a écrit :



C’est justement ça qui est décevant, dans la pratique le gain est quasi nul. Bon après on verra à terme et ça devrait être intéressant si OpenCL prend une autre tournure que le côté gadget auquel on le confine pour le moment. Mais bon, si on compare Trinity à KAveri, je ne suis pas sur que malgré les deux générations de différence, on voit des sauts flagrants. C’est d’autant plus dommage sur la partie GPU, surtout avec le doublement du nombre de transistors…





On est d’accord sur le fait que tout ça reste théorique vu que, pour le moment, les SDK promis par AMD ne sont pas disponibles. Mais je suis malgré tout très curieux par les résultats que l’on peut obtenir avec cette histoire de HSA et de hUMA, même si ça restera restreint à des utilisations spécifiques (calculs, moteurs physiques, encodage, etc).



Et pour le gain entre Trinity et Kaveri, on est également d’accord : si on en croit les tests, et vu que l’augmentation du nombre de transistors est couplé à une baisse de fréquence, ce n’est pas super flagrant non plus pour les 100W… par contre, pour les 45W c’est vraiment autre chose (et je pense que c’est la cible principale de ces APU).

Il faudra ensuite voir lorsque Mantle sortira – enfin, si ça sort un jour et que c’est supporté…



Si je précise mon précédent commentaire, je trouve tout ça très prometteur sur le papier, mais il reste le problème récurrent d’AMD : faire en sorte que l’écosystème logiciel suive, ce qui n’est clairement pas le cas aujourd’hui malgré les partenariats noués!









elite7words a écrit :



Comme d’hab’, la partie cpu est très moyenne et la partie gpu complètement à la ramasse par rapport à une carte dédiée, vraiment trop limite pour jouer aux jeux récents.



AMD devrait se contenter d’adapter les apu de ps4 et xbox one sur nos chères machines. Vous ne trouvez pas? <img data-src=" />



HarmattanBlow&gt;La partie gpu de l’apu n’est utilisée que si tu n’as pas de carte graphique dédiée. Si tu as une carte graphique dédiée, alors la partie gpu ne sert plus à rien. Ce genre de processeur n’a d’intérêt que pour une machine compacte ou un pc portable.







Et en meme temps je ne suis pas certain que coté CPU il y ait un gain









David_L a écrit :



C’est justement ça qui est décevant, dans la pratique le gain est quasi nul. Bon après on verra à terme et ça devrait être intéressant si OpenCL prend une autre tournure que le côté gadget auquel on le confine pour le moment. Mais bon, si on compare Trinity à KAveri, je ne suis pas sur que malgré les deux générations de différence, on voit des sauts flagrants. C’est d’autant plus dommage sur la partie GPU, surtout avec le doublement du nombre de transistors…





C’est ça qui est hallucinant, mais c’est toujours pareil chez AMD :

L’archi elle déchire sur le papier, mais en pratique c’est de la merde <img data-src=" />



Du coup je reste chez Intel et je passe à un Xeon 1230v3 <img data-src=" />









elite7words a écrit :



HarmattanBlow&gt;La partie gpu de l’apu n’est utilisée que si tu n’as pas de carte graphique dédiée. Si tu as une carte graphique dédiée, alors la partie gpu ne sert plus à rien. Ce genre de processeur n’a d’intérêt que pour une machine compacte ou un pc portable.







Tu as aussi la fonction “Dual GPU” si tu prends une carte graphique “compatible”, et le gain est plutôt intéressant si on se réfère au test de HW.fr









HarmattanBlow a écrit :



C’est quoi cette mode avec les APU ? Il y a vraiment possibilité de voir un jour une solution de pointe ? Ou n’est-ce qu’une chimère marketing, les APU étant seulement faits pour le petit prix / petit format / petite conso ?



Parce qu’en dépit d’une synergie accrue du CPU et du GPU je vois deux limitations :



* La capacité même à faire des APU compétitifs en termes de puissance. J’ai l’impression (fausse ?) qu’on doit forcément sacrifier quelque chose, soit pour des raisons thermiques, soit parce que les socles font les même dimensions que les CPU normaux et ont le même nb de transistors (moins de cache ?).



* La capacité à travailler efficacement avec une CG en plus. Concrètement, comment se passe la distribution des calculs ? Par exemple avec un APU AMD et une CG NVidia, le GPU de l’APU est quand même utilisé ?





Si encore il s’agissait seulement d’ajouter aux coeurs principaux des coeurs secondaires moins complexes mais plus nombreux, sans viser le jeu en particulier, je trouverais ça intéressant. Mais là ça ressemble aux GPU intégrés bon marché.



Si quelqu’un peut éclairer ma lanterne…





Si tu parle anglais, l’article anandtech détaille bien les réponses à ta question. Les APU sont le futur (avec un GPU aditionel pour le jeux, en tout cas pour un certain temps). J’en veut pour preuve que même intel, qui est actuellement imbattable sur les CPU “pur” ne propose maintenant presque plus que des APU alors que çà le force a aller sur un terrain ou AMD a clairement l’avantage.



Pourquoi les APU? Justement parce que depuis Kaveri ce sont devenu de véritables co-processeurs (et c’est ce que PCINpact semble avoir éclipsé dans cet article). Alors, comme avec le 64bit ou d’autres innovations hardwares, le matériel arrive avant le logiciel et actuellement très peut de logiciels (libreoffice, vlc, llvm par exemple) utilisent les capacité de GUGPU de la partie graphique de ces APU.



Résultat: cette génération d’APU n’est pas très rapide avec les application d’aujourd’hui mais inaugure l’arrivé de processeurs a architecture hétérogène ayant un accès mémoire unifié.









pyrignis a écrit :



Si tu parle anglais, l’article anandtech détaille bien les réponses à ta question.





Je te remercie vivement pour avoir attiré mon attention sur cet article, un des trucs les plus excitants que j’ai lu depuis un bail. En particulier cette page explore en profondeur le sujet.



Je retire donc mon a priori : ce que AMD a fait là est très loin d’un simple GPU intégré ou d’une architecture bon marché. Ils visent beaucoup plus loin avec des projets très ambitieux et une architecture bluffante permettant une vraie synergie (véritable partage de la mémoire, instructions atomiques unifiées, appels en mode utilisateur, dispatcher et appels bidirectionnels, etc).



Peut-être un peu trop ambitieux malheureusement, je ne sais pas si le reste de l’industrie va suivre suffisamment rapidement. Mais couplé avec des sémantiques orienté parallélisme de tâches et des annotations concernant la mutabilité et le partage des données dans les langages traditionnels, il y a là de quoi vraiment généraliser l’exploitation de ce genre d’architecture sans plus d’efforts spécifiques de la part du développeur (rien à avoir avec OpenCL qui bien qu’assez simple nécessite un code dédié dans un langage dédié).



Si ce genre d’archi réussit à avoir de bonnes perfs et que MS sort un couple Midori + M# fonctionnel, il va y avoir une belle synergie entre les deux.









HarmattanBlow a écrit :



Je te remercie vivement pour avoir attiré mon attention sur cet article, un des trucs les plus excitants que j’ai lu depuis un bail. En particulier cette page explore en profondeur le sujet.



Je retire donc mon a priori : ce que AMD a fait là est très loin d’un simple GPU intégré ou d’une architecture bon marché. Ils visent beaucoup plus loin avec des projets très ambitieux et une architecture bluffante permettant une vraie synergie (véritable partage de la mémoire, instructions atomiques unifiées, appels en mode utilisateur, dispatcher et appels bidirectionnels, etc).



Peut-être un peu trop ambitieux malheureusement, je ne sais pas si le reste de l’industrie va suivre suffisamment rapidement. Mais couplé avec des sémantiques orienté parallélisme de tâches et des annotations concernant la mutabilité et le partage des données dans les langages traditionnels, il y a là de quoi vraiment généraliser l’exploitation de ce genre d’architecture sans plus d’efforts spécifiques de la part du développeur (rien à avoir avec OpenCL qui bien qu’assez simple nécessite un code dédié dans un langage dédié).



Si ce genre d’archi réussit à avoir de bonnes perfs et que MS sort un couple Midori + M# fonctionnel, il va y avoir une belle synergie entre les deux.





C’est un peu le problème historique d’AMD en fait, ce sont toujours eux qui pavent la voie des innovations architecturales/logicielles porteuses (64bits, fréquence proc dynamique, multi-core, et maintenant ça) mais faute de moyens ils n’arrivent jamais à faire sauter les verrous posés par Intel (avant concurrence déloyale, puis avance technique par finesse de gravure, plus partenariats dans tous les sens pour que les logiciels soient opti pour les instructions/archis spécifiques Intel).



D’où la situation actuelle où il devient difficile de recommander des procs AMD pour les cas d’usage les plus courants.



Pour qu’ils retrouvent une chance de percer, il leur faut des partenaires constructeurs / éditeurs logiciels de poids, et qui aient des couilles. Pas évident à trouver…

De ce point de vue les consoles next-gen avec Mantle constituent un levier potentiel intéressant (le seul ?).

Enfin, on verra bien comment ils s’en sortent cette année… Ils seront leader un jour on y croit tous (comme Linux sur le desktop <img data-src=" />)…















Ou pas… <img data-src=" />



tiens cette fois ci ils ont inversé le système de retrocompatibilité:



avant, on pouvait mettre un processeur AM3 sur carte mère AM2 ou AM2+, mettre un processeur AM2+ sur carte mère AM2+ ou AM2, De même, une carte mère dotée d’un socket AM3 et de DDR2 est compatible avec les anciens processeurs AM2 et AM2+. Par contre, si la carte mère AM3 n’est équipée que de DDR3, elle ne sera pas compatible avec ces processeurs.





bref aujourdh hui, obligé de changer la carte mère, qui peux cependant accepter l’ancien processeur, avant de le remplacer.

mais ca n’est plus aussi interressant.

cependant ca reste à l’avantage d’AMD par rapport aà Intel ou il faut tout racheter à chaque fois si je ne m’abuse…


Si je comprends bien la dernière illustration de l’article, il est désormais possible de faire bosser simultanément un APU avec une solution dGPU (si AMD dans les deux cas) ?



Là il est un peu tard mais promis je prendrai le temps de lire l’article d’AnandTech en détail sous peu <img data-src=" />