Intel lève le voile sur ses nouveaux chipsets H97 et Z97

Intel lève le voile sur ses nouveaux chipsets H97 et Z97

Le stockage PCI Express au centre des préoccupations

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

12/05/2014 8 minutes
23

Intel lève le voile sur ses nouveaux chipsets H97 et Z97

Comme nous vous l'indiquions la semaine dernière, c'est ce dimanche qu'Intel a mis sur le marché sa « nouvelle » plateforme composée des processeurs Haswell Refresh et des cartes mères équipées des chipsets de série 9. C'est sur ces derniers que le fondeur a tenu à nous donner quelques détails en marge d'un lancement qui a posé plusieurs problèmes pratiques.

Intel Chipset Series 9 H97 Z97 Wildcat Point

 

Comme nous l'expliquions il y a quelques jours, le lancement des chipsets H97 et Z97 n'a pas été sans poser quelques soucis d'organisation. Un point étonnant puisque ceux-ci n'étaient pas réellement attendus avec impatience car ils ne se démarquent pas vraiment par leur grande innovation. Un point qu'Intel a fini par détailler un peu dans un document mis à notre disposition.

Chipsets de série 9 : simple mise à jour de routine en attendant la suite du programme

Comme on peut le voir ici, les nouveautés se concentrent sur trois points, deux en relation avec le stockage et un dernier avec la sécurité du boot et la lutte contre les malwares. Un élément que nous avions évoqué dès notre analyse d'août dernier. On s'étonnera par contre de voir que le support des processeurs Core de cinquième génération, Broadwell, ne soit pas ici indiqué comme une nouveauté.

 

En effet, si l'on sait que ceux-ci n'arriveront pas avant la fin de l'année ou le début de l'année prochaine, il faudra sans aucun doute une nouvelle carte mère pour en profiter, des éléments ayant apparemment été modifiés au niveau de la gestion de leur alimentation. De plus, les prochains Core i5 4690K et Core i7 4790K, connus sous le petit nom de Devil's Canyon, demanderont pour leur part une carte mère équipée d'un chipset de la série 9 comme indiqué dans une précédente actualité. On devrait en apprendre un peu plus à l'occasion du Computex et du prochain IDF.

 

Intel Roadmap Update Mars 2014 Intel Roadmap Update Mars 2014

Intel prépare l'arrivée de ses prochaines générations

 

Quoi qu'il en soit et en attendant plus de détails sur ce point précis, qu'attendre exactement des H97 et Z97 ? Tout d'abord, ceux-ci devront surtout gérer le cœur de gamme de l'offre d'Intel, le haut de gamme attendant l'arrivée prochaine du X99 et des nouveaux processeurs à huit cœurs, tandis que l'entrée de gamme continue de se passer par des modèles tels que le H81. Dommage pour ceux qui voudraient un petit processeur maintenant et une plateforme pas très chère, mais qui souhaiteraient se laisser l'occasion de passer sur un modèle Broadwell d'ici quelques mois.

 

Il sera d'ailleurs intéressant de voir les stratégies des constructeurs au niveau des tarifs, surtout du côté de ceux qui pratiquent des prix plancher comme ASRock ou MSI par exemple. Ce dernier nous a par exemple indiqué réutiliser le PCB de ses cartes mères équipées de chipsets de série 8 pour de nouveaux modèles de série 9 et pratiquer le même tarif que pour son ancienne gamme pour celle qui va arriver sur le marché. Dans la pratique, s'il sera sans doute rare de trouver des produits Z97 à moins de 100 €, cela sera plus aisé dans le cas du H97. ASUS nous a par exemple précisé pour sa part que sa H97M-E serait mise sur le marché à 79 € TTC seulement.

 

Intel Chipset Series 9 H97 Z97 Wildcat Point

 

Si vous êtes déjà équipés en LGA 1150, la mise à jour ne sera sans doute pas nécessaire. Comme le montre le tableau ci-dessus, les caractéristiques de ces deux chipsets n'ont rien de vraiment extraordinaire. La différence majeure entre les deux modèles est comme souvent la capacité des lignes PCI Express 3.0 à être divisées, notamment pour le support du SLi ou du CrossFire par exemple.

 

On retrouve aussi quelques détails comme l'overclocking, Small Business Advantage qui est rarement exploité, sauf pour les entreprises qui disposent de logiciels spécifiques, ou encore le « Dynamic Storage Accelerator » qui promet de gérer les paramètres d'un disque ou d'un SSD afin d'en améliorer les performances sous Windows, un point qui était déjà présent dans le Z87. Bref, rien de bien transcendant.

Les SSD PCI Express M.2 en « Guest star »

Du côté des nouveautés, et comme nous l'avons déjà évoqué, cela concerne donc essentiellement le stockage, et l'arrivée du support des produits exploitant une connectique M.2 (ex-NGFF). Pour rappel, c'était le SATA Express qui était précédemment mis en avant, mais ce standard n'a semble-t-il finalement pas intéressé Intel outre mesure au moment de la finalisation. Soucis dans son implémentation, recherche de sécurité des équipes qui voulaient éviter des soucis comme avec les précédents chipsets ? Impossible à dire. Mais c'est finalement le M.2 qui a gagné, cette évolution du mSATA pouvant d'ailleurs être utilisé par d'autres éléments comme une carte Wi-Fi par exemple.

 

Lors de nos rencontres et de nos discussions avec les constructeurs, il nous a aussi souvent été indiqué que ce dernier aurait l'avantage de voir rapidement des produits mis sur le marché par les constructeurs de SSD. Un point qu'il sera intéressant de vérifier, surtout après le Computex qui devrait être le lieu de différentes annonces. En effet, certaines marques avaient déjà tenté d'implémenter ce standard avec la génération précédente, mais l'on ne peut pas dire que les produits se bousculaient chez les revendeurs.

 

Apacer M.2 SSD

Les différents formats pouvant être exploités par le M.2

 

Cela pourrait néanmoins évoluer avec le soutien d'Intel dans la balance et le fait que toutes les marques vont désormais proposer un port sur quasiment toutes leurs cartes. Le géant de Santa Clara propose pour sa part plusieurs références exploitant cette connectique, comme ses SSD Pro 1500 ou 530 ainsi que plusieurs cartes Wi-Fi 802.11ac / Bluetooth 4.0.

 

Mais que s'est-il passé avec le SATA Express ? Outre les soucis potentiellement rencontrés d'un point de vue technique ou le fait que ce standard se limite au stockage, la plupart des marques nous ont confiées à un moment ou un autre que les produits n'étaient pas encore prêts dans la pratique. Ceux-ci n'arriveraient en effet pas avant l'année prochaine, ce qui aurait sans doute posé un problème puisque d'ici là de nouvelles cartes mères accompagneront sans doute le lancement de Broadwell.

Le SATA Express ne sera pas totalement mis de côté : que le meilleur gagne ?

Certains proposeront néanmoins son support, au cas où. ASUS par exemple le fera nativement sur quelques modèles. Chez MSI cela prendra la forme d'un adaptateur M.2 / SATA Express sans que l'on ne connaisse exactement sa forme. Des points sur lesquels nous reviendrons bientôt plus en détail. Mais le cas d'ASUS est sans doute le plus intéressant, la société étant segmentée en plusieurs équipes. Lors d'une récente rencontre, ces dernières ne semblaient pas toujours d'accord sur la technologie la plus adaptée.

 

Intel Chipset Series 9 H97 Z97 Wildcat Point

Le SATA Express est mentionné, mais le M.2 est désormais celui mis majoritairement en avant

 

En effet, l'équipe ROG (Republic of Gamers) nous a pour sa part indiqué être sur la ligne d'Intel, à savoir que le M.2 était la meilleure technologie, plus apte à arriver rapidement sur le marché et que, pour cette raison, elle était présente sur tous les modèles de la gamme. De son côté, l'équipe en charge des modèles classiques et TUF (The Ultimate Force) nous a vanté le SATA Express en nous vendant son implémentation maison, sa rétrocompatibilité, etc. C'est d'ailleurs pour cela que certains modèles et certains produits de la marque se basent dessus.

 

Interrogé sur cette différence d'analyse selon les équipes, ASUS n'a pas vraiment été capable de nous répondre. Mais au final, le constructeur semble vouloir tirer parti des avantages des deux standards, qui visent des performances assez similaires, mais avec des approches différentes au niveau de leurs possibilités, de leur format, de leur compatibilité ou de leur implémentation. Les prochains mois vont donc être assez intéressants à suivre du côté des SSD et des types de produits qui rencontreront un réel succès commercial.

Rapid Storage Technology 13 apporte quelques subtilités

Car dans le fond, tout cela est surtout mis en place pour pousser l'utilisation d'unités de stockage utilisant le PCI Express comme base de fonctionnement au sein des ordinateurs de « Mr tout le monde ». C'est d'ailleurs un élément que l'on retrouve dans une grande partie des points évoqués pour la mise en place de RST 13.0 (Rapid Storage Technology). On note aussi l'arrivée du support d'un cache de 16 Go pouvant à la fois être exploités pour la technologie Smart Response ou Rapid Start (démarrage rapide). 

 

Intel Chipset Series 9 H97 Z97 Wildcat Point Intel Chipset Series 9 H97 Z97 Wildcat Point

 

Il pourra en effet désormais accueillir une image du système prête à être utilisée en retour de veille, mais aussi des données en cache, que ce soit via un SSD mSATA ou M.2 ou un disque dur hybride par exemple (avec cache intégré). Pas sûr que ce soit une révolution suffisante ou que cela nécessitait une mise à jour de chipset, mais cela devrait sans doute permettre à certains intégrateurs de continuer à utiliser un disque dur comme unité de stockage principale encore quelque temps.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Chipsets de série 9 : simple mise à jour de routine en attendant la suite du programme

Les SSD PCI Express M.2 en « Guest star »

Le SATA Express ne sera pas totalement mis de côté : que le meilleur gagne ?

Rapid Storage Technology 13 apporte quelques subtilités

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (23)


Ah oui, en effet, rien de très trippant…

C’est bien dommage, car finalement, sans réelle concurrence en face, cela commence à faire un bon moment que le marché du processeur manque de dynamisme. Dire qu’un core i7 de première génération (datant de… 2008) n’est toujours pas à la traine… Et le pire, c’est qu’Intel conserve ses vieilles manies, à savoir pousser à changer de carte mère (au moins) toutes les deux générations de CPU… ce qui est d’autant plus “étrange” que de plus en plus de fonctionnalités sont en fait directement intégrées au CPU.



A quand un réel saut technologique ? Des perfs qui font un réel bond ? Des cartes mères apportant quelque chose de vraiment nouveau ?








DayWalker a écrit :



Ah oui, en effet, rien de très trippant…

C’est bien dommage, car finalement, sans réelle concurrence en face, cela commence à faire un bon moment que le marché du processeur manque de dynamisme. Dire qu’un core i7 de première génération (datant de… 2008) n’est toujours pas à la traine… Et le pire, c’est qu’Intel conserve ses vieilles manies, à savoir pousser à changer de carte mère (au moins) toutes les deux générations de CPU… ce qui est d’autant plus “étrange” que de plus en plus de fonctionnalités sont en fait directement intégrées au CPU.



A quand un réel saut technologique ? Des perfs qui font un réel bond ? Des cartes mères apportant quelque chose de vraiment nouveau ?







Je ne peut qu’être d’accord avec toi, je tourne encore et toujours sur un i7 920 épaulé par 48Go de RAM. Aujourd’hui si je changeais je serais obligé de retomber a 32Go de RAM, ce qui pour mon usage (essais de développement par virtualisation) serait une perte.



ca me fait marrer leur rapid start….

par ce que c’est ce que fait windows 8

donc si tu as un SSD ben ca va aussi vite…

surtotu que leur exemple quand tu met le rapid start ben ton cache va devoir gicler une bonne partie de ce qu’il contenait

et donc au redemarrage de ces application qui etaient en cache tu perds le benefice vu qu’il faut les recacher.sauf si tu prend un ssd plus gros (et dans ce cas ben tu mets ton OS dessus directement).

bref a l’epoque de la sortie des ssd caching je veux bien mais la ca ne sert plus a grand chose








DayWalker a écrit :



Ah oui, en effet, rien de très trippant…

C’est bien dommage, car finalement, sans réelle concurrence en face, cela commence à faire un bon moment que le marché du processeur manque de dynamisme.





Au contraire, la concurrence n’a jamais été aussi vive pour Intel, sauf que c’est sur le serveur (Google & co sont en train de s’éloigner du x86 et d’Intel), les mobiles et tablettes (domination d’ARM tandis que le x86 est le challenger) et les objets (raspberry pi). Le x86 est sur son déclin et d’ici dix ans on n’achètera sans doute qu’un compatible x86 (via un transcodeur, le temps que tout le monde migre) dont les performances optimales seront obtenues en lui balançant un autre jeu d’instructions.





A quand un réel saut technologique ? Des perfs qui font un réel bond ? Des cartes mères apportant quelque chose de vraiment nouveau ?



C’est une blague ? Regarde ce que fait AMD en ce moment avec l’intégration du GPU dans le processeur et tout ce qui l’accompagne pour améliorer la synergie entre les deux parties. Ce mouvement est une innovation comparable à l’introduction du x87 (unités de calcul flottant) ou du MMX (premières instructions vectorielles), c’est une transformation radicale de la pratique du calcul informatique et ça se produit maintenant, sous tes yeux.



Non, ce que tu veux toi c’est une amélioration des performances par coeur. Mais on a atteint un plafond technologique il y a dix ans et il n’y a toujours pas de nouvelle techno mûre pour ça. Et ce n’est pas la faute d’Intel qui investit beaucoup dans la recherche sur ce problème.









DayWalker a écrit :



Ah oui, en effet, rien de très trippant…

A quand un réel saut technologique ? Des perfs qui font un réel bond ? Des cartes mères apportant quelque chose de vraiment nouveau ?





Tu dis toi-même que ton i7 n’est pas à la traîne. Pourquoi changer???







psychotik2k3 a écrit :



surtotu que leur exemple quand tu mets le rapid start ben ton cache va devoir gicler une bonne partie de ce qu’il contenait

et donc au redemarrage de ces application qui etaient en cache tu perds le benefice vu qu’il faut les recacher.sauf si tu prend un ssd plus gros (et dans ce cas ben tu mets ton OS dessus directement).





Pour avoir un cache SSD (64go) depuis 1 an 12, je préfère cette solution au disque SSD.



Car sauf à avoir un SSD très gros, tu ne peux pas tout mettre dessus. Le cache SSD ne met pas longtemps à apprendre.

En gros: le démarrage est toujours rapide (15s depuis un power on réel). Si je trie les photos de famille, les dernières chargées sont souvent en cache (ça se voit très bien au temps d’accès). Si je fais une compilation sous Visual Studio, les 2 premières sont lentes (sauf si je fais du dev tous les soirs), les suivantes sont très rapides.Si je joue régulièrement à un jeu, le chargement est accéléré. Si je lance un linux en VM, le 1er chargement est lent, les suivants très rapides.



Je trouve cette solution plus souple qu’un SSD dédié pour lequel il faut toujours réfléchir à la destination de tel logiciel et telle donnée. Je n’ai pas toujours les perfs d’un SSD, mais j’en suis proche le plus souvent.



Par contre, lors des mises à jour du BIOS, tu peux le perdre momentanément, et là tu vois comme ce cache est efficace.









psychotik2k3 a écrit :



ca me fait marrer leur rapid start….

par ce que c’est ce que fait windows 8

donc si tu as un SSD ben ca va aussi vite..







ça doit être un truc marketing, j’ai un i7 875k donc d’ancienne génération avec un SSD, le PC avec Windows 8.1 doit mettre 5\6 sec a démarrer, donc le mémé sans rapidstart le temps des Windows qui mettent 2min a démarrer est révolu.



Comme dit plus haut ça évolue moins vite, mon PC à 4ans et je n’ai pas besoin d’upgrader; dans les années 2000 avoir un PC de 4ans, c’était se retrouver avec une machine plus ou moins obsolète.



Faut voir le bon coté des choses, une évolution plus lente, ça mets moins la pression sur le porte monnaie et ça évite de voir des machines partir à la benne trop vite.









DayWalker a écrit :



A quand un réel saut technologique ? Des perfs qui font un réel bond ? Des cartes mères apportant quelque chose de vraiment nouveau ?







Les nouveautés ne sont pas forcement visibles.

par exemple, regarde le graphique d’efficacité énergétique, l’écart entre Sandy Bridge et Ivy Bridge est sensible. (Entre Haswell et Ivy, c’est moins glorieux je te l’accorde, mais sans nouveau process de gravure, point de miracles).



Compare aussi les chipset Z68 et Z87 : arrivée du PCi 3.0, USB 3.0 natif, SATA 6Gb/s. Sans compter que les fabricants ont également amélioré la finition de leurs cartes, à prix similaire.







The F0x a écrit :



Je ne peut qu’être d’accord avec toi, je tourne encore et toujours sur un i7 920 épaulé par 48Go de RAM. Aujourd’hui si je changeais je serais obligé de retomber a 32Go de RAM, ce qui pour mon usage (essais de développement par virtualisation) serait une perte.







Euh tu peux tout à fait monter à 64Go sur le Z87 (et donc à priori sur le Z97).

Voyons plutôt les choses comme ceci : avec l’usage que tu fais de ta machine, le coût de l’upgrade n’est pas rentable. Mais il y a bien de la performance supplémentaire, à coût et consommation identique.

Cf ce comparatif.












HarmattanBlow a écrit :



Au contraire, la concurrence n’a jamais été aussi vive pour Intel, sauf que c’est sur le serveur …







Ca fait une belle jambe pour les particuliers… pour ceux qui ont besoin d’une station de travail pour lancer des simulations. Bref, je te l’accorde, sur le marché du serveur, ca commence à bouger.







HarmattanBlow a écrit :



C’est une blague ? Regarde ce que fait AMD en ce moment …







Ben, oui, l’intégration d’un GPU performant, c’est vrai, c’est un bon point, et j’en ai monté, des machines à APU, mais globalement, si on veut de la performance, ca reste plus intéressant d’avoir un CPU “de la marque bleu”, et une carte vidéo une vrai pour l’épauler. Parce que bon, les APU sauce Intel, ca rame graphiquement… Mais bon, pour de la video et de la bureautique, ca suffit largement.









HarmattanBlow a écrit :



Au contraire, la concurrence n’a jamais été aussi vive pour Intel, sauf que c’est sur le serveur (Google & co sont en train de s’éloigner du x86 et d’Intel), les mobiles et tablettes (domination d’ARM tandis que le x86 est le challenger) et les objets (raspberry pi). Le x86 est sur son déclin et d’ici dix ans on n’achètera sans doute qu’un compatible x86 (via un transcodeur, le temps que tout le monde migre) dont les performances optimales seront obtenues en lui balançant un autre jeu d’instructions.



Ouais, comme le 68000, le Power, le PowerPC, l’Alpha, le ARM, l’EPIC, … Ils ont tous tué le x86. Quant à l’histoire du transcodeur, si ça arrive, il suffirait à Intel et AMD de ne plus exécuter du code x86. Tous les CPU x86 depuis près de 20 ans sont tels que tu décris “le compatible x86” en fait. Par contre personne n’a migré, et pas seulement parce que le micro code n’est pas accessible : sur EPIC, il l’était, ça n’a pas migré quand même.







C’est une blague ? Regarde ce que fait AMD en ce moment avec l’intégration du GPU dans le processeur et tout ce qui l’accompagne pour améliorer la synergie entre les deux parties. Ce mouvement est une innovation comparable à l’introduction du x87 (unités de calcul flottant) ou du MMX (premières instructions vectorielles), c’est une transformation radicale de la pratique du calcul informatique et ça se produit maintenant, sous tes yeux.



Non, ce que tu veux toi c’est une amélioration des performances par coeur. Mais on a atteint un plafond technologique il y a dix ans et il n’y a toujours pas de nouvelle techno mûre pour ça. Et ce n’est pas la faute d’Intel qui investit beaucoup dans la recherche sur ce problème.

Donc ce ne sont pas les fondeurs qu’il faut regarder pour la stagnation, mais les dev ? Ca aussi, c’est pas hyper nouveau. Et Intel en a fait les frais sur le P4 (même si ce n’est pas ça qui l’a mis à mort, le P4), du coup, je crois qu’ils essayent de faire des innovations qui s’intègrent le plus possible dans leur pseudo JIT hardware, plutôt que de faire de la perfo inutilisable genre Cell. Quand on voit la quantité de SSE vectoriel exécuté par nos CPU par rapport au x87 ou au SSE scalaire… on peut se dire que la révolution arrivera un peu plus tard.



Et bien moi je vois ça au contraire comme une bonne nouvelle pour les particuliers. J’ai toujours changé mes configs au bout de 4 ans 12, mais quand j’ai acheté ma config actuelle (I5 2500k et GTX 560 ti) à la sortie du Z68 (juin 2011), j’étais déjà persuadé qu’elle avait le potentiel de durer bien plus longtemps, et ça se confirme franchement, tout particulièrement niveau CPU, qui me semble limite encore sous-utilisé pour mon usage (même dans les jeux) 3 ans après alors même que j’ai une belle réserve d’overclocking.








Charly32 a écrit :



Euh tu peux tout à fait monter à 64Go sur le Z87 (et donc à priori sur le Z97).

Voyons plutôt les choses comme ceci : avec l’usage que tu fais de ta machine, le coût de l’upgrade n’est pas rentable. Mais il y a bien de la performance supplémentaire, à coût et consommation identique.

Cf ce comparatif.







Niveau consommation effectivement un très jolie gain.



Autant je suis d’accord pour le gain de perf brute par coeur (+30% à +60% de perf par cœur suivant le cas) entre un i7-920 et un I7-4770K… (même segment de gamme aux dates respectives)



Mais sur de nombreux autres points pour les caractéristiques c’est similaire!

http://cpuboss.com/cpus/Intel-Core-i7-920-vs-Intel-Core-i7-4770K

http://www.cpu-world.com/Compare/386/Intel_Core_i7_i7-4770_vs_Intel_Core_i7_i7-9…

Bande Passante mémoire, Cache,…



En 5 ans, on peut s’attendre a mieux.



Par contre la limitation en ram est bien là, impossible de trouver une carte mère Z87 avec plus de 32G de RAM… sauf si tu connais un modèle je suis preneur <img data-src=" />









ffwill a écrit :



Mais sur de nombreux autres points pour les caractéristiques c’est similaire!

http://cpuboss.com/cpus/Intel-Core-i7-920-vs-Intel-Core-i7-4770K

http://www.cpu-world.com/Compare/386/Intel_Core_i7_i7-4770_vs_Intel_Core_i7_i7-9…

Bande Passante mémoire, Cache,…



En 5 ans, on peut s’attendre a mieux.



Par contre la limitation en ram est bien là, impossible de trouver une carte mère Z87 avec plus de 32G de RAM… sauf si tu connais un modèle je suis preneur <img data-src=" />







Pour la BP RAM, c’est compliqué sans nouvelle techno à ce niveau. le passage à la DDR4 devrait améliorer les choses.



Pour la quantité c’est vrai qu’il faut passer aux modules 16GB, et seul des barrettes type serveur existent dans cette capa, donc plus chères; Et je ne suis même pas sur que ça se comporte bien en fait :°)

Sinon il faut lorgner du côté de la plateforme 2011, qui est plus le successeur du socket 1366 et que ne l’est le socket 1150.









ffwill a écrit :



Par contre la limitation en ram est bien là, impossible de trouver une carte mère Z87 avec plus de 32G de RAM… sauf si tu connais un modèle je suis preneur <img data-src=" />







Faut partir sur une CM socket 2011 (chipset X79) ce qui t’amène à tes 64GB avec des barrettes DDR3 classiques de 8GB unbuffered en 4x8 x2.

Ca te donnera accès au Core i7 4930K (6 coeurs+HT) ou au Xeon E5-2620 v2 (un poil moins perf, mais moins onéreux…)



Ok tu ne retrouveras pas tout à fait le ratio perfs/euro que pouvaient offrir la plateforme socket 1366 couplée au i7 920 de la bonne époque… <img data-src=" />

Mais le gain en perfs, en partant sur un 6 cores + turbo, sera appréciable ! <img data-src=" />









Charly32 a écrit :



Pour la quantité c’est vrai qu’il faut passer aux modules 16GB, et seul des barrettes type serveur existent dans cette capa, donc plus chères; Et je ne suis même pas sur que ça se comporte bien en fait :°)

Sinon il faut lorgner du côté de la plateforme 2011, qui est plus le successeur du socket 1366 et que ne l’est le socket 1150.







En fait les modules 16GB voir 32GB sont en ECC, qui n’est pas supporté sur ces MB, il faut effectivement voir a monter sur 2011, mais la le budget a tendance a changer aussi. Mais bon qui sait on verra ce qui va venir avec la DDR4 peut etre que je franchirait le pas vers une nouvelle plateforme “server ou workstation oriented”



Ca serait peut etre ma premiere carte mere multi-cpu depuis mon antique P2B-DS…. que de souvenir <img data-src=" />









DayWalker a écrit :



Ben, oui, l’intégration d’un GPU performant, c’est vrai, c’est un bon point, et j’en ai monté, des machines à APU, mais globalement, si on veut de la performance, ca reste plus intéressant d’avoir un CPU “de la marque bleu”, et une carte vidéo une vrai pour l’épauler. Parce que bon, les APU sauce Intel, ca rame graphiquement… Mais bon, pour de la video et de la bureautique, ca suffit largement.





Il ne faut pas oublier une chose qui passe souvent de côté du fait de la com’ d’AMD. Ce dernier a beau vanter ses APU, les CPU intègrent une partie graphique depuis assez longtemps en fait, chez l’un comme chez l’autre. La communication directe (ou non) entre les deux se gère de manière différente, notamment via le LLC chez Intel, et AMD cherche à revoir les choses avec ses évolutions récentes, mais il n’y a pas d’un côté celui qui mixe CPU et GPU et de l’autre celui qui fait du CPU only ;)









DayWalker a écrit :



Ca fait une belle jambe pour les particuliers…





Mais ces changements finiront par affecter le desktop.





j’en ai monté, des machines à APU, mais globalement, si on veut de la performance, ca reste plus intéressant d’avoir un CPU “de la marque bleu”, et une carte vidéo une vrai pour l’épauler.



Parce que pour l’heure ce sont des bundles GPU-CPU pas chers. Mais à l’avenir (ça a commencé chez AMD) ces unités GPU intégrées s’affranchiront du bus PCIe qui les fait ramer et permettront aux développeurs une vraie synergie entre CPU et GPU.







Neo_13 a écrit :



Tous les CPU x86 depuis près de 20 ans sont tels que tu décris “le compatible x86” en fait.





Oui. Sauf que jusqu’à présent aucun n’a offert deux jeux d’instructions : un x86 et un autre. Et tous restent optimisés pour le jeu x86.



Surtout le passé est une chose mais aujourd’hui tous les programmes écrits en java, javascript et dotnet peuvent supporter n’importe quel CPU, il suffit que l’OS le supporte pour que tous ces programmes deviennent immédiatement compatibles. Par ailleurs on a désormais un compilateur, LLVM, faisant office de standard de facto et facilement extensible à une nouvelle architecture. Enfin les plus gros clients des fondeurs ne sont (ne seront) plus des intégrateurs mais des consommateurs directs (Google, FB, MS, Amazon) ayant un très fort intérêt et la capacité à optimiser les performances au maximum, et en collaborant ensemble.



Dans ces conditions il n’est plus impensable d’imaginer que bientôt un pilote ou le bios fournira un back-end LLVM et une petite API, et que l’OS et les programmes n’auront qu’à balancer ce jeu d’instructions de niveau intermédiaire au bios, si bien que le CPU n’aurait même plus à exposer de jeu d’instructions (le bytecode LLVM étant compilé par le bios et non pas exécuté directement).



Je ne serais pas surpris que d’ici quelques années Google ou Facebook spécifie une telle architecture de façon à pouvoir passer d’une architecture matérielle à l’autre avec des coûts de migration nuls et ainsi choisir les architectures les mieux adaptées à chaque tâche. Du coup n’importe quel fondeur pourrait débarquer avec une meilleure archi et décrocher d’emblée un contrat de dizaines de millions de serveurs, suivi rapidement par d’autres du même acabit.





Donc ce ne sont pas les fondeurs qu’il faut regarder pour la stagnation, mais les dev ?



Ni l’un ni l’autre, ce sont les lois de la physique et des mathématiques qui sont à blâmer. Les développeurs et microélectroniciens ne font que peiner au mieux pour circonvenir ces limites jour après jour avec leur intelligence cinq fois inférieure à celle requise pour gérer ces problèmes.





Quand on voit la quantité de SSE vectoriel exécuté par nos CPU par rapport au x87 ou au SSE scalaire… on peut se dire que la révolution arrivera un peu plus tard.



Parce qu’il est bien connu que les problèmes ronds sont efficacement solubles par des carrés. Si le carré est sous-utilisé, c’est forcément la faute de quelqu’un.









David_L a écrit :



mais il n’y a pas d’un côté celui qui mixe CPU et GPU et de l’autre celui qui fait du CPU only ;)







Oui, d’ailleurs, je n’ai jamais compris pourquoi chez Intel, on ne parle pas d’APU… vu que chez eux aussi, la partie graphique et la partie CPU sont tous deux sur le même die !









HarmattanBlow a écrit :



Oui. Sauf que jusqu’à présent aucun n’a offert deux jeux d’instructions : un x86 et un autre.



Si, l’EPIC. On voit où en est cette architecture.



Et tous restent optimisés pour le jeu x86.

Et tous ont des décodeurs optimisés pour comprendre certaines sous partie du x86, voire la totalité pour certains.



Surtout le passé est une chose mais aujourd’hui tous les programmes écrits en java, javascript et dotnet peuvent supporter n’importe quel CPU, il suffit que l’OS le supporte pour que tous ces programmes deviennent immédiatement compatibles. Par ailleurs on a désormais un compilateur, LLVM, faisant office de standard de facto et facilement extensible à une nouvelle architecture. Enfin les plus gros clients des fondeurs ne sont (ne seront) plus des intégrateurs mais des consommateurs directs (Google, FB, MS, Amazon) ayant un très fort intérêt et la capacité à optimiser les performances au maximum, et en collaborant ensemble.



Dans ces conditions il n’est plus impensable d’imaginer que bientôt un pilote ou le bios fournira un back-end LLVM et une petite API, et que l’OS et les programmes n’auront qu’à balancer ce jeu d’instructions de niveau intermédiaire au bios, si bien que le CPU n’aurait même plus à exposer de jeu d’instructions (le bytecode LLVM étant compilé par le bios et non pas exécuté directement).



Je ne serais pas surpris que d’ici quelques années Google ou Facebook spécifie une telle architecture de façon à pouvoir passer d’une architecture matérielle à l’autre avec des coûts de migration nuls et ainsi choisir les architectures les mieux adaptées à chaque tâche. Du coup n’importe quel fondeur pourrait débarquer avec une meilleure archi et décrocher d’emblée un contrat de dizaines de millions de serveurs, suivi rapidement par d’autres du même acabit.

Ouais, je me souviens, ce genre de délire était aussi annoncé pour demain avec, non pas des LLVM hardware, mais des JVM hardware. Avec le succès que l’on sait (et pourtant dans certains domaines ils continuent d’être utilisés). Quant au LLVM compilé par le BIOS, <img data-src=" /> le LLVM est surtout compilé par le CPU. Et il faut donc que le JIT LLVM soit compilé dans un assembleur natif pour qu’il puisse faire la suite. Et c’est vrai que les compilateurs ARM/whatever sont BEAUCOUP mieux optimisé que ceux sur x86. Ou alors on assemble à la main, ce qui est courant aussi.





Ni l’un ni l’autre, ce sont les lois de la physique et des mathématiques qui sont à blâmer. Les développeurs et microélectroniciens ne font que peiner au mieux pour circonvenir ces limites jour après jour avec leur intelligence cinq fois inférieure à celle requise pour gérer ces problèmes.

[/Quote]M’kay

[quote]

Parce qu’il est bien connu que les problèmes ronds sont efficacement solubles par des carrés. Si le carré est sous-utilisé, c’est forcément la faute de quelqu’un.



Sauf que le GPU, c’est un super carré. Et que les problèmes restent ronds, ces cons. Et qu’accessoirement, avec un travail manuel soigneux, certains font passer les ronds qui ne le sont pas tant que ça dans les carrés… On appelle ça optimiser. GPU ou SSE, même combat, même si c’est pas forcément le même détail, ca reste du calcul vectoriel.









Neo_13 a écrit :



Si, l’EPIC. On voit où en est cette architecture.





Architecture qui nécessitait de procéder à des réécritures significatives de dizaines voire centaines de compilateurs pour y porter l’OS et tous ses outils, puis de recompiler des dizaines de milliers de binaires.



C’est cette inertie qui a, pour une bonne partie, disparue. Évidemment ce n’est pas fini, on ne change pas une industrie toute entière du jour au lendemain mais la situation n’est plus du tout la même aujourd’hui et cette tendance à l’agnosticisme ne va faire que s’accentuer.





Quant au LLVM compilé par le BIOS, <img data-src=" />



J’ai utilisé cette formulation abusive pour ne pas laisser croire que le bytecode LLVM deviendrait un nouveau jeu d’instructions mais serait au contraire compilé une fois par le back-end enregistré dans le BIOS et pas à chaque exécution. Ce qui a très bien fonctionné puisque tu m’as compris.





GPU ou SSE, même combat, même si c’est pas forcément le même détail, ca reste du calcul vectoriel.



Oui, disposer de milliers de coeurs (partiellement) indépendants c’est bien sûr comme pouvoir faire quatre multiplications simultanées lorsque que les astres s’alignent. Puisqu’il y a un mot commun pour ça (“vectoriel” ou “SIMD”) le rapprochement est forcément pertinent. N’est-ce pas ?



Moi aussi je sais être sarcastique.









HarmattanBlow a écrit :



Architecture qui nécessitait de procéder à des réécritures significatives de dizaines voire centaines de compilateurs pour y porter l’OS et tous ses outils, puis de recompiler des dizaines de milliers de binaires.



C’est cette inertie qui a, pour une bonne partie, disparue. Évidemment ce n’est pas fini, on ne change pas une industrie toute entière du jour au lendemain mais la situation n’est plus du tout la même aujourd’hui et cette tendance à l’agnosticisme ne va faire que s’accentuer.





Non, elle fonctionnait nativement en x86.

Et moyennant une compilation sur des outils distribués par Intel à prix d’or, elle fonctionnait en natif pas trop mal.



Et les DSP, c’est le futur, ça vient de sortir (selon ce qu’on retient comme techno, entre 1975 et 1980, hier soir quoi) et demain ça dominera le marché tellement c’est balaise. Finis les CPU, on fera tout par GPU tellement c’est plus mieux et ça se programme tout seul. On passe de 4 cores à 1000 cores avec la même surface, la même conso et les perfs sont multipliées par 250. C’est dire à quel point tous les fondeurs du monde sont des lowz0r et ils gâchent du silicium et des perfs.









Neo_13 a écrit :



Non, elle fonctionnait nativement en x86.





Jeu d’instructions pour lequel elle était inefficace. Pour profiter du jeu d’instructions natif il aurait fallu tout réécrire. Et la complexité était grande vu la difficulté à en tirer parti.



Je passe sur le reste qui simplifie et déforme à outrance mon propos pour pouvoir ensuite s’en moquer.









DayWalker a écrit :



Oui, d’ailleurs, je n’ai jamais compris pourquoi chez Intel, on ne parle pas d’APU… vu que chez eux aussi, la partie graphique et la partie CPU sont tous deux sur le même die !





Parce que ce n’est qu’une dénomination marketing poussée par AMD :)









David_L a écrit :



Parce que ce n’est qu’une dénomination marketing poussée par AMD :)





Faut bien qu’ils innovent un peu <img data-src=" />