Haswell : trois modèles pour la gamme R (BGA), dès 288 $

Haswell : trois modèles pour la gamme R (BGA), dès 288 $

Core i5 4570R et 4650R au rapport

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

04/06/2013 2 minutes
41

Haswell : trois modèles pour la gamme R (BGA), dès 288 $

Intel a finalement mis à jour sa liste de prix suite à l'annonce de ses processeurs Core de quatrième génération (Haswell). L'occasion pour nous de découvrir quelques nouveaux modèles qui n'avaient pas été évoqués jusque-là, dont deux au sein de la fameuse gamme R dédiée à l'intégration puisqu'au format BGA.

Au sein de la nouvelle gamme de processeurs Intel (voir notre dossier), on pensait que le Core i7 4770R serait le seul de son espèce. Mais finalement, il sera rejoint par deux petits frères : les Core i5 4570R et Core i5 4670R. Respectivement proposés à 288 $, 310 $ et 392 $, ceux-ci comporteront pour rappel la partie graphique Iris Pro 5200 et son eDRAM embarquée :

 

Intel Haswell Slides IDF 2013

 

Ils ont par contre un cache L3 réduit de 2Mo par rapport aux références équivalentes des autres gammes et sont au format BGA. Leur TDP est de 65 watts et ils sont soudés sur leur carte mère et destinés à une intégration dans des machines telles que les PC tout-en-un. 

 

Reste que l'on espère toujours voir des machines compactes telles que les NUC se baser sur de telles puces qui semblent pour le moment encore bien mystérieuses, et surtout, inaccessibles. En effet, aucun constructeur n'a annoncé de produit se basant dessus et Intel ne semble pas pressé de le proposer à la presse. Même Anandtech qui a été le seul à proposer un test d'Iris Pro 5200 n'a pu le faire que sur un kit de développement basé sur une puce mobile : le Core i7 4950HQ.

 

Intel Gamme R

 

Bien entendu, nous sommes en train de mettre à jour notre tableau récapitulatif ainsi que notre dossier en fonction de ces nouvelles informations. 

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Fermer

Commentaires (41)


65W de TDP Max, compatibilité DDR3L, les cibles sont plutôt les nettop, les nuc arriveront peut être plus tard…



Le prix d’un Core i5 Iris 5200 est supérieur à celui d’un Core i5 avec une carte graphique moyenne gamme (type HD7750 ou GT 650) et il l’égale difficilement dans les benchs !



Intel n’a pas encore décidé de proposer des produits très efficaces dans le plus bas de gamme.


proc soude a la carte mere, trop la classe si la carte mere clapse.



pas une tres bonne idee d’intel.



esperons que intel sortira une version desktop de ces procs








kypd a écrit :



65W de TDP Max, compatibilité DDR3L, les cibles sont plutôt les nettop, les nuc arriveront peut être plus tard…



Le prix d’un Core i5 Iris 5200 est supérieur à celui d’un Core i5 avec une carte graphique moyenne gamme (type HD7750 ou GT 650) et il l’égale difficilement dans les benchs !



Intel n’a pas encore décidé de proposer des produits très efficaces dans le plus bas de gamme.





Faut pas oublier que les tarifs ne sont pas forcément représentatifs, surtout pour de l’intégration ;) Après l’eDRAM a un coût, mais je pense que les écarts seront moindres dans la pratique, et ces produits de toutes façons réservés à des usages particuliers ou tu ne peux pas placer un GPU. Essaie dans un NUC ;)







Starbetrayer a écrit :



proc soude a la carte mere, trop la classe si la carte mere clapse.



pas une tres bonne idee d’intel.



esperons que intel sortira une version desktop de ces procs





Tu crois qu’il y a un socket dans les AiO et les NUC ? Ces puces ne sont pas prévues pour du desktop.



Je ne suis toujours pas convaincu par la cible pour ces nouveaux processeurs.



Ca se vend si bien que ça les NUC ?



J’ai l’impression qu’Intel a un peu trop vite enterré les Desktop classiques.


la cible pour ces processeurs?



facile… pousser les fabriquants d’ultrabook de commercialiser leur cpu équipés d’iris 5200 et de ne pas le faire avec AMD.. ou de ne pas rajouter de partie graphique Nvidia ou AMD en plus ;)



je pense entre autres a Apple ^^


Je vais surement me faire lapider mais …



Il y a t’il une chance qu’on voit ces procos sur des cartes-mères desktop ?



Perso, sur une carte Mini ITX à destination d’un HTPC je trouverais ça pas mal : ça permet de jouer aux jeux récents en 720p, de réduire l’encombrement en se passant de CG, d’intégrer l’alim à la carte, …





[SEMI HS]

Alors, bien sur, on ne peut pas changer de proco… Pour ma part rien à faire je me suis toujours retrouvé dans la situation ou l’upgrade passait par un changement de socket… Après je comprends ceux qui sont contre le BGA partout.








YohAsAkUrA a écrit :



la cible pour ces processeurs?



facile… pousser les fabriquants d’ultrabook de commercialiser leur cpu équipés d’iris 5200 et de ne pas le faire avec AMD.. ou de ne pas rajouter de partie graphique Nvidia ou AMD en plus ;)



je pense entre autres a Apple ^^





65 watts dans un Ultrabook, tu as tout compris <img data-src=" />







Bylon a écrit :



Je ne suis toujours pas convaincu par la cible pour ces nouveaux processeurs.



Ca se vend si bien que ça les NUC ?



J’ai l’impression qu’Intel a un peu trop vite enterré les Desktop classiques.





Intel a annoncé plus d’une dizaine de SKU pour le desktop, et ce n’est que la moitié de la gamme. C’est sur, le desktop, ils s’en foutent <img data-src=" />







Tourner.lapache a écrit :



Je vais surement me faire lapider mais …



Il y a t’il une chance qu’on voit ces procos sur des cartes-mères desktop ?



Perso, sur une carte Mini ITX à destination d’un HTPC je trouverais ça pas mal : ça permet de jouer aux jeux récents en 720p, de réduire l’encombrement en se passant de CG, d’intégrer l’alim à la carte, …



[SEMI HS]Alors, bien sur, on ne peut pas changer de proco… Pour ma part rien à faire je me suis toujours retrouvé dans la situation ou l’upgrade passait par un changement de socket… Après je comprends ceux qui sont contre le BGA partout.





Le BGA partout n’a jamais été à l’ordre du jour. Alors être contre, c’est un peu comme être contre l’obligation de porter une casquette rose fushia un peu.



Pour le reste, les cartes mères NUC sont prévues pour être proposées séparément, puisque les fabricants de boitiers proposent des alternatives et qu’Intel compte de toutes façons proposer aussi ces solution pour des intégrations spécifiques. Du coup, on devrait en trouver. Mais quand…



Pas d’augmentation du nombre de cœurs finalement, on reste toujours à quatre (avec encore moins d’hyperthreading !). J’ai l’impression que ça va être le cas pour un moment encore.


j’ai rien contre le rose fushia perso…. ni contre les films de gladiateurs :)



bein 65Watts en full charge ^^ après c’est pareil sur les macbook pro retina.. t’as une GT650M… alors certes les cpu ont un TDP de 45Watts mais dès que tu mets en marche la GT650M t’es biennnnnnnnn au dessus de ça…



pourquoi pas un macbook retina 13 avec ce type de cpu? ça pourrait être faisable dans la mesure ou en dehors des jeux de toutes manières le cpu est en idle et speed stepé….








David_L a écrit :



Le BGA partout n’a jamais été à l’ordre du jour. Alors être contre, c’est un peu comme être contre l’obligation de porter une casquette rose fushia un peu.







Certains prophétisent la fin du socket à long terme chez Intel. Qu’ils aient tort ou non, au vu des réactions de certains sur PCI je prends mes précautions.



Sinon ok, du NUC mais rien sur le Mini ITX à l’heure actuelle. (Un port PCI Express, même en low profile, c’est utile de temps en temps ! <img data-src=" /> )









HarmattanBlow a écrit :



Pas d’augmentation du nombre de cœurs finalement, on reste toujours à quatre (avec encore moins d’hyperthreading !). J’ai l’impression que ça va être le cas pour un moment encore.







moins d’hyper thread?? en socket 155 et 1156 y’a que les i7 qui ont le HT pour les 4cores…. faudra attendre un peu que la gamme s’étoffe ça viendra certainement tout comme on a eu un 2700K après la sortie du 2600k









HarmattanBlow a écrit :



Pas d’augmentation du nombre de cœurs finalement, on reste toujours à quatre (avec encore moins d’hyperthreading !). J’ai l’impression que ça va être le cas pour un moment encore.





Bah y’a aussi du six chez Intel mais : c’est plus cher (bah oui, la puce est presque deux fois plus grosse hein), c’est inutile pour 90% des gens. Pourquoi proposer ça du coup ? Pour le reste : LGA2011 et Bi-Xeon FTW \o/ <img data-src=" />







YohAsAkUrA a écrit :



j’ai rien contre le rose fushia perso…. ni contre les films de gladiateurs :)



bein 65Watts en full charge ^^ après c’est pareil sur les macbook pro retina.. t’as une GT650M… alors certes les cpu ont un TDP de 45Watts mais dès que tu mets en marche la GT650M t’es biennnnnnnnn au dessus de ça…



pourquoi pas un macbook retina 13 avec ce type de cpu? ça pourrait être faisable dans la mesure ou en dehors des jeux de toutes manières le cpu est en idle et speed stepé….





Un Macbook n’est pas un Ultrabook. Enfin je dis ça, je dis rien hein ;) M’enfin dans tous les cas, 65 watts c’est beaucoup trop pour du mobile.



mettre du K dans du mobile <img data-src=" /> , donc c’est souvent des versions allégées voire des T(35W, mais max, et selon CPUZ, je dépasse rarement 20W).








David_L a écrit :



65 watts dans un Ultrabook, tu as tout compris <img data-src=" />





65W dans un NUC, c’est la même <img data-src=" />

Le NUC est conçu pour refroidir des APU d’environ 17W. <img data-src=" />



65W, ça peut passer dans un gros AIO, avec une facilité d’intégration accrue.

Après, je ne pense pas que ça révolutionne la performance énergétique.

Un quad en version T (45W auquel il faut retrancher la conso de l’IGP) associé à une gt640m LE feraient sans doute mieux à tout point de vue.









regis183 a écrit :



65W dans un NUC, c’est la même <img data-src=" />

Le NUC est conçu pour refroidir des APU d’environ 17W. <img data-src=" />



65W, ça peut passer dans un gros AIO, avec une facilité d’intégration accrue.

Après, je ne pense pas que ça révolutionne la performance énergétique.

Un quad en version T (45W auquel il faut retrancher la conso de l’IGP) associé à une gt640m LE feraient sans doute mieux à tout point de vue.





tu as plus de marge dans un NUC que dans un Ultrabook hein ;)



C’est pas vraiment donné, mais bon…

Les prix indiqués comprennent donc la carte mère aussi ?








David_L a écrit :



tu as plus de marge dans un NUC que dans un Ultrabook hein ;)







Dans le sens où ils peuvent totalement revoir la ventilation, en remplaçant le petit blower par un ventilateur frontal à l’instar d’un ISK100.



M’enfin on change de concept.

Bon en même temps le concept, je ne l’ai pas encore compris. Proposer un boitier plus petit/léger que sa connectique associée c’est un peu <img data-src=" />









Tourner.lapache a écrit :



[SEMI HS]

Alors, bien sur, on ne peut pas changer de proco… Pour ma part rien à faire je me suis toujours retrouvé dans la situation ou l’upgrade passait par un changement de socket… Après je comprends ceux qui sont contre le BGA partout.





La puce est nettement plus grande que les autres 4000 et nécessiterait un socket spécifique (cf anandtech).

Le problème du BGA c’est en cas de défaillance de la carte mère, il faut tout racheter !

Et c’est pas trop standardisé il me semble, avec tout les soucis qui vont avec.









fullsun a écrit :



mettre du K dans du mobile <img data-src=" /> , donc c’est souvent des versions allégées voire des T(35W, mais max, et selon CPUZ, je dépasse rarement 20W).









David_L a écrit :



M’enfin dans tous les cas, 65 watts c’est beaucoup trop pour du mobile.





C’est 47W la version mobile la plus performante (4750HQ). Ça reste beaucoup malgré tout ce qui est intégré, mais c’est toujours ça de moins à dissiper. Il n’y a pas si longtemps, les processeurs seuls de portable montaient à 45W…



Et puis pour les ULV il y a les puces dual core avec GT3 non e.





Reznor26 a écrit :



C’est pas vraiment donné, mais bon…

Les prix indiqués comprennent donc la carte mère aussi ?





Je ne pense pas, mais les tarifs des puces mobiles chez Intel n’ont jamais été très fiable.



Finalement, quel performance pour cette 5200 iris, notebookchec parle d’une 640m ?

Puis niveau pilote intel ça vaut quoi ? s’en parler de cuda physx ect…chez les autres.

Mais ça peut dépanner pas mal si puissante comme une 640m (mais j’ai du mal à le croire).








David_L a écrit :



Tu crois qu’il y a un socket dans les AiO et les NUC ? Ces puces ne sont pas prévues pour du desktop.







C’est bien dommage, perso je suis pas pour le tout integre, juste du point de vue de vouloir changer/reparer/remplacer.







Reznor26 a écrit :



C’est pas vraiment donné, mais bon…

Les prix indiqués comprennent donc la carte mère aussi ?







Je comprends que ce n’est que le prix du processeur, ce qui fait un nuc tres tres cher pour un rapport qualite prix ne valant pas un autre proc et une carte graphique dediee.









Tourner.lapache a écrit :



[SEMI HS]

Alors, bien sur, on ne peut pas changer de proco… Pour ma part rien à faire je me suis toujours retrouvé dans la situation ou l’upgrade passait par un changement de socket… Après je comprends ceux qui sont contre le BGA partout.









Ca sert pas uniquement pour la mise a niveau hein ? T’as jamais eu de carte mere qui lache ? T’aimes bien repayer toute ta config quand c’est juste la CM qui a rendu l’âme ? Moi je n’aime pas… surtout quand tu rachète une nouvelle cm et que la ram n’est plus compatible non plus t’as changé tout le pc.





Si t’aimes faire ca, achète un pc portable des qu’il lache tu jette tout. (même si il y a des gens qui essaie quand même de réparer les pc portables :) )





Ce truc ne devrait être utilise que sur du bas de gamme et encore. C’est clair que la ils testent les clients, j’espère que les gens ne vont pas acheter ca <img data-src=" />



En même temps Intel ne nous impose strictement rien ici.

C’est des gammes qui répondent à tous les usages, aussi variés soient-ils.

Où est le problème ??











Iridium a écrit :



Je ne pense pas, mais les tarifs des puces mobiles chez Intel n’ont jamais été très fiable.









Starbetrayer a écrit :



Je comprends que ce n’est que le prix du processeur, ce qui fait un nuc tres tres cher pour un rapport qualité prix ne valant pas un autre proc et une carte graphique dédiée.





Ah ouais, effectivement si c’est le processeur seul ça commence à douiller un peu.









flodousse a écrit :



Ca sert pas uniquement pour la mise a niveau hein ? T’as jamais eu de carte mere qui lache ? T’aimes bien repayer toute ta config quand c’est juste la CM qui a rendu l’âme ? Moi je n’aime pas… surtout quand tu rachète une nouvelle cm et que la ram n’est plus compatible non plus t’as changé tout le pc.





Si t’aimes faire ca, achète un pc portable des qu’il lache tu jette tout. (même si il y a des gens qui essaie quand même de réparer les pc portables :) )





Ce truc ne devrait être utilise que sur du bas de gamme et encore. C’est clair que la ils testent les clients, j’espère que les gens ne vont pas acheter ca <img data-src=" />







Cool j’ai eu les réactions attendues alors que j’ai été plutôt compatissant. Aller je vais charger un peu la mule alors :



Moi ce qui me fait marrer ce sont les gens qui découvrent “la dictature de la majorité” quand ça leur plait. “Ouin les gens n’ont pas la même façon d’utiliser leur matériel que moi !” Moi aussi j’aimerais bien une carte mère multi socket sur laquelle je fous les I/O que je veux, le chipset que je veux, le NIC que je veux, la puce audio que je veux, … Bah oui parce que si le chipset ou le southbridge tombe en panne, c’est toute la CM qu’il faut balancer ! Oui et bah les bons geeks de PCI ils en ont rien à foutre et eux veulent juste pouvoir changer leur cpu et leur ram sur leur CM et du coup le marché est comme ça.



Si ça convient aux gens le bga je ne vois pas pourquoi ils n’iraient pas en acheter. Demain X ou Y me sort une carte mère pas dégueu base d’un de ces 3 procos j’achète parce que ça correspond à mes besoins.



Et oui nous sommes dans une duopole (et encore amd ne fait plus grand chose et fait aussi du bga sur ses brazos) et il n’y aura pas de concurrent pour venir remettre des sockets (ARM qui ferait des version sockets ?). Après s’il y a vraiment un marché du socket, que les gens qui se sentent concernés montent une projet/ boite, ce n’est pas non plus interdit : ils pourraient même se faire de la thune.





Même Anandtech qui a été le seul à proposer un test d’Iris Pro 5200 n’a pu le faire que sur un kit de développement basé sur une puce mobile : le Core i7 4950HQ.





Et qui d’ailleurs à fait une fellation littéraire façon gorge profonde à Intel hein.



Ce qui montre d’une part que les NDA ça ne sert à rien, si ce n’est maintenir l’asservissement de la presse au départements com&marketing, et de deux, de désigner pour nous ceux qui sont prêt à tout faire pour obtenir les dits NDA.



Je savais très bien via les papiers que je lis là bas depuis plusieurs années qu’ils étaient très gentils avec Intel.



Mais là franchement…








Tourner.lapache a écrit :



Cool j’ai eu les réactions attendues alors que j’ai été plutôt compatissant. Aller je vais charger un peu la mule alors :



Moi ce qui me fait marrer ce sont les gens qui découvrent “la dictature de la majorité” quand ça leur plait. “Ouin les gens n’ont pas la même façon d’utiliser leur matériel que moi !” Moi aussi j’aimerais bien une carte mère multi socket sur laquelle je fous les I/O que je veux, le chipset que je veux, le NIC que je veux, la puce audio que je veux, … Bah oui parce que si le chipset ou le southbridge tombe en panne, c’est toute la CM qu’il faut balancer ! Oui et bah les bons geeks de PCI ils en ont rien à foutre et eux veulent juste pouvoir changer leur cpu et leur ram sur leur CM et du coup le marché est comme ça.



Si ça convient aux gens le bga je ne vois pas pourquoi ils n’iraient pas en acheter. Demain X ou Y me sort une carte mère pas dégueu base d’un de ces 3 procos j’achète parce que ça correspond à mes besoins.



Et oui nous sommes dans une duopole (et encore amd ne fait plus grand chose et fait aussi du bga sur ses brazos) et il n’y aura pas de concurrent pour venir remettre des sockets (ARM qui ferait des version sockets ?). Après s’il y a vraiment un marché du socket, que les gens qui se sentent concernés montent une projet/ boite, ce n’est pas non plus interdit : ils pourraient même se faire de la thune.







Je ne vois pas le rapport avec la dictature de la majorité lol.

Ce que je vois c’est qu’on a des libertés (le changement de carte mère) et certains soutiennent une régression des libertés pour un bénéfice nul, (sauf celui de l’entreprise a nous soutirer plus d’argent) et mais des frais supplémentaires et de la pollution supplémentaire. Crois moi que si on pouvait réparer les cartes mères facilement pleins de gens le feraient.



Je vois pas ce que ca t’apporte d’acheter ca alors que tu peux acheter les deux séparément pour le même prix et avec une maintenance plus facile (sans tout changer). Donne moi une raison valable :)

Si c’est la flemme de monter le processeur, il y a des assembleurs pour ca ou des pc tout montés. Je ne vois aucun intérêt a acheter des machines non réparables.





Et comment monter une boite qui rivalise avec les autres qui dépensent des milliards en R&D ? <img data-src=" /> A moins d’avoir le soutien de l’État, ou être multimilliardaire Cela relève du prodige. <img data-src=" />










flodousse a écrit :



Je vois pas ce que ca t’apporte d’acheter ca alors que tu peux acheter les deux séparément pour le même prix et avec une maintenance plus facile (sans tout changer). Donne moi une raison valable :)







Il faut bien comprendre que ceux sont des processeurs ( et des cartes) destinés aux assembleurs.

Tu les retrouveras donc dans des produits finis (AIO, mac-mini,…)

La philosophie c’est que comme pour tout produit technologique, quand il tombe en panne hors garantie, il ne se répare pas, il se jette.



Très peu de chance de retrouve ce genre de proc en retail (ça n’intéresse personne, surtout vu le tarif).









Psycho10 a écrit :



Et qui d’ailleurs à fait une fellation littéraire façon gorge profonde à Intel hein.



Ce qui montre d’une part que les NDA ça ne sert à rien, si ce n’est maintenir l’asservissement de la presse au départements com&marketing, et de deux, de désigner pour nous ceux qui sont prêt à tout faire pour obtenir les dits NDA.



Je savais très bien via les papiers que je lis là bas depuis plusieurs années qu’ils étaient très gentils avec Intel.



Mais là franchement…







merci pour le test d’anantech, enfin du concret, je suis surpris comme le 5200 iris est assez puissant. Encore quelques longues années pour avoir un cpu/gpu avec la puissance d’un milieu de gamme gpu.









flodousse a écrit :



Je ne vois pas le rapport avec la dictature de la majorité lol.







La majorité des gens n’en ont rien à faire d’avoir un PC que l’on peut entretenir ou améliorer. (comme le souligne regis183)







flodousse a écrit :



Je vois pas ce que ca t’apporte d’acheter ca alors que tu peux acheter les deux séparément pour le même prix et avec une maintenance plus facile (sans tout changer). Donne moi une raison valable :)





[/quote]



Euh non je ne peux pas acheter les deux séparément. Il n’y a pas d’Haswell iris pro 5200 en 1150. (sinon oui je les achèterai séparément)









flodousse a écrit :



Ca sert pas uniquement pour la mise a niveau hein ? T’as jamais eu de carte mere qui lache ? T’aimes bien repayer toute ta config quand c’est juste la CM qui a rendu l’âme ? Moi je n’aime pas… surtout quand tu rachète une nouvelle cm et que la ram n’est plus compatible non plus t’as changé tout le pc.



Si t’aimes faire ca, achète un pc portable des qu’il lache tu jette tout. (même si il y a des gens qui essaie quand même de réparer les pc portables :) )



Ce truc ne devrait être utilise que sur du bas de gamme et encore. C’est clair que la ils testent les clients, j’espère que les gens ne vont pas acheter ca <img data-src=" />





Une fois de plus, le BGA n’a rien de nouveau hein. Puis tu fais comment avec ton smartphone ou ta tablette, tu attends une version avec socket ? Il faut juste que ces modèles ne sont pas destinés au PC tel que tu le conçoit apparemment. Tu as donc tout loisir de prendre autre chose.







Psycho10 a écrit :



Et qui d’ailleurs à fait une fellation littéraire façon gorge profonde à Intel hein.



Ce qui montre d’une part que les NDA ça ne sert à rien, si ce n’est maintenir l’asservissement de la presse au départements com&marketing, et de deux, de désigner pour nous ceux qui sont prêt à tout faire pour obtenir les dits NDA.



Je savais très bien via les papiers que je lis là bas depuis plusieurs années qu’ils étaient très gentils avec Intel.



Mais là franchement…





Dire ça c’est un peu tout confondre. Ce genre de chose n’a pas grand chose à voir avec un NDA. Un NDA c’est le plus souvent l’ensemble de la presse qui se voit accorder un accès à un produit et des infos contre le respect d’une date précise. Bon ok, dès fois AMD vend les produits avant cette date, mais soit.



Là on a un test unique, avec un sample envoyé à une seule rédaction sélectionnée pour on ne sait quelle raison. C’est autre chose, et ça peut être considéré comme problématique. Un peu comme quand The Verge blablate en exclu sur les Google Glass dans une vidéo tournée dans les locaux de Google ou que Wired publie des infos en exclu sur la Xbox One dont des conneries sur la finesse de gravure. Cela n’a rien à voir avec des NDA, on passe juste du journalisme au story-telling (mais vu que la majorité s’en contente, tout le monde s’en fout en fait).









YohAsAkUrA a écrit :



j’ai rien contre le rose fushia perso…. ni contre les films de gladiateurs :)



bein 65Watts en full charge ^^ après c’est pareil sur les macbook pro retina.. t’as une GT650M… alors certes les cpu ont un TDP de 45Watts mais dès que tu mets en marche la GT650M t’es biennnnnnnnn au dessus de ça…



pourquoi pas un macbook retina 13 avec ce type de cpu? ça pourrait être faisable dans la mesure ou en dehors des jeux de toutes manières le cpu est en idle et speed stepé….







Heuuu, perso, moi je tiens à mes genoux, je ne me risquerai pas à avoir un portable avec un proc de 65w de tdp.



Surtout qu’Intel a tendance à avoir une appréciation très particulière du TDP de ses procs (avant intel indiquait la moyenne d’utilisation pour le tdp, pas le tdp max).

Perso, j’ai un i3-2367M annoncé avec un tdp max de 17w. Après une demi-heure d’utilisation intensive (perfs élevées sous windows), le portable est brulant (plus de 40 degrés), impossible de le garder sur les genoux.



Donc le 65W version Intel, si c’est pour voir le pc fondre… <img data-src=" />



P.S: ça serait bien de voir un dossier sur les problèmes des températures des procs et CG. Je suis certain qu’on aurait quelques surprises entre ce qui est annoncé et ce qui est vraiment (surtout pour les cpu lowvoltage)









David_L a écrit :



Dire ça c’est un peu tout confondre. Ce genre de chose n’a pas grand chose à voir avec un NDA. Un NDA c’est le plus souvent l’ensemble de la presse qui se voit accorder un accès à un produit et des infos contre le respect d’une date précise. Bon ok, dès fois AMD vend les produits avant cette date, mais soit.



Là on a un test unique, avec un sample envoyé à une seule rédaction sélectionnée pour on ne sait quelle raison. C’est autre chose, et ça peut être considéré comme problématique. Un peu comme quand The Verge blablate en exclu sur les Google Glass dans une vidéo tournée dans les locaux de Google ou que Wired publie des infos en exclu sur la Xbox One dont des conneries sur la finesse de gravure. Cela n’a rien à voir avec des NDA, on passe juste du journalisme au story-telling (mais vu que la majorité s’en contente, tout le monde s’en fout en fait).







Oui je m’étais mal exprimé <img data-src=" />



Mais c’est vrai que j’ai vraiment été choqué sur le coup, parce que même si imaginons que les mesures faites et le papier reflètent la réalité de ce qui sera commercialisé, ce qui n’est pas évident vu le nombre de questions potentielles soulevées par le matos utilisé, tout le reste autour des chiffres pue en effet le story telling et que ça devient vraiment grave.



Après je trouve ça surtout grave dans la mesure ou je trouvais que les papiers (par exemple ceux sur les archis arm y’a quelques mois) étaient pas mal.



Bon, maintenant c’est vrai que du coup, c’est très compliqué de faire confiance.



Je trouve l’attitude d’Ars Technica beaucoup plus saine pour le coup, puisqu’ils sont toujours (à mon avis) a essayer d’expliquer les choses d’une manière assez critique (comme sur le SDP récemment)



Enfin… j’imagine qu’après le dossier que vous avez fait dessus (et qui était plutôt cool mais un peu court) j’aurais ma dose en lisant le prochain canard pc hardware









David_L a écrit :



c’est inutile pour 90% des gens. Pourquoi proposer ça du coup ?





A ce compte-là le grand public a t-il besoin de CPU plus puissants ?



SI la réponse est oui, alors ne pas augmenter le nombre de coeurs parce que ceux-ci ne seraient pas exploités revient à dire qu’il n’y a pas de poule parce qu’il n’y a pas d’oeufs.



Je ne dis pas qu’ils ont tort. C’est simplement qu’en ce moment je suis particulièrement sensible au problème puisque je vais avoir dans quelques semaines une décision à prendre concernant une archi logicielle qui va en partie dépendre du nombre de coeurs dont disposeront typiquement les clients. Si le futur est à quatre coeurs plutôt qu’à trente-deux et bien mon archi ne sera pas la même.









HarmattanBlow a écrit :



Je ne dis pas qu’ils ont tort. C’est simplement qu’en ce moment je suis particulièrement sensible au problème puisque je vais avoir dans quelques semaines une décision à prendre concernant une archi logicielle qui va en partie dépendre du nombre de coeurs dont disposeront typiquement les clients. Si le futur est à quatre coeurs plutôt qu’à trente-deux et bien mon archi ne sera pas la même.







Sans trop rentrer dans les détails non plus. (je ne suis pas programmeur) Il n’y a pas moyen de faire ça simplement et de pouvoir adapter ton logiciel au nombre de coeur dispo ? (notamment sur les boucles)









HarmattanBlow a écrit :



A ce compte-là le grand public a t-il besoin de CPU plus puissants ?



SI la réponse est oui, alors ne pas augmenter le nombre de coeurs parce que ceux-ci ne seraient pas exploités revient à dire qu’il n’y a pas de poule parce qu’il n’y a pas d’oeufs.



Je ne dis pas qu’ils ont tort. C’est simplement qu’en ce moment je suis particulièrement sensible au problème puisque je vais avoir dans quelques semaines une décision à prendre concernant une archi logicielle qui va en partie dépendre du nombre de coeurs dont disposeront typiquement les clients. Si le futur est à quatre coeurs plutôt qu’à trente-deux et bien mon archi ne sera pas la même.





Sur ce genre de puces, doubler les coeurs pour pas grand chose en perf uniquement pour ceux que ça intéresse (et qui ne veulent pas aller du côté bi-socket, ce qui ne gene pas forcément dans le monde pro), n’a pas forcément de sens.



Sinon, ça va faire comme pour les consoles : 8 coeurs, mais 8 coeurs Atom :) Globalement, y’a aussi Xeon Phi si tu as besoin d’un max de coeurs pour un besoin spécifique (sans parler de tout ce qui est proposé sur le terrain du HPC).









Tourner.lapache a écrit :



Sans trop rentrer dans les détails non plus. (je ne suis pas programmeur) Il n’y a pas moyen de faire ça simplement et de pouvoir adapter ton logiciel au nombre de coeur dispo ? (notamment sur les boucles)





Malheureusement non, ce n’est pas aussi simple : d’abord tout ne peut pas se découper, certaines opérations doivent être faîtes séquentiellement si l’étape N dépend de l’étape N-1.



Ensuite, le découpage introduit lui-même une taxe significative sur les performances qui fait que toute boucle n’est pas efficacement parallélisable. Grosso modo tu ne peux paralléliser que les boucles hautes, celles qui vont contenir beaucoup de traitement à chaque itération, et non pas les boucles terminales qui ne contiennent que trois lignes de code.



Enfin tout ça a un coût financier puisque la parallélisation complexifie significativement le code, accroît le risque de bogues, le coût du développement et de la maintenance, etcétéra.





Dans le cas qui m’occupe moi, notre problème est essentiellement constituée d’opérations séquentielles et toute la ruse est de parvenir à dénicher des opérations qui peuvent être extraites de la séquence. Par exemple la première étape peut en fait être découpée en deux chaînes séquentielles, l’une étiquetant des paquets de données (le début d’un paquet commence à la fin du précédent), l’autre ne regardant que les étiquettes (l’analyse dépendant des étiquettes précédentes). Un thread produit, l’autre consomme.



La seconde étape commence quant à elle avec une analyse superficielle de l’arbre généré par la première étape. Cette analyse va extraire certains blocs qui pourront être analysés indépendamment une fois tout l’arbre analysé (ces blocs ont besoin d’infos qui peuvent être n’importe où dans le graphe et sont collectées lors de l’analyse superficielle). On a donc un premier point possible de parallélisation lors de l’analyse superficielle (chaque branche de l’arbre peut être inspectée séparément) mais qui ne vaut sans doute pas la peine d’être explloité, et un second point avec l’analyse ultérieure des blocs (disons cinq blocs en moyenne par exécution mais entre 0 et 20 selon les données reçues) assez facile à mettre en oeuvre et efficace.



Comme tu le vois, tout ça convient bien pour du quatre coeurs. Mais pour davantage de parallélisation il faudrait continuer à rechercher, par exemple commencer l’analyse de l’arbre de la seconde étape en même temps que la première (sans attendre la fin de la construction), isoler certaines étapes parallélisables au sein des blocs, etcétéra. Ce qu’on ne fera pas sans doute pas si on table sur du quatre coeurs parce que le gain serait assez faiblard et dans certains cas uniquement.









Starbetrayer a écrit :



proc soude a la carte mere, trop la classe si la carte mere clapse.



En même temps, avec leur manie de changer de socket à chaque génération, je ne vois pas trop la différence.

LGA 1156 : 2009-2012 (RIP)

LGA 1155 : 2011-2014?

LGA 1150 : 2013-?

à comparer au LGA 775 qui existe depuis 2004 et n’est toujours pas en fin de vie.



Bien sûr, j’ai changé ma conf en 2009 et 2 des pin de ma CM sont tordus.<img data-src=" />









HarmattanBlow a écrit :



Malheureusement non, ce n’est pas aussi simple : d’abord tout ne peut pas se découper, certaines opérations doivent être faîtes séquentiellement si l’étape N dépend de l’étape N-1.



Ensuite, le découpage introduit lui-même une taxe significative sur les performances qui fait que toute boucle n’est pas efficacement parallélisable. Grosso modo tu ne peux paralléliser que les boucles hautes, celles qui vont contenir beaucoup de traitement à chaque itération, et non pas les boucles terminales qui ne contiennent que trois lignes de code.



Enfin tout ça a un coût financier puisque la parallélisation complexifie significativement le code, accroît le risque de bogues, le coût du développement et de la maintenance, etcétéra.





Dans le cas qui m’occupe moi, notre problème est essentiellement constituée d’opérations séquentielles et toute la ruse est de parvenir à dénicher des opérations qui peuvent être extraites de la séquence. Par exemple la première étape peut en fait être découpée en deux chaînes séquentielles, l’une étiquetant des paquets de données (le début d’un paquet commence à la fin du précédent), l’autre ne regardant que les étiquettes (l’analyse dépendant des étiquettes précédentes). Un thread produit, l’autre consomme.



La seconde étape commence quant à elle avec une analyse superficielle de l’arbre généré par la première étape. Cette analyse va extraire certains blocs qui pourront être analysés indépendamment une fois tout l’arbre analysé (ces blocs ont besoin d’infos qui peuvent être n’importe où dans le graphe et sont collectées lors de l’analyse superficielle). On a donc un premier point possible de parallélisation lors de l’analyse superficielle (chaque branche de l’arbre peut être inspectée séparément) mais qui ne vaut sans doute pas la peine d’être explloité, et un second point avec l’analyse ultérieure des blocs (disons cinq blocs en moyenne par exécution mais entre 0 et 20 selon les données reçues) assez facile à mettre en oeuvre et efficace.



Comme tu le vois, tout ça convient bien pour du quatre coeurs. Mais pour davantage de parallélisation il faudrait continuer à rechercher, par exemple commencer l’analyse de l’arbre de la seconde étape en même temps que la première (sans attendre la fin de la construction), isoler certaines étapes parallélisables au sein des blocs, etcétéra. Ce qu’on ne fera pas sans doute pas si on table sur du quatre coeurs parce que le gain serait assez faiblard et dans certains cas uniquement.









Merci pour les précisions et l’exemple ! <img data-src=" />



En effet je ne suis pas connaisseur et pour moi la parallélisation ça se résumait à une boucle for (itérations indépendantes) que l’on subdivise en X.









Tourner.lapache a écrit :



En effet je ne suis pas connaisseur et pour moi la parallélisation ça se résumait à une boucle for (itérations indépendantes) que l’on subdivise en X.





C’est le cas idéal. ;)

On le rencontre parfois cela dit, notamment dans les applis scientifiques (d’où des solutions comme OpenMP si tu viens d’un de ces domaines). Le reste du temps on peut parfois créer artificiellement ces boucles for, comme ici avec l’analyse des blocs à la fin, ou d’autres motifs de conception comme le producteur/consommateur de la première étape. Et le reste du temps… Le reste du temps c’est chiant. Très chiant. ^^









HarmattanBlow a écrit :



C’est le cas idéal. ;)

On le rencontre parfois cela dit, notamment dans les applis scientifiques (d’où des solutions comme OpenMP si tu viens d’un de ces domaines). Le reste du temps on peut parfois créer artificiellement ces boucles for, comme ici avec l’analyse des blocs à la fin, ou d’autres motifs de conception comme le producteur/consommateur de la première étape. Et le reste du temps… Le reste du temps c’est chiant. Très chiant. ^^







Ouais voilà. J’avais déjà programmé quelques calculs en C++ avec du Open MP, je pouvais découper tranquille mes boucles et les perfs du programme augmentaient linéairement avec le nombre de coeurs. ^^









Tourner.lapache a écrit :



Ouais voilà. J’avais déjà programmé quelques calculs en C++ avec du Open MP, je pouvais découper tranquille mes boucles et les perfs du programme augmentaient linéairement avec le nombre de coeurs. ^^





Ma boule de cristal fonctionne encore bien. ;)



Ce qui est fort avec OpenMP c’est qu’outre l’avantage élémentaire d’éviter au programmeur d’avoir à coder lui-même beaucoup de choses (création des threads, refactorisation du code, synchronisation), il gère en sous-main un nombre incroyable de détails pour vraiment rendre la parallélisation efficace. Par exemple il est capable de distribuer efficacement les calculs sur un cluster où les processeurs ont tous une zone mémoire indépendante et où les machines ne sont reliées que par le bus ethernet qu’il faut utiliser au minimum vu sa latence. Évidemment dans ce cas le dév doit renseigner davantage d’infos sur le code et faire plus d’efforts mais ça reste génial pour beaucoup d’applis de calculs purs. Une sacrée bête.