Intel explique aux fabricants d'Ultrabook comment se passer de GPU

Intel explique aux fabricants d’Ultrabook comment se passer de GPU

Haswell vaincra !

Avatar de l'auteur
Damien Labourot

Publié dans

Sciences et espace

14/09/2012 3 minutes
41

Intel explique aux fabricants d'Ultrabook comment se passer de GPU

Au cours d'une présentation où il met en avant ses nouvelles solutions graphiques et où il donne quelques détails supplémentaires de sa prochaine architecture connue sous le nom de Haswell, Intel en profite pour donner son point de vue sur les GPU dédiés au sein des Ultrabook. Comme vous pouvez l'imaginer, la firme de Santa Clara n'est pas forcément très encline à les voir être intégrés et donne même des motifs pour s'en passer.

Au sein de la documentation, Intel indique ainsi quelques nouveautés concernant Haswell, et rappelle le positionnement que va prendre son futur GPU intégré au sein de son processeur Core de 4e génération. On disposera donc de trois modèles différents dénommés GT1, GT2 et GT3, comme on peut le voir ci-dessous.

 

Haswell GPU UltrabookHaswell GPU Ultrabook

 

En outre, cette puce graphique supportera nativement le 4K, le DisplayPort 1.2 avec une fonctionnalité de « Daisy Chaining », ce qui veut dire que l'on pourra aussi imbriquer des écrans les uns aux autres, mais nécessitera des adaptateurs. De plus, trois écrans indépendants pourront être gérés nativement par la puce, tout comme les solutions actuellement disponibles au sein des processeurs de la génération Ivy Bridge.

 

 Haswell GPU UltrabookHaswell GPU Ultrabook

 

De plus, Haswell apportera de nouvelles fonctionnalités du côté de Quick Sync Video comme la stabilisation d'images, la conversion de Frame Rate, qui permet de corriger des images corrompues à la volée, ou un filtre permettant d'améliorer le rendu des peaux.

 

Haswell GPU UltrabookHaswell GPU Ultrabook

 

Mais Intel sait que ses propres armes ne sont pas forcément suffisantes pour que ses partenaires fabricants d'Ultrabook se passent aussi facilement de GPU. Il indique alors plusieurs points qui doivent permettre de s'en passer.

 

Haswell GPU UltrabookHaswell GPU Ultrabook

 

Ainsi, cela ajoute un surcoût à l'ensemble de la machine, il faut prévoir un système de refroidissement plus conséquent (ce qui ajoute un surpoids au passage) et cela implique aussi une carte mère plus grande pour comprendre un emplacement de 4 cm de côté pour le GPU et la mémoire qui va avec, etc. En échange, ils pourraient intégrer une batterie plus importante, plus de connectivité ou avoir globalement un Ultrabook plus fin et plus silencieux.

 

Reste maintenant à savoir si les arguments du géant de Santa Clara feront mouche pour faire comprendre à ses partenaires que l'importance d'un GPU au sein d'un Ultrabook peut être minorée ou pas. De notre côté, on a encore quelques doutes. Une vraie réponse pourrait venir d'une solution externe clé en main pour mettre une carte graphique.

Écrit par Damien Labourot

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Fermer

Commentaires (41)


un ultrabook avec un GPU n’est de toute façon pas vraiment un ultrabook


“Additional cooling for higher TDP at equivalent performance level”



Mais bien sur <img data-src=" />


“Haswell vaincra!” <img data-src=" />

ou Comment Intel dit non à Nvidia…


“Additional cooling for higher TDP at equivalent performance level”



C’est probable, mais le soucis,c ‘est que… aucune carte video additionnelle n’est aussi peu performante que la solution d’Intel. L’ajout d’un GPU, c’est justement parce que celui d’Intel est à la traine, et l’a toujours été. La solution graphique intégrée d’AMD est comparativement très nettement plus performante.


Bin faut avouer qu’entre un GPU discrete Mobile de type Geforce 610M ou Radeon 7450M et un HD3000/4000 de Sandy/Ivy Bridge c’est du silicium gâché !



Après s’il s’agit de mettre du GPU discrete moyen de gamme c’est une autre histoire…


Voilà Intel ne veut pas se lancer dans le GPU, du coup ben Intel tue les GPU.



Problem solve <img data-src=" />


league of legend ou dota 2 tourne très bien avec un HD3000 et le HD4000 est plutot bien vu comparé à ces équivalents chez nvidia et ati.

Faire un CTRL+F danshttp://www.videocardbenchmark.net/high_end_gpus.html


L’idée est plutôt bien fondée, si on veut une machine légère, autant poser les limites claires sur le TDP et le form factor pourra suivre, maintenant les intentions d’Intel sont peut-être plus vicieuses.


Bah dans le fond franchement pour un ultrabook la partie graphique… vive les GPU intégrés c’est que du bénef.


à partir du moment ou on admet qu’un ultrabook n’est pas un PC de gamer l’argument d’Intel est parfaitement valable.



Personnellement je serais client d’un ultrabook puissant, sans carte graphique dédiée, et disposant d’une meilleure autonomie.




Additional cooling for higher TDP at equivalent performance level





Et il vont mettre quoi ?



Utiliser le bloc de refroidissement du CPU conjointement ? La place est méga compté à l’intérieur donc l’agrandir pour compenser l’ajout d’un composant qui chauffe est quasi exclu… en mettre un second ? là non plus manque de place…



Mettre un ventilo ? l’avantage des ultrabook c’est l’autonomie, rajouter un solution de refroidissement aussi gourmande en électron qu’un ventilo c’est pas envisageable….



Donc oui très curieux de voir à quoi il vont remédier à cela…


Un moyen comme un autre de gagner des PDM sur le marché des GPU. Après tout les ultrabooks sont un “marché de niche” non ?

Et puis, un GPU dédié sur un ultrabook <img data-src=" />








kypd a écrit :



Bin faut avouer qu’entre un GPU discrete Mobile de type Geforce 610M ou Radeon 7450M et un HD3000/4000 de Sandy/Ivy Bridge c’est du silicium gâché !



Après s’il s’agit de mettre du GPU discrete moyen de gamme c’est une autre histoire…







A voir ce que donnera les performances de ces nouveaux GPU, notamment le GT3









sirius35 a écrit :



Mettre un ventilo ? l’avantage des ultrabook c’est l’autonomie, rajouter un solution de refroidissement aussi gourmande en électron qu’un ventilo c’est pas envisageable….





Il me semble que la quasi totalité des Ultrabook ont un ventilo.



Enfin bon, comme beaucoup d’autres je ne vois pas l’intérêt d’un GPU dédié dans un tel format. Si on veut jouer, on n’achète pas un Ultrabook.









FrenchPig a écrit :



Un moyen comme un autre de gagner des PDM sur le marché des GPU. Après tout les ultrabooks sont un “marché de niche” non ?

Et puis, un GPU dédié sur un ultrabook <img data-src=" />





marché de niche, je ne suis pas sur que ca le reste longtemps au final. Pour discuter avec certains constructeurs, ils sont en train de glisser petit à petit vers plus de machines fines et gardent des gros machins pour les joueurs. Tous ne prennent pas l’appellation Ultrabook car y’a encore un surcoût, mais y tendent.



Pour le GPU dédié au sein d’un Ultrabook, y’a qu’a voir notre guide sur PdN, c’est pas une légende urbaine, ca existe.









sirius35 a écrit :



Et il vont mettre quoi ?



Utiliser le bloc de refroidissement du CPU conjointement ? La place est méga compté à l’intérieur donc l’agrandir pour compenser l’ajout d’un composant qui chauffe est quasi exclu… en mettre un second ? là non plus manque de place…



Mettre un ventilo ? l’avantage des ultrabook c’est l’autonomie, rajouter un solution de refroidissement aussi gourmande en électron qu’un ventilo c’est pas envisageable….



Donc oui très curieux de voir à quoi il vont remédier à cela…





je pense que tu as compris de travers l’argument d’intel.

La presence d’un gpu dédié (soudé ou non) dans un laptop t’oblige a prevoir :




  • un bloc alu/cuivre a visser sur ce GPU

  • un caloduc de plus pour amener la chaleur vers le bloc de ventilation

  • un bloc de ventilation plus gros (ailettes + ventilo) pour evacuer l’energie supplémentaire.



    Donc effectivement, se passer de carte graphique dédiée permet de gagner de l’espace, du poid et des nuisances sonores.

    Surtout quand elle n’apporte quasiment pas de perfs en plus (comme sur mon Lenovo T420s qui n’est pourtant pas un ultra-book : HD3000 + NVS 4200m)



    Au dela des ultrabook c’est tout le marché des laptop qui est concerné, a l’exception des machines gamer et station de travail. Ca fait du monde!

    C’est pour ça que les deux acteurs principaux sont très actifs sur le sujet (et que nvidia pouse autant que possible sa solution optimus!)









hachu21 a écrit :



je pense que tu as compris de travers l’argument d’intel.

La presence d’un gpu dédié (soudé ou non) dans un laptop t’oblige a prevoir :




  • un bloc alu/cuivre a visser sur ce GPU

  • un caloduc de plus pour amener la chaleur vers le bloc de ventilation

  • un bloc de ventilation plus gros (ailettes + ventilo) pour evacuer l’energie supplémentaire.



    Donc effectivement, se passer de carte graphique dédiée permet de gagner de l’espace, du poid et des nuisances sonores.

    Surtout quand elle n’apporte quasiment pas de perfs en plus (comme sur mon Lenovo T420s qui n’est pourtant pas un ultra-book : HD3000 + NVS 4200m)



    Au dela des ultrabook c’est tout le marché des laptop qui est concerné, a l’exception des machines gamer et station de travail. Ca fait du monde!

    C’est pour ça que les deux acteurs principaux sont très actifs sur le sujet (et que nvidia pouse autant que possible sa solution optimus!)







    Vu la tendance actuelle, NVidia a du soucis à se faire.



Chipset et gpu dans le cpu manque plus que la ram et le ssd voila <img data-src=" />








-Stephane- a écrit :



à partir du moment ou on admet qu’un ultrabook n’est pas un PC de gamer l’argument d’Intel est parfaitement valable.



Personnellement je serais client d’un ultrabook puissant, sans carte graphique dédiée, et disposant d’une meilleure autonomie.





+1, mais surtout pour le silence que ça apporterait (et les emmerde d’un optimus qui déconne à moitié sous linux)









typhoon006 a écrit :



Voilà Intel ne veut pas se lancer dans le GPU, du coup ben Intel tue les GPU.



Problem solve <img data-src=" />





Ça fait un bon moment qu’ils essaient…

Cf. la condamnation record en Europe d’Intel pour avoir entre-autre fait des remises sur le prix des CPU aux constructeurs qui achetaient leur CG.



Je ne comprend vraiment pas tout ces fabricants de portables d’entrée de gamme qui fournissent systématiquement une Gforce 630 sur des ordinateurs Ivy Bridge.

Les 20% de performances en plus ne servent strictement à rien. Il est possible de jouer au jeux (Hors FPS) tranquilement avec une HD4000 et ils rajoutent un coût et perdent de la place.

Les gamers ne se satisferont de toute façon pas d’une carte graphique d’une telle gamme, alors POURQUOI?



La seule raison que j’ai pu trouver est marketing du type “Nvidia est un spécialiste des cartes graphique, ils font parmi les meilleures du marché et on vous en a mis une sur votre ordinateur.”



J’ai longuement cherché et il est vraiment difficile de trouver des ordinateurs d’entrée de gamme sans puce nvidia ou amd


Je suis tout à fait d’accord que mettre un GPU dans un ultrabook, ce n’est pas le but recherché.

Maintenant, il faut aussi se dire que si on prend un ultrabook qui coute assez cher, c’est aussi pour avoir une certaine qualité en terme de finition et de durabilité (on claque pas 1000€ tout les mois dans des portables hein ! Enfin je voudrais bien pouvoir le faire <img data-src=" />). Or si dans 2-3 ans l’ordi rame comme un chameau asthmatique pour afficher “mega angry birds in hyper space seasons” version 2015 sous windows 9, ce sera surement la faute au GPU (et aussi un peu au CPU ainsi qu’à la RAM soudé, mais ça c’est une autre affaire).

Donc autant prendre les devants comme ASUS le fait, et proposer une gamme avec GPU pour ceux qui veulent jouer un peu (ou prévoir l’avenir), et une autre sans GPU dédiés.

Je suis toujours très content de mon UL30 VT (avec G210M) qui me permet de jouer à Doom3 et même Portal 2, alors qu’au même moment j’aurais pu prendre le UL30 A (même forme, plus autonome mais sans GPU dédié), mais je n’aurai même pas pu faire tourner Limbo (qui rame si je n’active pas la GeForce) ! Pour un modèle de 2-3 ans, j’en suis bien content.



Maintenant, comme dit précédemment, si c’est pour mettre une G610M en face d’un HD4000, c’est vraiment pour gâcher du silicium <img data-src=" />


J’ai un portable assez vieux avec un core 2 duo T7250 et une ati X2300, ma copine a un pc datant de l’année dernière avec un core i3 et dans les jeux le mien tourne mieux après c’est vrai que si c’est pour mettre une carte graphique dédiée avec les mêmes performance que l’intégré aucune utilité mais dans les autres cas il y a des acheteurs (je suis toujours à la recherche d’un 14pouces ultrabook ou non avec une gt650m mais à prix abordable).








pyrignis a écrit :



Je ne comprend vraiment pas tout ces fabricants de portables d’entrée de gamme qui fournissent systématiquement une Gforce 630 sur des ordinateurs Ivy Bridge.

Les 20% de performances en plus ne servent strictement à rien. Il est possible de jouer au jeux (Hors FPS) tranquilement avec une HD4000 et ils rajoutent un coût et perdent de la place.

Les gamers ne se satisferont de toute façon pas d’une carte graphique d’une telle gamme, alors POURQUOI?



La seule raison que j’ai pu trouver est marketing du type “Nvidia est un spécialiste des cartes graphique, ils font parmi les meilleures du marché et on vous en a mis une sur votre ordinateur.”



J’ai longuement cherché et il est vraiment difficile de trouver des ordinateurs d’entrée de gamme sans puce nvidia ou amd





+1, et je dirais même plus : je fais tourner Doom3 sur un ultrabook avec un HD 3000. C’est parfaitement fluide, avec quasi toutes les options au max.



J’ai acheté ce pc justement parce que je voulais un portable fin, léger, avec une grosse autonomie et accessoirement de la patate. Je ne l’aurai certainement pas acheté avec un GPU nVidia / AMD.



Intel devrait rajouter dans son argumentaire : pour vos clients sous Linux, ils pourront bénéficier des même perfs sous Linux que sous Windows avec un Ubuntu “out of the box”.



Un GPU non intégré dans un Ultrabook ça peut être contre-productif.



Cependant les notebooks haut de gamme ( &gt; 15” ) reprennent de plus en plus les config. des Ultrabooks (Samsung Series 9, Sony S Series, Asus N, …) et là le manque de GPU peut se faire sentir.



Je penses qu’Intel ne devrait pas s’en mêler et laisser les constructeurs faire des choix divers pour que le client puisse trouver la config. qui lui convient le mieux.








trevisev a écrit :



Intel devrait rajouter dans son argumentaire : pour vos clients sous Linux, ils pourront bénéficier des même perfs sous Linux que sous Windows avec un Ubuntu “out of the box”.





C’est pas tout à fait exact hélas : les drivers Windows marchent beaucoup mieux que les drivers Linux sur certains jeux; cfhttp://www.phoronix.com/scan.php?page=article&item=intel_sandy_threesome









Angelus69 a écrit :



Chipset et gpu dans le cpu manque plus que la ram et le ssd voila <img data-src=" />







<img data-src=" />

Rajoute l’écran, le clavier, un périph de saisie wireless et voilà ! On y est !



<img data-src=" /> Quoi ? on va tous tafer depuis nos seuls smartphones posés sur le bureau ?



Ah bah nan, c”est pas encore du full intel inside… <img data-src=" />



Full Intel ont va devoir se ruiner <img data-src=" />








ldesnogu a écrit :



C’est pas tout à fait exact hélas : les drivers Windows marchent beaucoup mieux que les drivers Linux sur certains jeux; cfhttp://www.phoronix.com/scan.php?page=article&item=intel_sandy_threesome





Excellent site Phoronix. Oui, anéfé, ce dernier benchmark m’avait échappé. <img data-src=" />

Cela n’enlève rien au fait que je suis bien content de ne pas avoir eu à installer de driver proprio. ;-)









brazomyna a écrit :



+1, mais surtout pour le silence que ça apporterait (et les emmerde d’un optimus qui déconne à moitié sous linux)





Déconne à moitié ? Bah t’as de la chance ! Pour moi c’est juste impossible de démarrer un ubuntu avec Optimus activé !

Sinon je suis d’accord, un GPU dans un ultrabook c’est une vilaine erreur de design !

Mais le problème c’est que si personne ne le fait y en a toujours bien un qui va se dire que c’est une bonne opportunité de se démarquer et donc les autres devront suivre…

Intel n’a qu’à clairement interdire l’ajout de GPU dans les ultrabook…









Angelus69 a écrit :



Chipset et gpu dans le cpu manque plus que la ram et le ssd voila <img data-src=" />





la ram c est prévu de mettre de la ddr3 dédié au gpu pour la prochaine génération pour limiter le goulet d etranglement actuel à ce niveau.



Sinon il y a… les APU d’AMD !


Intel va promouvoir les untrathin d’AMD ^^








paul161 a écrit :



Sinon il y a… les APU d’AMD !





<img data-src=" /> trop gros, passera pas.





Si AMD faisait des CPU et des GPU, depuis le temps, ça se saurait <img data-src=" />









-Stephane- a écrit :



à partir du moment ou on admet qu’un ultrabook n’est pas un PC de gamer l’argument d’Intel est parfaitement valable.



Personnellement je serais client d’un ultrabook puissant, sans carte graphique dédiée, et disposant d’une meilleure autonomie.







+1!



un ultrabook n’est pas fait pour jouer par défaut, donc un GPU dédié n’a pas d’intérêt.



en revanche, il est clair que sur un alienware, c’est l’inverse.



Je ne suis pas d’accord avec vous, j’ai suis personnellement très content d’avoir une HD7550 dans mon ultrabook puisqu’elle me permet de jouer à diablo 3 en résolution native. (1366*768)

1,6kg pour un ultrabook 14” qui a plus de 6h d’autonomie et qui permet de jouer je trouve ca bien, et encore une pertie du poids supplémentaire par rapport aux autre ultrabook est absorbé par le lecteur dvd.


En regardant dans la base de Notebookcheck, on voit que la HD7550 donne des resultats :




  • au mieux 17% au dessus de la HD4000 integrée

  • au pire 15% au deesous de la HD4000 intégrée

    Ca dépend du jeu et du CPU associé.



    Si la question peut encore se poser ici, le sort des cartes graphiques dédiées d’entrée de gamme sera réglé par la sortie du GT3 l’année prochaine (si il est bon).








Sebdraluorg a écrit :



Déconne à moitié ? Bah t’as de la chance ! Pour moi c’est juste impossible de démarrer un ubuntu avec Optimus activé !

Sinon je suis d’accord, un GPU dans un ultrabook c’est une vilaine erreur de design !

Mais le problème c’est que si personne ne le fait y en a toujours bien un qui va se dire que c’est une bonne opportunité de se démarquer et donc les autres devront suivre…

Intel n’a qu’à clairement interdire l’ajout de GPU dans les ultrabook…





T’as essayé ça:

http://bumblebee-project.org/



http://doc.ubuntu-fr.org/bumblebee

?



Le pauvre HD4000 a quand meme du mal sur D3 :http://www.anandtech.com/show/5865/laptop-graphics-face-off-diablo-iii-performan…

D’ailleurs presque tous les GPU de ce test ont du mal.








hachu21 a écrit :



En regardant dans la base de Notebookcheck, on voit que la HD7550 donne des resultats :




  • au mieux 17% au dessus de la HD4000 integrée

  • au pire 15% au deesous de la HD4000 intégrée

    Ca dépend du jeu et du CPU associé.



    Si la question peut encore se poser ici, le sort des cartes graphiques dédiées d’entrée de gamme sera réglé par la sortie du GT3 l’année prochaine (si il est bon).





    à l’époque l’ivybridge n’était pas sortis









hachu21 a écrit :



En regardant dans la base de Notebookcheck, on voit que la HD7550 donne des resultats :




  • au mieux 17% au dessus de la HD4000 integrée

  • au pire 15% au deesous de la HD4000 intégrée

    Ca dépend du jeu et du CPU associé.



    Si la question peut encore se poser ici, le sort des cartes graphiques dédiées d’entrée de gamme sera réglé par la sortie du GT3 l’année prochaine (si il est bon).





    non, on voit surtout que sur un ensemble de tests, le HD4500 d’Intel est entre 0 et 1%, et sur 4 tests ( Windows 7 expérience ), il est à 40% voire 50% … très utile en fait… <img data-src=" /> Je me demande ce que ça peut donner si on renomme le binaire… <img data-src=" />



    C’est surtout sur son ensemble de capacités réelles ( openGL par exemple ) qu’il faut se poser des questions, et là, c’est le drame. Ya 15 ans de développement graphiques d’un côté ( AMD et Nvidia ), et 13 ans de pipo et de qualité graphique dégueulasse de l’autre, mais comme l’avenir est aux GPU intégrés au die du processeur, ils n’ont pas le choix.