Le marché des cartes graphiques résiste, NVIDIA reste le n°1 incontesté

Le marché des cartes graphiques résiste, NVIDIA reste le n°1 incontesté

Le caméléon aime le vert

Avatar de l'auteur
Nil Sanyas

Publié dans

Sciences et espace

21/05/2014 4 minutes
56

Le marché des cartes graphiques résiste, NVIDIA reste le n°1 incontesté

Si Intel domine le marché global des puces graphiques, en matière de cartes dédiées, c'est bien NVIDIA qui tire son épingle du jeu, ceci depuis plusieurs années maintenant. Selon Jon Peddie Research, le caméléon capte près des deux tiers du marché, le reste appartenant à AMD. Bonne nouvelle, ce secteur n'affiche qu'une légère régression et est donc bien moins touché que le marché global des puces.

Cartes graphiques Jon Peddie Research Q1 2014

Une quasi-stabilisation après des années de chutes

Avant-hier, si nous notions la domination d'Intel dans le secteur des puces graphiques ceci du fait de sa confortable part de marché dans les processeurs, nous avions aussi mis en avant la perte de valeur globale de ce marché. En baisse constante depuis 2011, les puces graphiques pourraient même passer sous la barre des 400 millions d'unités écoulées cette année dans le secteur des PC (donc hors consoles, tablettes et smartphones), contre plus de 500 millions il y a trois ans. Un niveau qui le ferait revenir à celui de 2009.

 

Les cartes graphiques dédiées échappent en grande partie à cette chute. Au premier trimestre 2014, l'institut n'a ainsi remarqué qu'une diminution très modérée de 0,8 % de ce marché sur un an (contre -4 % pour les puces graphiques), tandis que la baisse sur trois mois a été de 6,7 %, loin des 11,6 % du marché global des puces. Des données qui prouvent que la demande reste importante malgré les problèmes de ventes des PC dits traditionnels.

Un marché qui perd de l'importance

Il ne faut toutefois pas trop se réjouir. Dans les détails, nous apprenons que désormais, seuls 45 % des ordinateurs de bureau sont accompagnés d'une carte graphique. C'est certes mieux que les 43,8 % du précédent trimestre, mais c'est surtout bien inférieur aux chiffres d'il y a quelques années. Au premier trimestre 2008 par exemple, c'était encore 63 % des ordinateurs fixes qui étaient accompagnés d'une telle carte. Il faut dire que l'augmentation des performances des produits intégrés/fusionnés a fortement réduit l'intérêt de ceux dédiés à l'affichage purement graphique.

 

Résultat, à ce jour, le marché des cartes graphiques est relativement petit, avec seulement 14 millions d'unités lors des trois premiers mois de l'année. À titre de comparaison, plus de 19 millions de cartes s'étaient écoulées il y a trois ans. Et en 1999, alors qu'une guerre acharnée opposait NVIDIA, ATI et 3DFX, le secteur a même cumulé 114 millions d'unités sur l'année, soit une moyenne trimestrielle supérieure à 28 millions de cartes. Un nombre tombé à 65 millions l'an passé et potentiellement moins encore en 2014.

 

Dans ce secteur de plus en plus secondaire, NVIDIA tient la dragée haute à AMD avec 65 % du marché, contre 35 % pour son vis-à-vis. Cela n'empêche néanmoins pas le caméléon de voir ses livraisons chuter de 6,6 % en trois mois. Le détenteur des Radeon affiche pour sa part un recul similaire.

Des partenaires encore très nombreux

Il est cependant intéressant de noter que du fait du rétrécissement du marché, le nombre de fournisseurs de cartes s'est réduit à quatre suite à diverses acquisitions, avec NVIDIA et AMD captant la quasi-totalité du secteur laissant des miettes à Matrox et S3. Mais surtout, le nombre de partenaires commercialisant lesdites cartes pour le compte des deux leaders reste toujours aussi élevé.

 

Le marché compte ainsi toujours une cinquantaine de partenaires, les plus connus étant ASUS, EVGA, Gigabyte, MSI, PNY ou encore Sapphire. Certes, tous ne sont pas présents au niveau mondial et seule une minorité d'entre eux se partagent le gâteau. Néanmoins, avec seulement 14 millions d'unités en un trimestre, on se doute que certaines sociétés ne vendent que quelques milliers de cartes, contre des centaines de milliers voire des millions pour les leaders.

Écrit par Nil Sanyas

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Une quasi-stabilisation après des années de chutes

Un marché qui perd de l'importance

Des partenaires encore très nombreux

Fermer

Commentaires (56)


Ah voila, là on parle. Parce qu’entre un IGP poussif et un GPU qui permet de jouer aux jeux vidéos, ce n’est pas la même chose et ne recouvre pas les mêmes besoins.



Bref, c’est dommage pour AMD, qui paye sa partie logicielle médiocre alors que la partie matérielle est tout à fait compétitive.

Ils ont un gros soucis d’image aussi, j’ai l’impression qu’on voit plus souvent le logo nVidia que le logo AMD dans des évènements eSports.



Sinon, il serait intéressant de connaitre les chiffres segment par segment (bas de gamme, entrée de gamme, moyen, haut etc).


Seulement 35% pour AMD? Je comprends pas comment c’est possible alors qu’ils ont systématiquement le meilleur rapport prix/perf ces dernières années.

Je veux bien croire que NVidia ait une meilleur image de marque avec leurs innovations, mais je pensait pas à voir une répartition 13 & 23.


Ouais… peut-être que le marché des cartes graphiques perd de son importance par le fait que, globalement, un joueur PC peut garder une même carte graphique relativement longtemps, sans être gêner par des graphismes dégoûtants ou un nombre d’image par seconde trop bas.

Attention, je ne parle pas ici des hardcore gamers. Pour moi, ils ne sont pas représentatifs de ce qu’est véritablement un joueur. Un hardcore gamer ne permet pas de créer une image d’un joueur lambda. Tous les joueurs ne bavent pas devant le moteur graphique CryEngine… Comprendront ceux qui comprendront.



Après, il faut aussi se rendre à l’évidence : le succès des consoles de jeu à une incidence sur la baisse des ventes de cartes graphiques. De plus en plus de joueurs jouent désormais sur une ou plusieurs consoles. Il y a toujours des accrocs aux jeux PC, mais… certains ne l’acceptent pas, préférant regarder dans le rétroviseur, mais l’âge d’or du jeu vidéo PC est derrière nous. Et je n’en ai rien à foutre des ventes de Steam. Je pisse sur les chiffres des ventes de Steam. Je ne fais qu’observer que les consoles ont une place de choix pour de plus en plus de joueurs.



Enfin, pour finir, si Nvidia est toujours devant AMD (ex ATI), c’est parce que le caméléon jouit toujours d’une meilleure réputation que son concurrent. Il faut dire aussi que Nvidia, niveau marketing, use d’une communication à toute épreuve pour attirer le chaland.


Faut dire que Nvidia propose un très bon pilote sous GNU/Linux, perso c’est ce qui a fait que j’ai acheté chez eux.



  • phys X



    • driver stable

    • bug rare

    • meilleur optimisation ( pour une carte au meme niveau de prix, plus de fps)

      Je me demande encore pourquoi ce n’est pas AMD qui est devant (sérieusement?)?

      <img data-src=" />









Charly32 a écrit :



Ah voila, là on parle. Parce qu’entre un IGP poussif et un GPU qui permet de jouer aux jeux vidéos, ce n’est pas la même chose et ne recouvre pas les mêmes besoins.



Bref, c’est dommage pour AMD, qui paye sa partie logicielle médiocre alors que la partie matérielle est tout à fait compétitive.

Ils ont un gros soucis d’image aussi, j’ai l’impression qu’on voit plus souvent le logo nVidia que le logo AMD dans des évènements eSports.



Sinon, il serait intéressant de connaitre les chiffres segment par segment (bas de gamme, entrée de gamme, moyen, haut etc).







Sans parler que pour les jeux je vois souvent plus Nvidia que AMD comme “pub”.









fullsun a écrit :





  • phys X



    • driver stable

    • bug rare

    • meilleur optimisation ( pour une carte au meme niveau de prix, plus de fps)

      Je me demande encore pourquoi ce n’est pas AMD qui est devant (sérieusement?)?

      <img data-src=" />







      C’est ce que je dis : niveau marketing, Nividia est au top ! Et cela se verra dans d’autres commentaires….










Funigtor a écrit :



Faut dire que Nvidia propose un très bon pilote sous GNU/Linux, perso c’est ce qui a fait que j’ai acheté chez eux.





A l’heure actuelle, je ne suis pas sur que que le monde linux grand public soit la principale préoccupation des fabricants de GPU. C’est en train de changer, mais j’imagine mal voir plus de 5% des produits vendus, surtout dans le haut de gamme, dans une machine linux.

Mais SteamOS arrive.





fullsun a écrit :





  • meilleur optimisation ( pour une carte au meme niveau de prix, plus de fps)





    Lol? La plupart de la gamme AMD représente justement un meilleur rapport FPS/prix (il y a toujours des exceptions, comme la R9 280 avant la baisse de prix). Ce qui est censé compenser les arguments que tu cites plus haut justement, avec lesquels je suis amplement d’accord.





    Cara62 a écrit :



    Sans parler que pour les jeux je vois souvent plus Nvidia que AMD comme “pub”.





    Il y a tout de même des gros titres AAA, comme BF4 ou Tomb Raider :)









Charly32 a écrit :



Il y a tout de même des gros titres AAA, comme BF4 ou Tomb Raider :)







Pour Tom raider je sais. C’est pour l’effet tress fx (un truc dans le genre)

Par contre pour BF4 étonnant je m’attendais plus à nvidia pour le coup.



Bon sinon la question existentielle c’est : AMD ou Nvidia qui fera sa pub pour Watch dogs ?



lol comme d’hab on fait dire n’importe quoi au chiffre, surtout quand on a pas trop de précision sur ce qu’ils comprennent,

donc ici = fanboys nvidia

et cdh = amd ? ( me parait bizarre , mais eux donne 1% de plus a AMD donc a peut de chose pres comme nvidia et 63% à intel)

donc bon …





apres on peut toujours me dire que je lis mal les news , a mon avis c’est un manque de clarté (volontaire ?)








Charly32 a écrit :



Il y a tout de même des gros titres AAA, comme BF4 ou Tomb Raider :)









je suis utilisateur amd et je le resterai (suis pas cresus ni pigeon) mais Far Cry 3 aussi l’etait et c’etait assez loupé niveau optimisations, apres va savoir si la faute est imputable a amd ou ubisoft … ou les deux …

par contre BF4 y a pas mieux comme pub pour amd, tu mets un BF4 avec mantle a coté d’un BF4 sur nvidia, tu rajoutes le petit carton avec les prix, et tu vends du amd …









xloxlox a écrit :



lol comme d’hab on fait dire n’importe quoi au chiffre, surtout quand on a pas trop de précision sur ce qu’ils comprennent,

donc ici = fanboys nvidia

et cdh = amd ? ( me parait bizarre , mais eux donne 1% de plus a AMD donc a peut de chose pres comme nvidia et 63% à intel)

donc bon …





apres on peut toujours me dire que je lis mal les news , a mon avis c’est un manque de clarté (volontaire ?)







correction : cet article ne tient pas compte des consoles et autres apu semble t il

car dans ce cas c’est amd qui passe devant d’un cheveux

est ce que la 780M d’un imac est comptabilisé ? j’imagine que non



une gt220 est une carte dédiée aussi , mais on s’en fout … comme de la 3450 …

bref ca veut pas dire grand chose tout ca je trouve

y aurait pas un comparatif des ventes entre la 7970 et la 680 ou la 780 ? histoire de voir l’impact du fanboy ? <img data-src=" />








Cara62 a écrit :



Bon sinon la question existentielle c’est : AMD ou Nvidia qui fera sa pub pour Watch dogs ?







nVidia (cf le logo en bas)







xloxlox a écrit :



apres on peut toujours me dire que je lis mal les news , a mon avis c’est un manque de clarté (volontaire ?)





Tu lis mal la news <img data-src=" />





Nil Sanyas a écrit :



dans le secteur des PC (donc hors consoles, tablettes et smartphones)









Nil Sanyas a écrit :



Dans les détails, nous apprenons que désormais, seuls 45 % des ordinateurs de bureau sont accompagnés d’une carte graphique




















Charly32 a écrit :



Tu lis mal la news <img data-src=" />







ah je sens que tu peux me renseigner , qu’est ce qui est comptabilisé ?

une 780M d’imac l’est elle ou plus généralement les carte MXM ?

qu’est ce qui est dans les consoles amd ? du mxm ou pas ?

tu vois quand je dis que ca manque de clarté je pense que c’est dans ce qui n’est pas dit que l’on peut se poser des questions, je prend pas les chiffres comme ca non plus , surtout vu que suivant ce qui est comptabilisé la balance n’est pas la meme









xloxlox a écrit :



ah je sens que tu peux me renseigner , qu’est ce qui est comptabilisé ?

une 780M d’imac l’est elle ou plus généralement les carte MXM ?

qu’est ce qui est dans les consoles amd ? du mxm ou pas ?

tu vois quand je dis que ca manque de clarté je pense que c’est dans ce qui n’est pas dit que l’on peut se poser des questions, je prend pas les chiffres comme ca non plus , surtout vu que suivant ce qui est comptabilisé la balance n’est pas la meme







Pourquoi j’ai mis en gras ordinateur de bureau? :p

(au cas où t’as encore un doute, une ou deux ligne en dessous, c’est écrit “ordinateur fixe”)









Charly32 a écrit :



Pourquoi j’ai mis en gras ordinateur de bureau? :p

(au cas où t’as encore un doute, une ou deux ligne en dessous, c’est écrit “ordinateur fixe”)







donc d’apres toi les imacs oui ? c’est bien un ordinateur de bureau … enfin meme si moi je considere ca comme un objet decoratif pour bobo mais bon y a quand meme des cartes graphiques dedans ..



Les iMac utilisent des composants mobiles, donc non comptabilisés comme ordinateur de bureau :



PS :



AIBs are used in desktop PCs, workstations, servers, and other devices such as scientific instrument









xloxlox a écrit :



donc d’apres toi les imacs oui ? c’est bien un ordinateur de bureau … enfin meme si moi je considere ca comme un objet decoratif pour bobo mais bon y a quand meme des cartes graphiques dedans ..





d’ailleurs j’ai eu recemment l’occasion de voir tourner une 780M dans un imac… une arnaque de plus … tu la paie 200 euros de plus que la version normal et t’as les perfs d’une gtx 560 … bravo apple de prendre les joueurs pour de gros oiseaux

et les utilisateurs mac on en parle pas , les pauvres



Pour ma part, il est logique que le marché des CG hors processeur régresse voire se plante.



A la grande époque des GTX 6800, on nous promettait monts et merveilles avec un CG du tonnerre.

Résultats: une carte certes puissante mais qui chauffe beaucoup, qui consomme beaucoup, qui fait du bruit. Beaucoup d’inconvénients en clair.



De plus, en raison de la chauffe, les cartes ont une durée de vie limitée. Ma 6800GT m’a duré 3 ans et demi, alors que l’athlon 64 qui l’accompagnait lui fonctionne toujours sans aucun problème.



En clair, 260 euros partis en fumée pour 3 ans, ça fait franchement mal au cul.

Depuis, je me méfie, prends des modèles qui chauffent peu et pas trop cher (- de 150 euros).



Aucun effort n’est fait du coté de la durée de vie, de la conso et de la chauffe desdites cartes, il est normal que les clients ne fassent aucun effort pour renouveler leur matos.

Seul Intel peut se targuer de faire évoluer les choses (un peu AMD aussi).



Je pense que les marketeux ont intérêt à revoir leur manière de faire<img data-src=" />








Charly32 a écrit :



nVidia (cf le logo en bas)







Merci. <img data-src=" />



(Cool j’ai une GTX, \o/)









Charly32 a écrit :



Les iMac utilisent des composants mobiles, donc non comptabilisés comme ordinateur de bureau.









ok merci <img data-src=" />









xloxlox a écrit :



d’ailleurs j’ai eu recemment l’occasion de voir tourner une 780M dans un imac… une arnaque de plus … tu la paie 200 euros de plus que la version normal et t’as les perfs d’une gtx 560 … bravo apple de prendre les joueurs pour de gros oiseaux

et les utilisateurs mac on en parle pas , les pauvres





Ca ne sert à rien de s’en prendre à Apple, c’est la dure loi des GPU mobiles.

Il est impossible d’avoir d’aussi gros GPU dans le mobile que dans le fixe, consommation et chaleur obligent.

Je ne pense pas qu’un GPU mobile coute plus cher à fabriquer (à nombre de transistors et archi identiques), en revanche il n’est pas impossible que les critères de tri soient plus restrictifs. De fait les cartes mobiles haut de gamme sont plus rares et plus chères. Ou alors c’est totalement artificiel et les fabricants ne se gênent pas pour se faire de grosse marges; la vérité doit être à mi chemin entre les deux options.









Charly32 a écrit :



Ah voila, là on parle. Parce qu’entre un IGP poussif et un GPU qui permet de jouer aux jeux vidéos, ce n’est pas la même chose et ne recouvre pas les mêmes besoins.



Bref, c’est dommage pour AMD, qui paye sa partie logicielle médiocre alors que la partie matérielle est tout à fait compétitive.

Ils ont un gros soucis d’image aussi, j’ai l’impression qu’on voit plus souvent le logo nVidia que le logo AMD dans des évènements eSports.



Sinon, il serait intéressant de connaitre les chiffres segment par segment (bas de gamme, entrée de gamme, moyen, haut etc).







A priori pour jouer aux jeux un peu anciens (vieux de 2 à 5 ans donc pas forcément dégueulasse) enfin ceux en promo sur steam à quelques euros les IGP peuvent suffire non ?









metaphore54 a écrit :



A priori pour jouer aux jeux un peu anciens (vieux de 2 à 5 ans donc pas forcément dégueulasse) enfin ceux en promo sur steam à quelques euros les IGP peuvent suffire non ?





Oui, un IGP peut suffire dans des jeux comme LoL (qui doit passer full HD détails au max avec un IGP). En vacance je joue à Diablo3 avec un HD3000 sur un MBP (bim, haut-le-cœur pour tout gamer qui lira ce commentaire <img data-src=" />)

Certains jeux peuvent aussi se contenter d’un framerate assez bas, tel un sim city.

Mais si tu veux jouer à des choses un peu plus serieuses, ça montre vite ses limites.

Bref, voilà des chiffres :)









Charly32 a écrit :



Oui, un IGP peut suffire dans des jeux comme LoL (qui doit passer full HD détails au max avec un IGP). En vacance je joue à Diablo3 avec un HD3000 sur un MBP (bim, haut-le-cœur pour tout gamer qui lira ce commentaire <img data-src=" />)

Certains jeux peuvent aussi se contenter d’un framerate assez bas, tel un sim city.

Mais si tu veux jouer à des choses un peu plus serieuses, ça montre vite ses limites.

Bref, voilà des chiffres :)





Pour F1 2013 30 i/s d’après le lien que tu m’as donné devrait suffire non ? Je l’ai et avec ma vieille hd6850, il tourne plutôt bien.









metaphore54 a écrit :



Pour F1 2013 30 i/s d’après le lien que tu m’as donné devrait suffire non ? Je l’ai et avec ma vieille hd6850, il tourne plutôt bien.





Une 6850, c’est déjà trèèèèès loin devant un IGP, même ceux d’Haswell. Regarde bien, l eA10 avec une simple HD6670 fait presque deux fois mieux que l’IGP des Haswell. Aussi 30fps de moyenne, ça veut dire que tu as surement des chutes autour des 20 FPS, ce qui peut être perturbant.

En toute honnêteté, je ne pourrai affirmer qu’en 1920x1080 low details F1 2013 est jouable avec l’IGP Intel (avec un APU ça passe).









Charly32 a écrit :



Oui, un IGP peut suffire dans des jeux comme LoL (qui doit passer full HD détails au max avec un IGP). En vacance je joue à Diablo3 avec un HD3000 sur un MBP (bim, haut-le-cœur pour tout gamer qui lira ce commentaire <img data-src=" />)

Certains jeux peuvent aussi se contenter d’un framerate assez bas, tel un sim city.

Mais si tu veux jouer à des choses un peu plus serieuses, ça montre vite ses limites.

Bref, voilà des chiffres :)







la série hd4000 de intel est sympa niveau perfo, mais c’est sur qu’une carte dédiée est vraiment nécessaire s on veux jouer a une plus grande variété de jeu que les mobas ou half life…









Charly32 a écrit :



Une 6850, c’est déjà trèèèèès loin devant un IGP, même ceux d’Haswell. Regarde bien, l eA10 avec une simple HD6670 fait presque deux fois mieux que l’IGP des Haswell. Aussi 30fps de moyenne, ça veut dire que tu as surement des chutes autour des 20 FPS, ce qui peut être perturbant.

En toute honnêteté, je ne pourrai affirmer qu’en 1920x1080 low details F1 2013 est jouable avec l’IGP Intel (avec un APU ça passe).







Oui j’ai regardé les R7, je n’avais pas vu la 6670. Je pensais ces IGP bien meilleur que ça, il m’avait semblé avoir vu des tests sur l’iris pro et avoir vu des FPS pas trop dégueux sur des jeux un poil anciens en médium/low.









metaphore54 a écrit :



Oui j’ai regardé les R7, je n’avais pas vu la 6670. Je pensais ces IGP bien meilleur que ça, il m’avait semblé avoir vu des tests sur l’iris pro et avoir vu des FPS pas trop dégueux sur des jeux un poil anciens en médium/low.





L’iris pro est présent sur très peu de processeurs bureautiques (les series “R”), et je ne crois pas qu’elles soient dispo en version retail.

Les perfos, c’est à la louche au niveau de l’APU 7850K :)









xloxlox a écrit :



d’ailleurs j’ai eu recemment l’occasion de voir tourner une 780M dans un imac… une arnaque de plus … tu la paie 200 euros de plus que la version normal et t’as les perfs d’une gtx 560 … bravo apple de prendre les joueurs pour de gros oiseaux

et les utilisateurs mac on en parle pas , les pauvres







Pour le coup, ce n’est pas la faute d’Apple, ce sont juste les références du fabricant de puces graphiques.



Sinon, c’est clair que les dénominations “mobiles” peuvent induire en erreur parce qu’elles n’ont rien à voir avec les références équivalentes en GPU “desktop”.



Et je suis vraiment surpris qu’aucune association de consommateur ne s’offusque de cela.



Mais d’un autre côté, c’est les gens devraient aussi savoir que les GPU les plus puissants ne peuvent pas tourner dans une machine compacte ou un portable.



C’est une simple question de lois de la physique quand au dégagement thermique (et à la puissance de l’alimentation).



Ne vous plaignez pas de vous faire avoir si vous demandez ce qui n’est techniquement pas possible.



Donc si vous désirez vraiment une machine puissante, c’est obligatoirement en boîtier tour.












Beettoon a écrit :



Seulement 35% pour AMD? Je comprends pas comment c’est possible alors qu’ils ont systématiquement le meilleur rapport prix/perf ces dernières années.

Je veux bien croire que NVidia ait une meilleur image de marque avec leurs innovations, mais je pensait pas à voir une répartition 13 & 23.







Ils ont effectivement le meilleur rapport performances/prix, mais les drivers nVidia sont réputés meilleurs.



C’est bien la preuve qu’il n’y a pas que les perfs qui comptent.



Amd paye sa partie logicielle boiteuse, aussi bien sous windows que sous GNU/Linux quoi… comme d’habitude en fait <img data-src=" />








eromog a écrit :



Amd paye sa partie logicielle boiteuse, aussi bien sous windows que sous GNU/Linux quoi… comme d’habitude en fait <img data-src=" />







moi j’aurais tendance a dire que c’est une reputation qu’on leur a fait , perso j’ai rien a signalé pourtant etant un joueur fps regulier je m’en sers pas pour une partie de solitaire (avec oc du proc , et crossfire et physx en hybrid … tout pour faire croire que ca va planter , mais que nenni) , au pire si de nouveau drivers te font constater de moins bonne perf en general tu repasses a la version précédente en attendant, c’est pas tres contraignant et encore une fois ca a du m’arriver une ou deux fois pour 5 fps dans un jeu, mais sinon rien de plus grave que ca, ca c’est mon experience de amd, et j’ajoute que vu le prix je peux prendre du haut de gamme regulierement et de le revendre… pour linux pareil , ok ca marchait pas avant , mais maintenant j’aurais tendance a dire (selon mon experience , sachant que j’ai une amd et une nvidia sur mon ordi sous linux) que c’est tout aussi inutilisable d’un coté comme de l’autre =&gt; amd fonctionne ok avec le driver libre si je me souviens bien, et nvidia a l’air de fonctionner mais les logs se remplissaient de messages d’erreur que je n’ai pas pu faire disparaitre malgre de nombreuse recherche sur le net … (bon peut etre qu’en reinstallant une nouvelle version … mais bon … la 3d n’etait pas une priorité sur cet ordi)









js2082 a écrit :



Pour ma part, il est logique que le marché des CG hors processeur régresse voire se plante.



A la grande époque des GTX 6800, on nous promettait monts et merveilles avec un CG du tonnerre.

Résultats: une carte certes puissante mais qui chauffe beaucoup, qui consomme beaucoup, qui fait du bruit. Beaucoup d’inconvénients en clair.



De plus, en raison de la chauffe, les cartes ont une durée de vie limitée. Ma 6800GT m’a duré 3 ans et demi, alors que l’athlon 64 qui l’accompagnait lui fonctionne toujours sans aucun problème.



En clair, 260 euros partis en fumée pour 3 ans, ça fait franchement mal au cul.

Depuis, je me méfie, prends des modèles qui chauffent peu et pas trop cher (- de 150 euros).



Aucun effort n’est fait du coté de la durée de vie, de la conso et de la chauffe desdites cartes, il est normal que les clients ne fassent aucun effort pour renouveler leur matos.

Seul Intel peut se targuer de faire évoluer les choses (un peu AMD aussi).



Je pense que les marketeux ont intérêt à revoir leur manière de faire<img data-src=" />







Tu ne peux pas comparer processeurs et CG, une CG est toujours plus fragile. Après, il faut aussi savoir choisir ses modèles. J’ai eu une HD4890, qui tournait à des températures très élevés de l’ordre de 85-90° : elle fonctionne toujours parfaitement et elle est sorti en 2009. Il y a des modèles qui s’avèrent très endurant, d’autres pas…









xloxlox a écrit :



moi j’aurais tendance a dire que c’est une reputation qu’on leur a fait , perso j’ai rien a signalé pourtant etant un joueur fps regulier je m’en sers pas pour une partie de solitaire (avec oc du proc , et crossfire et physx en hybrid … tout pour faire croire que ca va planter , mais que nenni) , au pire si de nouveau drivers te font constater de moins bonne perf en general tu repasses a la version précédente en attendant, c’est pas tres contraignant et encore une fois ca a du m’arriver une ou deux fois pour 5 fps dans un jeu, mais sinon rien de plus grave que ca, ca c’est mon experience de amd, et j’ajoute que vu le prix je peux prendre du haut de gamme regulierement et de le revendre… pour linux pareil , ok ca marchait pas avant , mais maintenant j’aurais tendance a dire (selon mon experience , sachant que j’ai une amd et une nvidia sur mon ordi sous linux) que c’est tout aussi inutilisable d’un coté comme de l’autre =&gt; amd fonctionne ok avec le driver libre si je me souviens bien, et nvidia a l’air de fonctionner mais les logs se remplissaient de messages d’erreur que je n’ai pas pu faire disparaitre malgre de nombreuse recherche sur le net … (bon peut etre qu’en reinstallant une nouvelle version … mais bon … la 3d n’etait pas une priorité sur cet ordi)







Je parlais pas du coté performances (ya eu des ratés des deux cotés pour ça…) Mais je trouve le pilote amd peu intuitif à configurer. Moi je peux faire l’effort de me creuser la tête pour faire fonctionner conformément à mes envies, mais la dernière fois que j’ai touché à du amd, clairement, ça embêtait le détenteur du pc concerné…

Et si je n’avais été là, je pense qu’il aurait lâché le morceau… Tout ça pour dire que ça n’améliore pas la réputation d’amd, bien au contraire…









Charly32 a écrit :



Lol? La plupart de la gamme AMD représente justement un meilleur rapport FPS/prix (il y a toujours des exceptions, comme la R9 280 avant la baisse de prix). Ce qui est censé compenser les arguments que tu cites plus haut justement, avec lesquels je suis amplement d’accord.







Tu oublies de prendre en compte la consommation. Et oui quand tu paies ton électricité toi même c’est quelque chose que tu ne négliges pas. <img data-src=" />

Dans se domaine les cartes Nvidia sont bien meilleurs.









xloxlox a écrit :



moi j’aurais tendance a dire que c’est une reputation qu’on leur a fait , perso j’ai rien a signalé pourtant etant un joueur fps regulier je m’en sers pas pour une partie de solitaire (avec oc du proc , et crossfire et physx en hybrid … tout pour faire croire que ca va planter , mais que nenni) , au pire si de nouveau drivers te font constater de moins bonne perf en general tu repasses a la version précédente en attendant, c’est pas tres contraignant et encore une fois ca a du m’arriver une ou deux fois pour 5 fps dans un jeu, mais sinon rien de plus grave que ca, ca c’est mon experience de amd, et j’ajoute que vu le prix je peux prendre du haut de gamme regulierement et de le revendre… pour linux pareil , ok ca marchait pas avant , mais maintenant j’aurais tendance a dire (selon mon experience , sachant que j’ai une amd et une nvidia sur mon ordi sous linux) que c’est tout aussi inutilisable d’un coté comme de l’autre =&gt; amd fonctionne ok avec le driver libre si je me souviens bien, et nvidia a l’air de fonctionner mais les logs se remplissaient de messages d’erreur que je n’ai pas pu faire disparaitre malgre de nombreuse recherche sur le net … (bon peut etre qu’en reinstallant une nouvelle version … mais bon … la 3d n’etait pas une priorité sur cet ordi)







J’avoue que je ne comprends pas bien les reproches perpétuels sur les drivers AMD.

Je crois qu’ils se sont bien améliorés de ce côté-là depuis quelques années maintenant. Il y a eu quelques problèmes récemment mais est-ce que nvidia n’en a jamais eu ?

Je joue sur windows et sous linux avec les pilotes amd, essentiellement à starcraft 2 et brutal legend (sur linux) et ça marche très bien sur un OS comme sur l’autre.

Et maintenant j’ai installé steam sur linux et apparemment, il n’y a pas de problème.






Quels réglages à faire dans les pilotes ? A part remettre le surbalayage correctement parce que sinon ont a des bandes noires après la première installation des pilotes, il n’y a rien à régler ! Tout fonctionne out of the box !



Et puis Thief IV tout à fond à 80IPS, c’est cool <img data-src=" />


J’ai acheté deux cartes de chez ATI à l’époque où AMD ne l’avait pas encore grignoté. La première c’était une ATI Rage Pro donc ça date…



Quoiqu’il en soit, les deux cartes avaient des problèmes. On lisait même dans les magazines que ATI trichait sur les jeux en affichant pas toujours tous les sprites…



Chez NVIDIA, en dehors d’un retour pour carte défaillante, je n’ai jamais eu de problème. Toutes mes cartes ont toujours bien fonctionné et on duré.



J’évite donc les cartes ATI/AMD comme la peste. Je fais pareil pour d’autres marques comme Razer pour les souris :o



Donc oui, la réputation de NVIDIA joue beaucoup et ça ne concerne pas que moi. Un peu comme des marques comme ASUS qui a une très bonne réputation aussi. Cela ne veut pas dire qu’ils sortiront pas de la merde un jour.








Cacao a écrit :



J’ai acheté deux cartes de chez ATI à l’époque où AMD ne l’avait pas encore grignoté. La première c’était une ATI Rage Pro donc ça date…



Quoiqu’il en soit, les deux cartes avaient des problèmes. On lisait même dans les magazines que ATI trichait sur les jeux en affichant pas toujours tous les sprites…



Chez NVIDIA, en dehors d’un retour pour carte défaillante, je n’ai jamais eu de problème. Toutes mes cartes ont toujours bien fonctionné et on duré.



J’évite donc les cartes ATI/AMD comme la peste. Je fais pareil pour d’autres marques comme Razer pour les souris :o



Donc oui, la réputation de NVIDIA joue beaucoup et ça ne concerne pas que moi. Un peu comme des marques comme ASUS qui a une très bonne réputation aussi. Cela ne veut pas dire qu’ils sortiront pas de la merde un jour.







marrant je voulais pas en re-re-parler ayant peur de passer pour un troll , mais moi j’ai grillé 2 cartes , une 7600gt et un 460gtx … pareil , payer plus cher pour ca , aucun interet…

ensuite pour asus , tu penses qu’elles ont bonne réputation, mais je t’invite a aller voir certaines photos thermiques sur le net, comparé a d’autre je crains pour leur durée de vie, le probleme c’est de relayer de la propagande …









xloxlox a écrit :



marrant je voulais pas en re-re-parler ayant peur de passer pour un troll , mais moi j’ai grillé 2 cartes , une 7600gt et un 460gtx … pareil , payer plus cher pour ca , aucun interet…

ensuite pour asus , tu penses qu’elles ont bonne réputation, mais je t’invite a aller voir certaines photos thermiques sur le net, comparé a d’autre je crains pour leur durée de vie, le probleme c’est de relayer de la propagande …



Mais je ne relaye rien moi :)

Et je ne parle pas des cartes graphiques ASUS mais de ASUS en général qui a une bonne réputation, c’est un fait :)



La première pub de carte graphique, c’est quand même les jeux. On n’y parle que de ces deux là, par étonnant que les autres soient ignorés du public…








dodo021 a écrit :



Tu oublies de prendre en compte la consommation. Et oui quand tu paies ton électricité toi même c’est quelque chose que tu ne négliges pas. <img data-src=" />

Dans se domaine les cartes Nvidia sont bien meilleurs.







Prenons la conso max des cartes

Pour un indice de performance moyen identique, la consommation des cartes est vraiment proche :

R9 290X “quiet” : 219W

GTX780 “uber” (comprendre la MSI dans le tableau) : 216W

Après la moyenne masque le fait que la R9 va réduire sa fréquence dans les jeux gourmand pour limiter la chauffe, je te l’accorde (bien que la R9 290 Quiet reste devant GTX780 Uber dans Ann02070)

Mais même avec une grosse différence de conso (disons entre la R9 290X Uber et la GTX780 Uber), vu le prix du kilowattheure en france : 0,1372€, une machine qui fait du jeu 8h par jour, pendant un an, c’est 25€ d’écart. Sur des cartes qui ont coûté ~450€.









Charly32 a écrit :



Ca ne sert à rien de s’en prendre à Apple, c’est la dure loi des GPU mobiles.

Il est impossible d’avoir d’aussi gros GPU dans le mobile que dans le fixe, consommation et chaleur obligent.

Je ne pense pas qu’un GPU mobile coute plus cher à fabriquer (à nombre de transistors et archi identiques), en revanche il n’est pas impossible que les critères de tri soient plus restrictifs. De fait les cartes mobiles haut de gamme sont plus rares et plus chères. Ou alors c’est totalement artificiel et les fabricants ne se gênent pas pour se faire de grosse marges; la vérité doit être à mi chemin entre les deux options.









D’autant que dans le segment du All-in-One, l’iMac est probablement le meilleurs produits existant sur le marché. C’est l’un des bien trop rares à d’ailleurs avoir un vrai GPU (certes en MXM, mais un vrai GPU quand même avec la techno qui va avec.). Pour le prix, c’est à regarder de près, sur mes derniers devis, ils revenaient moins chers que leur “équivalents” chez Asus, mais ce n’est pas une généralité.









Charly32 a écrit :



A l’heure actuelle, je ne suis pas sur que que le monde linux grand public soit la principale préoccupation des fabricants de GPU.









En GP certes, mais en Pro, Nvidia fait beaucoup d’argent sur les Tesla et Quadro qui sont utilisées intensivement sous Linux (d’ou le très bon support Pro sous Linux). Le ROI de Nvidia associé à Linux est très bon.









Adakite a écrit :



En GP certes, mais en Pro, Nvidia fait beaucoup d’argent sur les Tesla et Quadro qui sont utilisées intensivement sous Linux (d’ou le très bon support Pro sous Linux). Le ROI de Nvidia associé à Linux est très bon.







Tout à fait, d’où ma précision sur le Grand Public.

D’ailleurs les pilotes font partie d’une des différence les plus notables entre GPU Pro et GP.









Charly32 a écrit :



Bref, c’est dommage pour AMD, qui paye sa partie logicielle médiocre alors que la partie matérielle est tout à fait compétitive.

Ils ont un gros soucis d’image aussi, j’ai l’impression qu’on voit plus souvent le logo nVidia que le logo AMD dans des évènements eSports.







Ouai enfin partie lolgicielle médiocre tout est relatif hein. Quand un pote a un problème de driver c’est souvent un mec qui a une nvidia. D’ailleurs de ce c^^oté là va falloir que nvidia debug un peu geforce experience, parce qu’un pote qui voulait mettre ses pilotes à jour via ce logiciel n’a jamais pu, lme logiciel au début lui indiquait qu’une nouvelle version était dispo(mais la vérification datait de quelques semaines et du coup yavait eu des maj entre deux)et après une nouvelle vérification le logiciel lui indiquait qu’il était à jour(il est en 331.40 hein, c’était il y a une semaine donc bon…



Par contre niveau logo j’ai jamais trouvé que celui d’AMD(enfin même à l’époque d’ATI)était très présent. D’ailleurs j’avais été surpris il y a quelques mois puisqu’en lançant un jeu j’avais vu le logo AMD, et c’était la première fois que je le voyais dans un jeu.







Beettoon a écrit :



Seulement 35% pour AMD? Je comprends pas comment c’est possible alors qu’ils ont systématiquement le meilleur rapport prix/perf ces dernières années.

Je veux bien croire que NVidia ait une meilleur image de marque avec leurs innovations, mais je pensait pas à voir une répartition 13 & 23.







Bah entre tous les mecs qui disent “Jveux une nvidia parce que AMD c’est trop nul” et tous les pc de marque acheté en magasin où les gens qui n’y connaissent rien ne regarde pas les composants vu qu’ils ne comprennent pas.









Charly32 a écrit :



Prenons la conso max des cartes

Pour un indice de performance moyen identique, la consommation des cartes est vraiment proche :

R9 290X “quiet” : 219W

GTX780 “uber” (comprendre la MSI dans le tableau) : 216W

Après la moyenne masque le fait que la R9 va réduire sa fréquence dans les jeux gourmand pour limiter la chauffe, je te l’accorde (bien que la R9 290 Quiet reste devant GTX780 Uber dans Ann02070)

Mais même avec une grosse différence de conso (disons entre la R9 290X Uber et la GTX780 Uber), vu le prix du kilowattheure en france : 0,1372€, une machine qui fait du jeu 8h par jour, pendant un an, c’est 25€ d’écart. Sur des cartes qui ont coûté ~450€.





ce qui est fatiguant avec les fanboys c’est qu’ils te sortent des conneries dans le genre , au lieu de te fatiguer a leur montrer qu’ils ont tort sinon tu te fatigueras pour rien vu qu’ils s’en foutent de la reponse en general , demande leur des sources :)









Adakite a écrit :



D’autant que dans le segment du All-in-One, l’iMac est probablement le meilleurs produits existant sur le marché. C’est l’un des bien trop rares à d’ailleurs avoir un vrai GPU (certes en MXM, mais un vrai GPU quand même avec la techno qui va avec.). Pour le prix, c’est à regarder de près, sur mes derniers devis, ils revenaient moins chers que leur “équivalents” chez Asus, mais ce n’est pas une généralité.







oui , achetez apple



ce qui est vachement enervant avec les fanboy aussi , c’est que quand un mec te dis que amd ne marche pas bien , c’est pas un gars qui a une amd … “j’ai entendu dire par un vendeur nvidia que amd ca marche pas bien” “ah ok” “oui achetez une titan z vous verrez vous aurez aucun souci, et puis je vous paie une biere aussi”








xloxlox a écrit :



ce qui est fatiguant avec les fanboys c’est qu’ils te sortent des conneries dans le genre , au lieu de te fatiguer a leur montrer qu’ils ont tort sinon tu te fatigueras pour rien vu qu’ils s’en foutent de la reponse en general , demande leur des sources :)







Pour le coup, c’est moi qui suis fanboy AMD <img data-src=" />

On ne peut nier que les geforce ont l’avantage conso et chauffe surtout dans le très haut de gamme (la 780Ti est hors d’atteinte à ce niveau).

Mais AMD n’est pas non plus à la ramasse, et une 20 aine de watts d’écart ne change pas complètement la donne, sur la facture EDF du moins.









Charly32 a écrit :



Pour le coup, c’est moi qui suis fanboy AMD <img data-src=" />

On ne peut nier que les geforce ont l’avantage conso et chauffe surtout dans le très haut de gamme (la 780Ti est hors d’atteinte à ce niveau).

Mais AMD n’est pas non plus à la ramasse, et une 20 aine de watts d’écart ne change pas complètement la donne, sur la facture EDF du moins.







si ca te saoule que ton amd consomme plus , faut baisser sa tension et tu consommeras moins, en utilisation quotidienne je suis largement en dessous des reglages par defaut , meme en jeu je peux descendre la tension sans que ca plante, donc tout est relatif … et heureusement qu’il y a un ou deux arguments pour nvidia sinon les mecs qui achetent ca serait vraiment a la ramasse pour l’instant c’est juste qu’ils ont les moyens d’essayer quelque chose de plus cher, moi ca me derange pas , tant que ca n’implique pas qu’on raconte des conneries mensongeres sur le concurrent pour lui batir une reputation non fondée … <img data-src=" /> (comme dit le matraquage de pub et de denigrement des concurrent fais partie de leur strategie aussi, normal vu qu’ils vendent plus cher … par contre ca devient drole quand ils n’arrivent plus a le justifier )



C’est mérité car leur produit son à mon sens bien plus fiable.

A chaque fois que je tente un passage AMD j’ai des soucis. Dernier en date une R9 280X qui a marché 2 jours. Du coup j’ai une GTX 770 et nickel.

Les drivers c’est aussi le jour et la nuit.








f4f_ender a écrit :



C’est mérité car leur produit son à mon sens bien plus fiable.

A chaque fois que je tente un passage AMD j’ai des soucis. Dernier en date une R9 280X qui a marché 2 jours. Du coup j’ai une GTX 770 et nickel.

Les drivers c’est aussi le jour et la nuit.







donc tu n’as pas de recul sur ta 280X … c’est lié a amd vraiment ton souci ?

tu peux m’expliquer ma gtx460 grillée et ma 7600gt grillé ? j’ai mis mon pc sur un barbek ? c’est surement la preuve d’un matos plus fiable … que tu aies eu une mauvaise experience ok, mais dire que nvidia est plus fiable pour moi c’est de la propagande, en général on va plutot voir au niveau des marques revendeurs pour voir les taux de retour que la marque gpu elle meme, pour parler de fiabilité, non ?



En effet c’est un ressenti et je dis bien “à mon sens”. Toujours est-il que tous mes essais ATI/AMD ce sont soldé par une déception et un échec pourtant je persiste et il n’est pas dit que je retente dans le futur.

J’ai acheté une ATI à l’époque ou le 3DFX commençait à se faire connaitre donc je suis pas un nouveau client chez eux.