GM204 : NVIDIA dévoile ses GeForce GTX 970 et 980, dès 324 euros

GM204 : NVIDIA dévoile ses GeForce GTX 970 et 980, dès 324 euros

Le tarif de la GTX 980 ? Comme Maxwell : fort de café !

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

19/09/2014 13 minutes
103

GM204 : NVIDIA dévoile ses GeForce GTX 970 et 980, dès 324 euros

Comme nous l'avions déjà évoqué, c'est cette nuit, à l'occasion de son Game 24, que NVIDIA a dévoilé ses nouvelles cartes graphiques haut de gamme : les GeForce GTX 970 et 980. Exploitant une puce GM204 basée sur une architecture Maxwell de seconde génération, elles veulent devenir une nouvelle référence en terme de rapport performances par watt, tout en apportant de nombreuses nouvelles fonctionnalités.

Si vous voulez lancer un produit tout en passant inaperçu, quelle meilleure date que celui de l'arrivée d'un nouvel iPhone et quelle meilleure heure pour la France que 4h30 du matin ? En d'autres circonstances, on aurait pu penser que NVIDIA cherchait à noyer le poisson pour l'arrivée de ses nouvelles GeForce GTX 970 et 980, mais cela ne pouvait pas être le cas.

Il faut dire que la marque a sorti les grands moyens. AMD avait en effet décidé d'organiser une petite après-midi à sa gloire récemment, afin de commencer à évoquer ses Radeon R9 285 (finalement assez décevantes), NVIDIA a donc décidé de frapper plus fort avec un évènement qui se déroule sur 24 heures, dans plusieurs pays. Une sorte de Téléthon géant, sauf qu'à la fin, vous ne donnez rien : vous achetez une nouvelle GeForce.

Maxwell v2 : NVIDIA attendu au tournant

Et autant dire que la nouvelle puce présentée aujourd'hui, la GM204, était attendue. En effet, c'est le premier GPU à se baser sur l'architecture Maxwell qui en est ici à sa seconde itération. La première avait déjà impressionné par son efficacité sur les GeForce GTX 750 (Ti), on avait donc hâte de voir si cela serait encore le cas avec la montée en gamme.

Car la tâche est déjà rude : faire mieux que le précédent GK104 tout en gardant la même finesse de gravure de 28 nm. Avec ses nouvelles générations, Hawaï et Tonga, AMD a réussi à améliorer les choses, mais ses produits ne sont pas vraiment à la hauteur au niveau du rapport performances par watt. La marque se rattrape donc du côté des tarifs qui baissent de mois en mois, et des bundles de jeux offerts.

NVIDIA a donc décidé de frapper là où cela fait mal, et a demandé à ses équipes d'aller encore plus loin là où son rival n'arrive pas à le suivre : non pas sur la performance pure, mais sur l'efficacité de la puce. Le but de la nouvelle architecture Maxwell était donc de remplacer Kepler et son GK104, notamment afin de mieux gérer les très hautes définitions, qui vont devenir la norme dans les années à venir. Le 1440p (2560 x 1440 pixels) devient un peu plus courant, surtout avec les modèles de 27 pouces et les écrans 4K sont de plus en plus abordables.

NVIDIA GM204 Slides

L'objectif affiché n'était pas le plus simple sur le papier : arriver à faire deux fois mieux en performances par watt. Et en théorie, la marque est allée au bout puisqu'elle annonce une GeForce GTX 980 qui frôle les 5 TFLOPS, avec un TDP de seulement 165 watts, soit presque 100 watts de moins que la GTX 780 et 30 watts de moins que la GTX 680.

GM204 : une puce modeste, mais surtout deux fois plus efficace que la GK104

Pour y parvenir, c'est un choix de compromis qui a été fait, avec un nombre d'unités inférieur au GK110, une puce de l'extrême qui avait été lancée pour tenter de répondre à l'arrivée des R9 290X d'AMD et qui pouvait monter jusqu'à 2880 CUDA Cores, pour 7,1 milliards de transistors et 551 mm². Il fallait néanmoins faire nettement mieux que le GK104, ses 1536 CUDA Cores et ses 3,54 milliards de transistors tenant dans 294 mm².

Au final, on se retrouve donc avec 2048 CUDA Cores, 5,2 milliards de transistors et 394 mm². La densité au niveau de la finesse de gravure est donc un peu meilleure, mais il faut un peu plus de transistors au sein de la puce pour un même nombre d'unités. Il faut dire que l'organisation a été revue, comme nous l'avions évoqué à l'occasion de l'arrivée des GeForce GTX 750 (Ti) et la première version de Maxwell. 

NVIDIA GM204

Il est donc désormais question de quatre GPC (Graphics Processing Cluster), comprenant chacun quatre SM (Streaming Multiprocessor), soit un total de 16 SM. Pour rappel, dans la 750 Ti, on retrouvait cinq SM par GPC, ce qui indique que le découpage a été renforcé un peu plus ici. Chacun de ces 16 blocs dispose d'un moteur de gestion de la géométrie de troisième génération : le Polymorph Engine 3.0 Il est annoncé comme deux à trois fois plus efficace que celui du GK104. On retrouve aussi huit unités de texturing, un cache L1, un cache d'instruction et une mémoire partagée de 96 ko. 

Ensuite, on retrouve à nouveau un découpage en quatre groupes de 32 CUDA Cores qui disposent chacun de leur propre buffer d'instruction, d'un registre, d'un scheduler, et de deux unités de dispatch permettant d'alimenter tout ce petit monde. On retrouve aussi une unité de fonctions spéciales (SFU) et de Load/Store (LD/ST) tous les quatre CUDA Cores.

NVIDIA GM204

Cela n'a donc pas vraiment changé par rapport à la première génération de Maxwell cette fois, si ce n'est la taille de la mémoire partagée qui passe de 64 ko à 96 ko. La puce annonce donc 128 unités de texturing, 64 ROPs (4x16) et se partage un cache L2 de 2 Mo qui a été multiplié par trois par rapport au GK104. Il est aussi plus important que dans le GK110 (1.5 Mo).

Du côté de l'interface mémoire, par contre, cela évolue peu sur les chiffres puisqu'il est question de 256 bits (4x64 bits). Grâce à l'utilisation d'une mémoire plus rapide (3.5 GHz) il est néanmoins possible de grimper à 224 Go/s de bande passante annoncée, NVIDIA indique avoir aussi travaillé ses algorithmes de compression sans perte pour les données écrites en mémoire. Avec l'amélioration du cache, la marque indique avoir réussi à réduire de 15 à 30 % les besoins en bande passante, permettant ainsi de mieux exploiter celle-ci. 

Sa puce comprenant moins d'unités qu'un GK110, et malgré une architecture plus efficace, il fallait tout de même que NVIDIA compense cette différence afin de proposer un produit à la hauteur des GeForce GTX 780 (Ti). C'est donc au niveau de la fréquence que cela s'est joué. Car les équipes ont réussi semble-t-il à produire un GM104 qui tient tout de même les 1216 MHz en Turbo et 1126 MHz en fréquence de base, ce qui permet d'arriver à peu près au même niveau de puissance que le haut de gamme précédent.

Une GeForce GTX 970 bien placée 

Notez que la GeForce GTX 980 n'est pas seule, puisqu'elle est accompagnée d'une petite sœur : la GTX 970. Celle-ci se contente de 13 SM et donc de 1664 CUDA Cores (toute blague d'amateur de bière étant interdite) et 104 unités de texturing. Sa fréquence baisse aussi (1050/1178 MHz) mais elle a droit au même nombre de ROPs (64) et à des caractéristiques identiques au niveau de la mémoire : 256 bits, 3.5 GHz et 224 Go/s.

Le tout pour un TDP de 145 watts seulement (deux connecteurs d'alimentations PCIe à six broches étant nécessaire pour chaque carte). Les deux modèles devraient être assez proches en terme de performances, avec un écart de 20/25 % environ. 

NVIDIA GM204 Slides

VGXI, VR, MFAA et DSR : Les acronymes d'une génération

NVIDIA a bien entendu apporté quelques nouveautés complémentaires avec ces puces, qui sont compatible DirectX 12, comme les autres puces Kepler et Maxwell. Il est ainsi question de performances améliorées pour les applications qui utilisent son VGXI (Voxel Global Illumination), d'une réduction de la latence afin de mieux gérer les casques de réalité virtuelle. Cela passe par une réduction de la part de l'OS, mais aussi par l'utilisation d'un système de mise à jour de l'image plutôt que d'un rendu complet à chaque fois ou de l'utilisation du MFAA.

Car qui dit nouvelle architecture, dit nouveau système de gestion de l'Aliasing. Ici, NVIDIA indique qu'il proposera un système annoncé comme plus efficace grâce à une fonctionnalité introduite dans ses nouvelles puces permettant de programmer la position des samples. Cela ne sera donc pas exploitable sur les générations précédentes.

NVIDIA GM204 SlidesNVIDIA GM204 Slides

Le but est donc ici de faire alterner leur position d'une image à l'autre afin de disposer d'un rendu assez proche de ce que l'on aurait eu avec un MSAA 4x tout en se limitant à deux samples, et donc en améliorant drastiquement les performances. Malheureusement, cette fonctionnalité ne pouvait pour le moment pas être exploitée au niveau des pilotes. 

Une autre fonctionnalité mise en avant par la marque : la Dynamic Super Resolution. Ici, le but est de calculer l'image dans une définition plus grande, et de la réduire à l'affichage sur l'écran. Une espèce de filtre AA généralisé, mais qui est géré de manière un peu différente. En effet, il vous suffit d'activer dans les pilotes des coefficients multiplicateurs afin de disposer de définitions supplémentaires aussi bien sous Windows que dans les jeux. Pour réduire certains effets, un filtre gaussien peut être appliqué, via un paramètre allant de 0 à 100 %.

NVIDIA GM204 Slides

Si cela permettra de réduire certains effets, ce n'est pas parfait dans la pratique. En effet, nos premiers tests montrent que quelques jeux n'aiment pas trop cette méthode et se mettent à planter. De plus, certains coefficients auront pour effet d'avoir un affichage vraiment mauvais, notamment au niveau des polices de texte. Impossible à mettre en lumière via des captures simplement (celles-ci étant prises à la définition calculée), nous avons mis en place un système afin de pouvoir vous rendre compte du rendu final. Nous y reviendrons dans une prochaine analyse.

Quoi qu'il en soit, avec du 1.5x ou 2x, cela améliore le rendu de la scène, mais avec une baisse importante au niveau des performances. Sous WoW, nous sommes ainsi passés de 112 fps en 2560x1440 à 63 fps en 3840x2160 et à 39 fps en 5120x2880. Autant dire que NVIDIA a trouvé de quoi justifier le besoin d'un système SLI.

HDMI 2.0 et arrivée du H.265 dans NVENC

Le dernier point sur lequel NVIDIA innove vient de la partie vidéo : désormais le HDMI 2.0 est supporté ! C'est ainsi la première carte à l'annoncer et il sera donc possible de connecter un écran 4K via cette connectique afin de profiter d'un rendu à 60 Hz. La définition maximale supportée est le 5120 x 3200 @ 60 Hz, et quatre moniteurs peuvent toujours être connectés.

Désormais, trois écrans G-Sync pourront aussi être exploités en mode « Surround ». Pour ce qui est de la norme DisplayPort, c'est la version 1.2 qui est de la partie, la 1.3 venant seulement d'être validée. Par défaut, une GeForce GTX 980 propose ainsi cinq sorties : trois DP 1.2, une HDMI 2.0 et une DVI-DL. On appréciera aussi l'arrivée d'une backplate noire à l'arrière du PCB.

GeForce GTX 980GeForce GTX 980

Les adeptes du H.265 (HEVC) seront aussi ravis d'apprendre que cette norme est supportée par NVENC, le moteur de compression de NVIDIA. Il n'est par contre pas exploitable de l'extérieur pour le moment et la marque s'en sert uniquement pour deux cas : ShadowPlay, son système de capture vidéo et de streaming, mais aussi GameStream qui permet des échanges avec un produit de la gamme Shield (tablette, console portable, etc.). La décompression n'est par contre pas gérée.

NVIDIA indique aussi avoir amélioré les performances au niveau de la gestion du H.264 par un facteur de 2.5. Cela permet d'activer un mode de compression en 4K à 60 Hz, qui est désormais intégré au sein de Shadow Play.

Au final, NVIDIA semble donc nous avoir conçu deux bons produits. Les TDP annoncés sont assez bas pour des modèles de cette trempe, et nos premiers tests (sur lesquels nous reviendrons plus en détail dans la journée) confirment les éléments annoncés. Une GeForce GTX 980 se retrouve ainsi au niveau de la GTX 780 Ti en termes de performances, mais avec 80 watts de moins consommés à la prise !

NVIDIA à tout bon, même sur la dénomination... mais le tarif de la GTX 980 fait tache

Bref, c'est du très bon travail. Le ventirad de référence utilisé ne change quasiment pas, la taille est de même dimension et l'ensemble reste parfaitement silencieux grâce à la gestion de la température toujours aussi plaisante. La carte ne dépassera donc pas les 80°C et ne sera pas limitée en performances par cette limite.

La dénomination des cartes aura l'avantage de ne pas être trompeuse puisque l'on change ici clairement de génération. Certains pourraient être chagrinés de voir les 750 (Ti) un peu exclues, mais elles font aussi partie d'une ancienne gamme, et il est plus logique pour NVIDIA de chercher à casser les noms des références après le bloubi-boulga des deux séries précédentes. 

Reste une question : le prix. Avec 324 euros annoncés pour la GeForce GTX 970, cela risque bien d'être un produit d'exception assez abordable, surtout qu'il fait face à la Radeon R9 290 qui est elle même proposée aux alentours de 350 euros. AMD va donc sans doute devoir réagir. Le cas de la GTX 980 est par contre plus problématique. Avec 20/25 % de performances en plus, le prix annoncé est de 542, soit 220 euros et 67 % de plus. Un tarif incompréhensible, sur lequel on espère que NVIDIA reviendra rapidement. Cela peut aussi cacher un souci pour fabriquer un nombre suffisant de puces fonctionnelles pour le moment.... affaire à suivre.

Quoi qu'il en soit, les revendeurs sont dans les starting-blocs et les nouvelles GeForce sont d'ores et déjà disponibles, parfois en stock. LDLC propose ainsi les GTX 970 à partir de 329,95 euros, contre 549,95 euros pour les GTX 980. Même chose ou presque chez Top Achat ainsi que chez Materiel.net. Que ce soit du côté des GeForce GTX 970 ou des 980, on trouve certaines cartes en stock, mais pas toutes.

Vous retrouverez les tests de nos différents confrères ci-dessous :

En français :

En anglais :

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Maxwell v2 : NVIDIA attendu au tournant

GM204 : une puce modeste, mais surtout deux fois plus efficace que la GK104

Une GeForce GTX 970 bien placée 

VGXI, VR, MFAA et DSR : Les acronymes d'une génération

HDMI 2.0 et arrivée du H.265 dans NVENC

NVIDIA à tout bon, même sur la dénomination... mais le tarif de la GTX 980 fait tache

Fermer

Commentaires (103)


Merci pour l’article . Je l’attendais. C’est la nouvelle du jour qui est plutôt bonne d’ailleurs quand au perf/Prix surtout de la GTX 970.

J’ai par contre toujours un doute sur le Surround de NVIDIA avec 1 CG: Est il possible de gerer 3 ecrans “Non G-sync” sur un CG de Nvidia ou on reste coincé à 2 ecrans par CG? Merci








Anna Lefeuk a écrit :



Merci pour l’article . Je l’attendais. C’est la nouvelle du jour qui est plutôt bonne d’ailleurs quand au perf/Prix surtout de la GTX 970.

J’ai par contre toujours un doute sur le Surround de NVIDIA avec 1 CG: Est il possible de gerer 3 ecrans “Non G-sync” sur un CG de Nvidia ou on reste coincé à 2 ecrans par CG? Merci





Les Geforce gèrent 3 écrans depuis la série 500 si je ne m’abuse.









Ellierys a écrit :



Les Geforce gèrent 3 écrans depuis la série 500 si je ne m’abuse.












4 sauf erreur!



Ce que j’en retiens vu les bench, c’est que ça sert à rien de changer depuis une 290X








Ellierys a écrit :



Les Geforce gèrent 3 écrans depuis la série 500 si je ne m’abuse.









merci



Aaaah je pensais bien que les constructeurs allaient pousser des features “spécifiques” à l’Occulus Rift (et autre casque VR)http://www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/5

<img data-src=" />








Ellierys a écrit :



Les Geforce gèrent 3 écrans depuis la série 500 si je ne m’abuse.







J’ai lu ici que ces cartes peuvent gérer simultanément 4 écrans.



Il me faudrait une GTX980 avec deux sorties DVI-D Dual Link et un HDMI. C’est possible <img data-src=" /> ?









jeje07 a écrit :



4 sauf erreur!









chaps a écrit :



J’ai lu ici que ces cartes peuvent gérer simultanément 4 écrans.



Il me faudrait une GTX980 avec deux sorties DVI-D Dual Link et un HDMI. C’est possible <img data-src=" /> ?





La question initiale portait sur trois écrans, j’ai répondu pour trois écrans <img data-src=" />



Edit : contrôle anti-dopage négatif pour la caféine









Ellierys a écrit :



La question initiale portait sur trois cartes, j’ai répondu pour trois cartes <img data-src=" />







Avec 3 cartes, oui, on peut gérer 3 écrans aussi <img data-src=" />









chaps a écrit :



Avec 3 cartes, oui, on peut gérer 3 écrans aussi <img data-src=" />





Damned









Ellierys a écrit :



La question initiale portait sur trois écrans, j’ai répondu pour trois écrans <img data-src=" />



Edit : contrôle anti-dopage négatif pour la caféine







gné ?



“Une sorte de Téléthon géant, sauf qu’à la fin, vous ne donnez rien : vous achetez une nouvelle GeForce.”



<img data-src=" />








Ellierys a écrit :



Edit : contrôle anti-dopage négatif pour la caféine





C’est vendredi, c’est permis !









jeje07 a écrit :



gné ?







Question :

La carte peut-elle gérer 3 écrans ?



Réponse :

Oui, la carte peut gérer 3 écrans.





En fait elle peut même en gérer 4, mais cette précision n’est pas obligatoire pour répondre à la question.



Captain Leynas Obvious









chaps a écrit :



Question :

La carte peut-elle gérer 3 écrans ?



Réponse :

Oui, la carte peut gérer 3 écrans.





En fait elle peut même en gérer 4, mais cette précision n’est pas obligatoire pour répondre à la question.



Captain Leynas Obvious









<img data-src=" />









RinSa a écrit :



Ce que j’en retiens vu les bench, c’est que ça sert à rien de changer depuis une 290X





Si tu paies l’électricité oui <img data-src=" />



J’attends les tests sur les moteurs de rendu comme Octane render et Blender Cycles. Car le nombre de Cuda core est léger selon moi pour du calcul de puissance








RinSa a écrit :



Ce que j’en retiens vu les bench, c’est que ça sert à rien de changer depuis une 290X





Carrément pas ! L’apport en perf’ n’est sans doute pas assez important ! Mais quelques fois on peut se faire un petit plaisir <img data-src=" /> !



En tout cas, avec la 970 Nvidia tape fort, et je suis curieux de voir la réponse d’AMD, c’est là que tu te dit : “la concurrence cay bien”. Pour ma part ma vieillissante 6870 m’oblige à pas mal tweaker mais ne m’empêche pas non plus de jouer, mais un de ces jours je changerais de CG, alors je suis curieux de voir les évolutions apporter ci et là par les deux ! Même si je me tournerais sans doute vers du AMD.

Mais belle optimisation des Nvidia tout de même ! Bravo !



Edit : Je sais pas ce que donne le système SLI et si il fonctionne bien mais les 970 vu leur maitrise et leur bonne perf/ prix deviennent au passage une bonne carte à mettre en SLI non ?



Curieux de voir la réaction des rouges en effet car la 970 c’est clairement une agression^^ contre les 290X..bref une petite baisse de prix fera du bien.



Je cherche à remplacer ma GTX 680….que le monde est mal fait ..Niark Niark<img data-src=" />


Il va être intéressant de comparer les modèle customs de 970 maintenant <img data-src=" />



Apparemment :




  • La Gigabyte est performante mais bruyante.

  • La MSI est silencieuse et bon marché (335€)

  • La Asus est silencieuse mais plus chère (370€)

  • La EVGA est (comme d’hab) hors de prix (420€)



    Hâte de voir un test de la Zotac car c’est la moins chère à 330€.


Moi qui tourne avec un SLI de GTX 480, je pense que je verrai bien la différence de consommation (et de température) en passant à une simple GTX980 <img data-src=" />. Et tout en gagnant un peu en perfs au passage <img data-src=" /> !



Le seul problème c’est que j’ai 2 écrans branchés en DVI et 1 branché en HDMI. Je peux garder une GTX480 en deuxième carte, mais dans ce cas l’écran que je brancherai dessus ne profitera pas de la puissance de la GTX980.



J’crois que j’vais devoir attendre des versions custom…


La version msi overclockée usine de la 970 a l’air vraiment cool <img data-src=" />








chaps a écrit :



Moi qui tourne avec un SLI de GTX 480, je pense que je verrai bien la différence de consommation (et de température) en passant à une simple GTX980 <img data-src=" />. Et tout en gagnant un peu en perfs au passage <img data-src=" /> !



Le seul problème c’est que j’ai 2 écrans branchés en DVI et 1 branché en HDMI. Je peux garder une GTX480 en deuxième carte, mais dans ce cas l’écran que je brancherai dessus ne profitera pas de la puissance de la GTX980.



J’crois que j’vais devoir attendre des versions custom…







pas compris…. pkoi tu veux garder une GTX 480???

la GTX 980 gère 4 écrans



Bien, ca annonce une baisse de prix des 290 <img data-src=" />


Je ne comprends pas trop le concept de miser tout sur l’efficacité énergétique… C’est cool que ça soit plus efficace et tout, mais ce sont des cartes graphiques desktop! Quel genre de gamer desktop se soucie qu’une carte consomme 80W en moins, en vrai? Moi ça me passe un peu au-dessus de la tête! Cette 970 va être quoi, 50% plus puissante qu’une 570 d’il y a 3 ans? Qu’il est loin le temps où les performances doublaient chaque année!



J’espère qu’ils vont se sortir les doigts de l’oignon un de ces 4 parce que là c’est clairement pas assez puissant pour la 4K: à l’heure qu’il est, aucune carte graphique mono-core n’est capable de faire tourner un jeu en 4K avec les mêmes détails et la même fluidité qu’une 480 est capable de le faire en Full HD. Ce qui veut dire qu’un passage en 4K natif va être un retour en arrière de 5 ans au niveau de la qualité du rendu! Pas glop du tout!!!



Super déçu là pour le coup…


Hérétique, tu seras bruler sur le bucher du monde merveilleux de l’ile aux enfants, des casimirs danseront sur ton corps crépitant de douleur pour cet affront. <img data-src=" />

(je sais c’est un peu théâtrale mais on est vendredi).



C’est Gloubi-Boulga et non bloubi-boulga !! dafuk ;)



Sinon je vais pouvoir remplacer ma GTX 770 qui marche toujours très bien en bi-écran 27 + 24 sous à peu près tous les jeux récents … ou pas :-x








jeje07 a écrit :



pas compris…. pkoi tu veux garder une GTX 480???

la GTX 980 gère 4 écrans







Parce que sur la GTX980, il n’y a qu’une seule sortie DVI-D Dual Link. Et il m’en faut deux !









chaps a écrit :



Parce que sur la GTX980, il n’y a qu’une seule sortie DVI-D Dual Link. Et il m’en faut deux !







t’as des écrans en 4k ?



edit : ah non pigé <img data-src=" />









Adrian Shephard a écrit :



Je ne comprends pas trop le concept de miser tout sur l’efficacité énergétique… C’est cool que ça soit plus efficace et tout, mais ce sont des cartes graphiques desktop! Quel genre de gamer desktop se soucie qu’une carte consomme 80W en moins, en vrai?







Pour avoir un PC qui dépasse les 700W en jeu, je peux t’assurer qu’au final jouer sans le bruit permanent d’un A380 au décollage ne serait pas si mal. Sans compter la température infernale au sein du boitier si je le laisse fermé.









Adrian Shephard a écrit :



Je ne comprends pas trop le concept de miser tout sur l’efficacité énergétique… C’est cool que ça soit plus efficace et tout, mais ce sont des cartes graphiques desktop! Quel genre de gamer desktop se soucie qu’une carte consomme 80W en moins, en vrai?







Les gens qui n’aiment pas jouer au dessus d’une soufflerie.

C’est d’autant plus important si tu as plusieurs cartes.









chaps a écrit :



Question :

La carte peut-elle gérer 3 écrans ?



Réponse :

Oui, la carte peut gérer 3 écrans.





En fait elle peut même en gérer 4, mais cette précision n’est pas obligatoire pour répondre à la question.



Captain Leynas Obvious





Faut jamais répondre trop aux questions, sinon, ça en amène d’autres <img data-src=" />





dodo021 a écrit :



Si tu paies l’électricité oui <img data-src=" />





Manque pas un “pas” ?





chaps a écrit :



Moi qui tourne avec un SLI de GTX 480, je pense que je verrai bien la différence de consommation (et de température) en passant à une simple GTX980 <img data-src=" />. Et tout en gagnant un peu en perfs au passage <img data-src=" /> !



Le seul problème c’est que j’ai 2 écrans branchés en DVI et 1 branché en HDMI. Je peux garder une GTX480 en deuxième carte, mais dans ce cas l’écran que je brancherai dessus ne profitera pas de la puissance de la GTX980.



J’crois que j’vais devoir attendre des versions custom…





Et sinon, les adapteteurs DP-&gt;DVI-DL tu sais que ça existe ?





chaps a écrit :



Parce que sur la GTX980, il n’y a qu’une seule sortie DVI-D Dual Link. Et il m’en faut deux !





Roh… quand même… tu sais pas qu’il existe des adaptateurs ?

Regarde les bundles, y’en aura pitete dans certains :)









Adrian Shephard a écrit :



Je ne comprends pas trop le concept de miser tout sur l’efficacité énergétique… C’est cool que ça soit plus efficace et tout, mais ce sont des cartes graphiques desktop! Quel genre de gamer desktop se soucie qu’une carte consomme 80W en moins, en vrai? Moi ça me passe un peu au-dessus de la tête! Cette 970 va être quoi, 50% plus puissante qu’une 570 d’il y a 3 ans? Qu’il est loin le temps où les performances doublaient chaque année!





Quand t’en auras marre de faire des dons caritatifs à EDF tu comprendras



Mouarf la Zotac GTX 970 et ses 20,3 cm va surement finir dans mon mini-itx <img data-src=" />








Adrian Shephard a écrit :



Je ne comprends pas trop le concept de miser tout sur l’efficacité énergétique… C’est cool que ça soit plus efficace et tout, mais ce sont des cartes graphiques desktop! Quel genre de gamer desktop se soucie qu’une carte consomme 80W en moins, en vrai?







Moi ! moi ! moi ! <img data-src=" />



J’aimerai bien avoir un PC qui ne donne pas l’impression de s’envoler quand je lance un jeu 3D ou que je pousse un peu sur des appli 3D <img data-src=" />









Adrian Shephard a écrit :



Je ne comprends pas trop le concept de miser tout sur l’efficacité énergétique… C’est cool que ça soit plus efficace et tout, mais ce sont des cartes graphiques desktop! Quel genre de gamer desktop se soucie qu’une carte consomme 80W en moins, en vrai? Moi ça me passe un peu au-dessus de la tête! Cette 970 va être quoi, 50% plus puissante qu’une 570 d’il y a 3 ans? Qu’il est loin le temps où les performances doublaient chaque année!



J’espère qu’ils vont se sortir les doigts de l’oignon un de ces 4 parce que là c’est clairement pas assez puissant pour la 4K: à l’heure qu’il est, aucune carte graphique mono-core n’est capable de faire tourner un jeu en 4K avec les mêmes détails et la même fluidité qu’une 480 est capable de le faire en Full HD. Ce qui veut dire qu’un passage en 4K natif va être un retour en arrière de 5 ans au niveau de la qualité du rendu! Pas glop du tout!!!



Super déçu là pour le coup…







Est ce que la 4K est si important sur du 27” ou moins en desktop ? Faudrait chercher le dpi et voir si l’œil y trouve son compte.



La 4K en salon sur écran maouss, je ne dis pas. Mais moi perso, pas besoin d’une carte overburnée pour mon bureau.









Adrian Shephard a écrit :



Je ne comprends pas trop le concept de miser tout sur l’efficacité énergétique… C’est cool que ça soit plus efficace et tout, mais ce sont des cartes graphiques desktop! Quel genre de gamer desktop se soucie qu’une carte consomme 80W en moins, en vrai? Moi ça me passe un peu au-dessus de la tête! Cette 970 va être quoi, 50% plus puissante qu’une 570 d’il y a 3 ans? Qu’il est loin le temps où les performances doublaient chaque année!



J’espère qu’ils vont se sortir les doigts de l’oignon un de ces 4 parce que là c’est clairement pas assez puissant pour la 4K: à l’heure qu’il est, aucune carte graphique mono-core n’est capable de faire tourner un jeu en 4K avec les mêmes détails et la même fluidité qu’une 480 est capable de le faire en Full HD. Ce qui veut dire qu’un passage en 4K natif va être un retour en arrière de 5 ans au niveau de la qualité du rendu! Pas glop du tout!!!



Super déçu là pour le coup…







Dans une certaine mesure ton raisonnement a une certaine logique, sauf que il y a aussi un rapport consommation et température… Pour ma part la consommation n’est pas le point le plus important lorsque je choisi une CG mais faut quand même la connaitre, pour ta marge de manoeuvre vis à vis de ton alimentation.



Puis pour la 4K je pense qu’on va finir sur de l’upscaling à l’avenir, car il est vrai que c’est difficile aujourd’hui de se dire qu’on va faire “normalement tourner” du 4K comme on ferait tourner du FHD en natif sans sortir des cartes excessivement chère…

Mais là aussi (et ça ne concerne que mon avis) n’ayant pas envie d’aller jouer à 1 mètre de mon écran et de rester sur 22” près de celui ci, ça me dérange pas vraiment. Puis quel jeu supporte correctement ce genre de résolution ?



Edit : C’est des vrais questions, je troll pas ! J’avais vu il y a un temps cette image d’un jeu (Lego je crois… ?) où en grosse résolution ça créait des trucs bizarres…









StPierre2 a écrit :



Est ce que la 4K est si important sur du 27” ou moins en desktop ? Faudrait chercher le dpi et voir si l’œil y trouve son compte.



La 4K en salon sur écran maouss, je ne dis pas. Mais moi perso, pas besoin d’une carte overburnée pour mon bureau.







c’est exactement le contraire!



le 4k se justifie largement plus sur PC que sur une TV! notamment parce que et surtout le recul est beaucoup plus faible sur un moniteur de 20 - 27pouces que pour une tv de 40 - 60 pouces.

et le 4k se justifie surtout sur du texte : word, pdf, internet, etc…. sur un 24 pouces, on passe de 95 DPI en HD à 180 DPI en 4K, et le gain est juste ENORME.

sur du jeu, le 4k se justifie moins parce que en jeu l’image est en mouvement perpétuel et on est moins sensible aux détails que sur une image statique.









StPierre2 a écrit :



Est ce que la 4K est si important sur du 27” ou moins en desktop ? Faudrait chercher le dpi et voir si l’œil y trouve son compte.



La 4K en salon sur écran maouss, je ne dis pas. Mais moi perso, pas besoin d’une carte overburnée pour mon bureau.







Je crois qu’il y a encore un peu de marge. L’année dernière je me suis procuré un Nexus 5: 1920x1080 sur seulement 5 pouces de diagonale.



Depuis que j’ai ce téléphone, je remarque tous ces vilains gros pixels sur le 27” de l’ordinateur, à la même résolution.



Pour la question de la consommation, c’est une bonne nouvelle que Nvidia aille dans ce sens. Je remarque une différence notable sur la facture d’électricité quand je suis en vacances! Environ $30 de plus par mois mine de rien. Sur l’année, ça fait le prix d’une nouvelle carte. Upgrader la CG va presque devenir un investissement.



cool, le prix des 770 va fondre <img data-src=" />


C’est vendredi, vous pouvez troller, et je peux modérer <img data-src=" />


La 970 me plairait bien dit donc!

Par contre j’ai une bonne vieille Alim 400w qui n’a qu’un connecteur PCI-e en 6 pin et je me demande dsi elle tiendra la distance avec ce type de carte!



Des alims à conseiller si je passe à cette CG?








the_Grim_Reaper a écrit :



Et sinon, les adapteteurs DP-&gt;DVI-DL tu sais que ça existe ?



Roh… quand même… tu sais pas qu’il existe des adaptateurs ?

Regarde les bundles, y’en aura pitete dans certains :)







Sauf erreur de ma part, les adaptateurs passifs ne gèrent que le DVI-D Single Link. Et les adapteurs actifs coûtent plus de 100€.



J’ai besoin de deux ports DVI-D Dual Link (un moniteur en 2560x1600, et l’autre en 1920x1080 à 120Hz).









240-185 a écrit :



Quand t’en auras marre de faire des dons caritatifs à EDF tu comprendras







C’est pas forcément un argument très valable ça. 80W d’économie ça fait à peu près 100€/an si ta carte graphique tourne à 100% 2424 toute l’année. Combien de temps par jour ton PC fait tourner sa carte graphique à 100% de puissance? Même si c’est 4h/jour ça te fera 1.5€/mois. Une paille comparée au prix de ta config que tu renouvelles en partie tous les 2 ans.

D’ailleurs sans vouloir troller une bonne partie de l’année la consommation de ton PC rentre dans le budget chauffage :) . Finalement le surcoût en électricité à ce niveau-là c’est juste pas quelque chose dont je me soucie, compte tenu du fait que le jeu vidéo c’est une de mes activités principales.







yvan a écrit :



Les gens qui n’aiment pas jouer au dessus d’une soufflerie.

C’est d’autant plus important si tu as plusieurs cartes.







Ça ça me parle déjà plus. Mais c’est justement de là que vient ma frustration: je joue en Full HD 3D et pour cette raison j’ai cru bon d’acheter un SLI de 570 il y a deux ans et demie. Le bruit monstrueux que cela génère en pleine charge me fait attendre avec impatience la génération de GPU mono-core capable de remplacer mon SLI sans perte de perf. Apparemment, je vais devoir attendre encore un bout de temps!







StPierre2 a écrit :



Est ce que la 4K est si important sur du 27” ou moins en desktop ? Faudrait chercher le dpi et voir si l’œil y trouve son compte.



La 4K en salon sur écran maouss, je ne dis pas. Mais moi perso, pas besoin d’une carte overburnée pour mon bureau.







Mouaip je joue sur projo dans mon salon, comme de plus en plus de gens le font! La 4K serait définitivement un plus!









jeje07 a écrit :



c’est exactement le contraire!



le 4k se justifie largement plus sur PC que sur une TV! notamment parce que et surtout le recul est beaucoup plus faible sur un moniteur de 20 - 27pouces que pour une tv de 40 - 60 pouces.

et le 4k se justifie surtout sur du texte : word, pdf, internet, etc…. sur un 24 pouces, on passe de 95 DPI en HD à 180 DPI en 4K, et le gain est juste ENORME.

sur du jeu, le 4k se justifie moins parce que en jeu l’image est en mouvement perpétuel et on est moins sensible aux détails que sur une image statique.









Malkomitch a écrit :



Je crois qu’il y a encore un peu de marge. L’année dernière je me suis procuré un Nexus 5: 1920x1080 sur seulement 5 pouces de diagonale.



Depuis que j’ai ce téléphone, je remarque tous ces vilains gros pixels sur le 27” de l’ordinateur, à la même résolution.



Pour la question de la consommation, c’est une bonne nouvelle que Nvidia aille dans ce sens. Je remarque une différence notable sur la facture d’électricité quand je suis en vacances! Environ $30 de plus par mois mine de rien. Sur l’année, ça fait le prix d’une nouvelle carte. Upgrader la CG va presque devenir un investissement.







Wikipédia



Perso, je suis à 80 cm max de mon écran. Donc pas besoin de +100 dpi selon wikipédia. En plus, j’ai un début de myopie mais je conçois que ce ne soit pas le cas de tous.



Si la 4K me fait des polices plus petites, vais devoir me rapprocher un tantinet.





Ceci dit, merci pour vos retour.









StPierre2 a écrit :



Wikipédia



Perso, je suis à 80 cm max de mon écran. Donc pas besoin de +100 dpi selon wikipédia. En plus, j’ai un début de myopie mais je conçois que ce ne soit pas le cas de tous.



Si la 4K me fait des polices plus petites, vais devoir me rapprocher un tantinet.





Ceci dit, merci pour vos retour.







80 cm max et au minimum? je doute que tu sois à 80cm pour un usage internet / pdf / texte / travail. sur du jeu, ok, pour le reste, je pense pas.

c’est plutot 50-60 cm









Adrian Shephard a écrit :



Ça ça me parle déjà plus. Mais c’est justement de là que vient ma frustration: je joue en Full HD 3D et pour cette raison j’ai cru bon d’acheter un SLI de 570 il y a deux ans et demie. Le bruit monstrueux que cela génère en pleine charge me fait attendre avec impatience la génération de GPU mono-core capable de remplacer mon SLI sans perte de perf. Apparemment, je vais devoir attendre encore un bout de temps!







Ton SLI de GTX570 est comparable à mon SLI de GTX480 en termes de perfs (mais le mien consomme encore plus <img data-src=" />). Et cette nouvelle GTX980 est plus puissante que nos SLI <img data-src=" />









jeje07 a écrit :



80 cm max et au minimum? je doute que tu sois à 80cm pour un usage internet / pdf / texte / travail. sur du jeu, ok, pour le reste, je pense pas.

c’est plutot 50-60 cm







Allez disons 50 cm pour faire le mini (mauvais posture inside).



A 50cm dpi max conseillé = 152 dpi.



Sur un écran de 27” de diagonale, on a la longueur de 23.53” et la hauteur de 13.23”



Si on garde le taux de 152 dpi, on a une résolution optimale minimale (pour soulager la carte graphique de 3576 * 2010. La 4K en 16:9 est au delà (3840 × 2160) et présente donc déjà du pixel inutile soit 7%. Et si on a le malheur de se reculer (60 cm ? Mais vous êtes fou !), on augmente très vite le nombre de pixels inutiles.



Et on parle d’un 27 pouce hein, les 24” et consorts sont hors course.



Maintenant, je suis d’accord pour dire que d’autres applications ont besoin de résolutions supérieurs à la HD (J’ai personnellement pu tester la bouillie de pixel en 720p du premier Rift d’Occulus)





Tout ça pour dire qu’on a pas besoin dans l’immédiat de penser 4K pour nos jeux vidéo sur bureau.









StPierre2 a écrit :



Allez disons 50 cm pour faire le mini (mauvais posture inside).



A 50cm dpi max conseillé = 152 dpi.



Sur un écran de 27” de diagonale, on a la longueur de 23.53” et la hauteur de 13.23”



Si on garde le taux de 152 dpi, on a une résolution optimale minimale (pour soulager la carte graphique de 3576 * 2010. La 4K en 16:9 est au delà (3840 × 2160) et présente donc déjà du pixel inutile. Et si on a le malheur de se reculer (60 cm ? Mais vous êtes fou !), on augmente très vite le nombre de pixels inutiles.



Et on parle d’un 27 pouce hein, les 24” et consorts sont hors course.



Maintenant, je suis d’accord pour dire que d’autres applications ont besoin de résolutions supérieurs à la HD (J’ai personnellement pu tester la bouillie de pixel en 720p du premier Rift d’Occulus)







faux, à 50cm, l’oeil supporte environ 220 DPI



https://fr.wikipedia.org/wiki/Impression_photo_num%C3%A9rique



et entre 90 DPI en HD et 220 DPI, y a juste un monde….



j’ai 24 pouces en HD, donc 95 DPI.

et j’ai un portable en 13 pouces aussi en HD, donc en 170 DPI. et je peux te dire que la différence entre les 2 est juste ENORME. sur mon portable, les caractères sont nets. sur un 24 pouces HD, c’est un peu pourri….. le problème est qu’en 24 pouces les caractères sont un peu petit. la même résolution en 24 pouces, et je prends, et je ne suis pas le seul.

faut bien comprendre que des 24 pouces en HD en 2014, c’est un peu has been…. <img data-src=" />









chaps a écrit :



Ton SLI de GTX570 est comparable à mon SLI de GTX480 en termes de perfs (mais le mien consomme encore plus <img data-src=" />). Et cette nouvelle GTX980 est plus puissante que nos SLI <img data-src=" />







Mmmh cette 980 n’a pas un rapport qualité/perf très alléchant. Je suis surtout intéressé par les performances de la 970. M’étonnerait que je trouve un comparo GTX 970 vs SLI de 570, mais on peut utiliser la règle de neuf des comparos de carte graphique (basé sur les dossiers HFR):




  • une 970 est 1.38 fois plus puissante qu’une 680

  • une 680 est 1.5 fois plus puissante qu’une 570



    Si on compte un rapport de 1.85 pour un SLI par rapport à une carte seule, ça donne une 970 12% plus puissante qu’un SLI de 570. Méthode totalement non scientifique, mais effecitvement il semblerait que j’aie été pessimiste en disant que ça serait moins puissant: si je dépense 350 boules maintenant je peux arriver à réduire le bruit de mon PC vieux de 3 ans sans perdre en perfs. Youhouuuuu!!





NVIDIA à tout bon, même sur la dénomination… mais le tarif de la GTX 980 fait tache







Certes, mais on peut pas tout avoir…Et puis les prix évoluent toujours à la baisse une fois le produit sur le marché (en dehors des “hors-classes” comme les Titan et les Dual-GPU).



Cela montre surtout la maîtrise des verts sur la génération Maxwell. Les déclinaisons GPGPU (ie Tesla) vont se vendre très très bien contrairement à la génération Kepler qui avait déçue en HPC.



Meilleurs performance que la R9 290, meilleur prix, et 70X de moins. Ca ressemble a un pari réussi je l’envisage d’ors et déjà pour ma future tour. A moins que y ai une réponse d’AMD sur le tarif de la 290 …



Bon pour la 980 par contre … A ce prix, et vu la super faible consommation de la 970 ça serait con de se priver d’un SLI.


Le débat 4K c’est un peu comme le débat 30fps / 60fps; chacun à son avis, t’as des mecs qui prétendent que l’œil voit pas de différence au delà de 30, moi je suis absolument pas de cet avis, idem pour le 4K, suffit d’aller voir un écran en vrai à la FNAC pour voir que la différence est monstrueusement visible par rapport au même écran en 1080p…








stb007 a écrit :



Le débat 4K c’est un peu comme le débat 30fps / 60fps; chacun à son avis, t’as des mecs qui prétendent que l’œil voit pas de différence au delà de 30, moi je suis absolument pas de cet avis, idem pour le 4K, suffit d’aller voir un écran en vrai à la FNAC pour voir que la différence est monstrueusement visible par rapport au même écran en 1080p…







ca dépend….. sur un moniteur 24-27 pouces à 50-60 cm de recul, oui la différence est énorme.



sur une TV 40-55 pouces à 2m50 - 3m de recul, tu ne feras aucune différence.









Adakite a écrit :



Certes, mais on peut pas tout avoir…Et puis les prix évoluent toujours à la baisse une fois le produit sur le marché (en dehors des “hors-classes” comme les Titan et les Dual-GPU).







Et puis faut pas perdre de vu un truc, Nvidia serait complétement con d’un point de vu marketing à vendre leur puce haut de gamme 200 Euros de moins qu’une 290x alors qu’elle est plus performante, ça fonctionne comme ça partout, on segmente en fonction des perf, pas du coup de fabrication.



En termes de rapport performances/prix, la 970 n’a pas vraiment d’intérêt au final par rapport à la 770. Il y a en moyenne +30% de perfs pour un prix qui varie de +30 à +100% selon les modèles (770 trouvable à partir de 260 euros)



Sachant que les anciens modèles risquent fort de baisser, c’est certain qu’on trouvera des 770 pour encore moins chères.

Le rapport perf/prix sera encore plus en défaveur des 970 du coup.



En fait, et comme d’hab, les primo-acceptants seront toujours ceux qui payeront le plus.









jeje07 a écrit :



ca dépend….. sur un moniteur 24-27 pouces à 50-60 cm de recul, oui la différence est énorme.



sur une TV 40-55 pouces à 2m50 - 3m de recul, tu ne feras aucune différence.







Sans vouloir épiloguer sur le sujet, ça dépend des gens, je sais que j’ai une trés bonne vue et que même en me placant assez loin (test effectué à la FNAC) l’image me semble bcp plus net et plus limpide qu’un 1080p









stb007 a écrit :



Sans vouloir épiloguer sur le sujet, ça dépend des gens, je sais que j’ai une trés bonne vue et que même en me placant assez loin (test effectué à la FNAC) l’image me semble bcp plus net et plus limpide qu’un 1080p







c’est quoi que tu appelles assez loin ?



et ce que tu vois ce sont de jolis démos bien enregistrées faites pour attirer l’oeil…

pour être objectif, il faut pouvoir comparer la même source sur un écran 4K et un écran HD à côté. Tu as pu faire cette comparaison?

moi oui, au Japon, dans plusieurs magasins.

A plus de 1m sur un écran 40 - 55 pouces, aucune différence. Allez 1m50 si tu veux.









jeje07 a écrit :



c’est quoi que tu appelles assez loin ?







Je dirais entre 3M et 4M









stb007 a écrit :



Je dirais entre 3M et 4M







ouh la non…. tu t’es laisser berner par de jolies démos <img data-src=" />



si tu avais eu la même source à côté sur un écran HD, tu n’aurais fait aucune différence.

a 3m de recul, la résolution maximale de l’oeil est de 36 DPI.

un 55 pouces HD est en 40 DPI,

un 55 4k est en 80 DPI.

tu comprends?



Bonne nouvelle, si je change de carte je n’aurai pas à changer d’alimentation ! <img data-src=" />



Je me tâte à revendre ma 770 pour me prendre une 970. J’attends les tests !


Longueur de la carte : 120 cm <img data-src=" /> (oui, plein les fesses des cartes longue CMB :rouge:)








jeje07 a écrit :



ca dépend….. sur un moniteur 24-27 pouces à 50-60 cm de recul, oui la différence est énorme.



sur une TV 40-55 pouces à 2m50 - 3m de recul, tu ne feras aucune différence.







Là le pb c’est surtout que ta télé est trop petite.



Pour les films on recommande généralement distance à l’écran = 1.6 x diagonale d’écran. À 3m de distance la diagonale d’écran optimale (pour un home cinema) est donc de 1.875m soit 74”.

THX recommande même un rapport de 1.2 donc tu peux pousser jusqu’à 2.5m soit 100” de diagonale. Oui c’est énorme…



Après reste à savoir comment ça se transcrit pour le jeu vidéo… Est-ce qu’en jeu vidéo on est plus précis avec une image plus petite ou bien l’immersion est meilleure avec une image plus grande?



De mon expérience , les recommandations THX sont tout-à-fait jouables et on chope pas de torticolis :) Personne s’est jamais plaint en tout cas! Et à cette distance, sur cette diagonale, les pixels sont juste énormes.



Pour info l’Oculus Rift fait 90 degrés de FOV (contre 40 pour la recommandation THX) et personne s’est jamais plaint là non plus…



Sources: Wikipédia et calc.exe

http://en.wikipedia.org/wiki/Optimum_HDTV_viewing_distance

http://en.wikipedia.org/wiki/Oculus_Rift



Je me demande si mon AMD X4 965 va sérieusement commencer à me limiter si je prends la GTX 970



Je ne crois pas, sauf si je vise plus de 60 FPS



Bon je viens de mettre en vente ma GTX 670…..on va voir ce qui va se passer.








jeje07 a écrit :



faux, à 50cm, l’oeil supporte environ 220 DPI



https://fr.wikipedia.org/wiki/Impression_photo_num%C3%A9rique



et entre 90 DPI en HD et 220 DPI, y a juste un monde….



j’ai 24 pouces en HD, donc 95 DPI.

et j’ai un portable en 13 pouces aussi en HD, donc en 170 DPI. et je peux te dire que la différence entre les 2 est juste ENORME. sur mon portable, les caractères sont nets. sur un 24 pouces HD, c’est un peu pourri….. le problème est qu’en 24 pouces les caractères sont un peu petit. la même résolution en 24 pouces, et je prends, et je ne suis pas le seul.

faut bien comprendre que des 24 pouces en HD en 2014, c’est un peu has been…. <img data-src=" />







Faut comparer le pitch des deux moniteurs aussi, ça joue pas mal.







stb007 a écrit :



Le débat 4K c’est un peu comme le débat 30fps / 60fps; chacun à son avis, t’as des mecs qui prétendent que l’œil voit pas de différence au delà de 30, moi je suis absolument pas de cet avis, idem pour le 4K, suffit d’aller voir un écran en vrai à la FNAC pour voir que la différence est monstrueusement visible par rapport au même écran en 1080p…







Sauf qu’à la Fnac ils présentent les jeux sur des télé et c’est là toute la différence ; concernant les FPS.



Sur un écran qui ne bidouille pas les sorties en foutant des trames dupliquée afin d’afficher 60 FPS même si la console en tire 30, le résultat est très visible.



C’est plus facile à voir dans l’autre sens en fait : habitue la personne qui ne remarque pas la différence à utiliser un moniteur 144Hz ou 120Hz, puis passe le moniteur en 60 ou 30. Il va pleurer. :)



Boarf, ma 680 acheté à sa sortie fera encore un long chemin…


Et pas d’article pour les version mobiles ? <img data-src=" />








stb007 a écrit :



Sans vouloir épiloguer sur le sujet, ça dépend des gens, je sais que j’ai une trés bonne vue et que même en me placant assez loin (test effectué à la FNAC) l’image me semble bcp plus net et plus limpide qu’un 1080p





Attention, les magasins sont connus pour régler les téléviseurs de manière à orienter le choix du consommateur ;)









Adrian Shephard a écrit :



Je ne comprends pas trop le concept de miser tout sur l’efficacité énergétique…







Super déçu là pour le coup…





Eviter de rajouter un surcoût caché à tes clients, éviter de devoir refroidir des fours pour monter en perf (syndrome R9 290), etc.



Accessoirement, il ne faut pas oublier qu’on est là dans un GM104, pas une version 110. On est déjà au niveau d’une GTX 780 avec une conso bien plus faible, ça laisse la possibilité à NV pour un GM inférieur ou supérieur par la suite ;)



ça fait quand même plus de 100 euros de différence avec les GTX 770.



Visiblement, par rapport à des cartes de génération GTX 4 (comme votre serviteur), il y a un gain … mais je ne vois pas réellement l’intérêt de passer à la caisse pour ceux qui ont une GTX 6 et 7).



C’est quand même une sacré arnaque de sauter un chiffre dans la génération. Une malhonnêteté de la part de nVidia. Ca fait style : ah on a une belle carte … mais en fait, ce n’est qui aurait dû sortir l’année dernière en même temps que les GTX 750 … à savoir un Maxwell.



La belle affaire d’annoncer une maîtrise de TDP si c’est pour avoir le même sèche cheveux dans son ordinateur.



Je pense que je vais encore attendre qu’ils murissent leur proc.







Bref, c’est du très bon travail. Le ventirad de référence utilisé ne change quasiment pas, la taille est de même dimension et l’ensemble reste parfaitement silencieux grâce à la gestion de la température



La dernière fois que j’ai fait confiance à PC-inpact sur cette remarque, j’ai fait la connerie d’acheter une HD 6850 qui me sert encore de moteur d’avion quand je ne force pas les ventilateurs à tourner à 4% de leur max. <img data-src=" />



Là aussi, je crois que je suis méfiant.








the_Grim_Reaper a écrit :



Manque pas un “pas” ?





Les Nvidia consomme moins avec leur nouvelle architecture.









Faith a écrit :



Attention, les magasins sont connus pour régler les téléviseurs de manière à orienter le choix du consommateur ;)







j’ai vendu des TV pendant 8 ans, c’est quelque chose qu’on n’a jamais fait…

comme quoi les préjugés à 2 balles…. <img data-src=" />









Emralegna a écrit :



Faut comparer le pitch des deux moniteurs aussi, ça joue pas mal.







euhhh… pitch de DPI sont liés…









luxian a écrit :



La dernière fois que j’ai fait confiance à PC-inpact sur cette remarque, j’ai fait la connerie d’acheter une HD 6850 qui me sert encore de moteur d’avion quand je ne force pas les ventilateurs à tourner à 4% de leur max. <img data-src=" />



Là aussi, je crois que je suis méfiant.





En version sapphire (design de base) elle est pas super bruyante cette 6850, bien moins que les x1k qui étaient insupportable au quotidien !









jeje07 a écrit :



euhhh… pitch de DPI sont liés…







auto quotage,



je voulais dire :



pitch ET DPI sont liés. l’un ou l’autre suffit.









jeje07 a écrit :



j’ai vendu des TV pendant 8 ans, c’est quelque chose qu’on n’a jamais fait…

comme quoi les préjugés à 2 balles…. <img data-src=" />





Y’a pas besoin de préjugé pour voir des écrans similaires afficher totalement différemment un même film…

Qu’il y ait de légères différences entre écrans, OK, mais faut pas pousser.









Faith a écrit :



Y’a pas besoin de préjugé pour voir des écrans similaires afficher totalement différemment un même film…

Qu’il y ait de légères différences entre écrans, OK, mais faut pas pousser.







je ne dis pas que ces pratiques n’existent pas mais merci de ne pas généraliser.

ne vient pas me dire que je réglais les tv en magasin pour vendre tel ou tel modèle parce que je risque de m’énerver <img data-src=" />



et pour te répondre, les différences d’affichage par défaut entre 2 modèles qui te semblent similaires peuvent être grandes. Sans parler d’éventuels problèmes de dispatch, de cables, etc…









jeje07 a écrit :



ne vient pas me dire que je réglais les tv en magasin pour vendre tel ou tel modèle parce que je risque de m’énerver <img data-src=" />







Tu réglais les tv en magasin pour vendre tel ou tel modèle <img data-src=" /> !



:popcorn:



<img data-src=" /> <img data-src=" />









chaps a écrit :



Tu réglais les tv en magasin pour vendre tel ou tel modèle <img data-src=" /> !



:popcorn:



<img data-src=" /> <img data-src=" />







<img data-src=" />









dodo021 a écrit :



Les Nvidia consomme moins avec leur nouvelle architecture.





J4ai pas compris ça en fait, je pensais que tu parlais des cartes AMD <img data-src=" />





chaps a écrit :



Sauf erreur de ma part, les adaptateurs passifs ne gèrent que le DVI-D Single Link. Et les adapteurs actifs coûtent plus de 100€.



J’ai besoin de deux ports DVI-D Dual Link (un moniteur en 2560x1600, et l’autre en 1920x1080 à 120Hz).





je fais fonctionner du single link en 2560*1440 depuis une prise HDMI d’un portable, donc pour moi ça marche même avec un single link, en baissant la BP vers l’écran par contre.









jeje07 a écrit :



je ne dis pas que ces pratiques n’existent pas mais merci de ne pas généraliser.





Typiquement à la FNAC, y’a pas photo

allez, pour éviter de généraliser: dans les FNACs où je suis allé, y’a pas photo.





et pour te répondre, les différences d’affichage par défaut entre 2 modèles qui te semblent similaires peuvent être grandes. Sans parler d’éventuels problèmes de dispatch, de cables, etc…



Je suis à peine capable de voir la différence entre un cathodique et un plasma <img data-src=" />…. alors quand je vois de telles différences entre différents écran de gamme comparable, je me dis qu’il y a forcément un loup !



Mais je comprends que tu défendes ton boulot, si tu le faisais bien: y’a rien de plus désagréable de se voir reprocher les fautes des autres.









Faith a écrit :



Typiquement à la FNAC, y’a pas photo

allez, pour éviter de généraliser: dans les FNACs où je suis allé, y’a pas photo.









Je suis à peine capable de voir la différence entre un cathodique et un plasma <img data-src=" />…. alors quand je vois de telles différences entre différents écran de gamme comparable, je me dis qu’il y a forcément un loup !



Mais je comprends que tu défendes ton boulot, si tu le faisais bien: y’a rien de plus désagréable de se voir reprocher les fautes des autres.







non ce ne sont pas des pratiques de la Fnac. j’y travaillais….









the_Grim_Reaper a écrit :



J4ai pas compris ça en fait, je pensais que tu parlais des cartes AMD <img data-src=" />





Non justement il dit que changer une 290X contre une 9xx ne change rien. Mais si tu paies l’électricité vos mieux prendre Nvidia pour le coup. ^^



Oui c’est la fin de semaine tu es pardonné <img data-src=" />









the_Grim_Reaper a écrit :



je fais fonctionner du single link en 2560*1440 depuis une prise HDMI d’un portable, donc pour moi ça marche même avec un single link, en baissant la BP vers l’écran par contre.







J’ai déjà essayé mon écran (Dell 3007WFP-HC) avec un DVI Single Link, impossible de dépasser le 1280x800. C’est une limitation du controleur intégré dans l’écran. Il me faut donc impérativement du Dual-Link.



Et pour l’écran 120Hz j’avoue ne pas avoir testé, mais il ne m’étonnerait pas qu’il faille obligatoirement un vrai Dual-Link également <img data-src=" />









jeje07 a écrit :



c’est exactement le contraire!



le 4k se justifie largement plus sur PC que sur une TV! notamment parce que et surtout le recul est beaucoup plus faible sur un moniteur de 20 - 27pouces que pour une tv de 40 - 60 pouces.

et le 4k se justifie surtout sur du texte : word, pdf, internet, etc…. sur un 24 pouces, on passe de 95 DPI en HD à 180 DPI en 4K, et le gain est juste ENORME.

sur du jeu, le 4k se justifie moins parce que en jeu l’image est en mouvement perpétuel et on est moins sensible aux détails que sur une image statique.







Bof tant qu on atteindra pas 300 dpi ca restera toujours pas terrible face aux tablette et smartphones <img data-src=" />

J aurais préféré un OLED full HD perso.









flodousse a écrit :



Bof tant qu on atteindra pas 300 dpi ca restera toujours pas terrible face aux tablette et smartphones <img data-src=" />

J aurais préféré un OLED full HD perso.







euhhh……



le marketing a bien fait son travail <img data-src=" />



entre 90 DPI et 200 DPI y a un monde déjà….



enfin bref… <img data-src=" />



Les perfs ont l’air décevantes comparées à l’ancienne génération, je vais attendre Volta ou au moins Pascal pour changer je pense…








Adrian Shephard a écrit :



J’espère qu’ils vont se sortir les doigts de l’oignon un de ces 4 parce que là c’est clairement pas assez puissant pour la 4K: à l’heure qu’il est, aucune carte graphique mono-core n’est capable de faire tourner un jeu en 4K avec les mêmes détails et la même fluidité qu’une 480 est capable de le faire en Full HD. Ce qui veut dire qu’un passage en 4K natif va être un retour en arrière de 5 ans au niveau de la qualité du rendu! Pas glop du tout!!!





De toute façon c’est très simple : tu connais la loi de Moore ? Tous les dix-huit mois on double le nombre de transistors. Donc à architecture égale, au bout de trois ans on peut traiter quatre fois de pixels.



C’est pas une question de magie, de “se sortir les doigts” ou autres. C’est la loi de Moore (même si celle-ci implique des des gens se remuent, mais c’est ce qu’ils font sans discontinuer depuis des décennies).



En pratique la transition se fera sans doute sur plus longtemps que ça parce qu’à nombre égal de pixels la qualité d’image continuera aussi à augmenter, tout en étant rapidement accessible pour ceux qui mettront le prix. Mais pas besoin de se presser, ça se fera au rythme du marché et de Moore, ni plus vite, ni plus lentement.



Maintenant il y a des évolutions plus intéressantes comme la lithographie 3D et 2.5D, l’incorporation de la mémoire dans les CPU/GPU, les archis CPU/GPU unifiées (unifiées, pas seulement collées ensemble) et autres formes de parallélisme massif dans le CPU, avec une possible disparition des GPU grand public. A niveau-là les années à venir vont être plutôt cool après une décennie moribonde.









youri_1er a écrit :



La 970 me plairait bien dit donc!

Par contre j’ai une bonne vieille Alim 400w qui n’a qu’un connecteur PCI-e en 6 pin et je me demande dsi elle tiendra la distance avec ce type de carte!



Des alims à conseiller si je passe à cette CG?





Je n’ai pas de marque à te préciser.

Toutefois 2 critères sont à observer.

Une alim doté d’un ventilateur de 140 cm sera moins bruyante et plus performante qu’une dotée d’ un ventilo de 1020 seulement.

Deuxio un label d’ efficacicté et de rendement énergétique “Platinum” appliqué sur une alimentation t’assurera silence, économie et longévité et sécurité pour ton électronique.

Trouve les deux et c’ <img data-src=" />









HarmattanBlow a écrit :



De toute façon c’est très simple : tu connais la loi de Moore ? Tous les dix-huit mois on double le nombre de transistors. Donc à architecture égale, au bout de trois ans on peut traiter quatre fois de pixels.



C’est pas une question de magie, de “se sortir les doigts” ou autres. C’est la loi de Moore (même si celle-ci implique des des gens se remuent, mais c’est ce qu’ils font sans discontinuer depuis des décennies).



En pratique la transition se fera sans doute sur plus longtemps que ça parce qu’à nombre égal de pixels la qualité d’image continuera aussi à augmenter, tout en étant rapidement accessible pour ceux qui mettront le prix. Mais pas besoin de se presser, ça se fera au rythme du marché et de Moore, ni plus vite, ni plus lentement.



Maintenant il y a des évolutions plus intéressantes comme la lithographie 3D et 2.5D, l’incorporation de la mémoire dans les CPU/GPU, les archis CPU/GPU unifiées (unifiées, pas seulement collées ensemble) et autres formes de parallélisme massif dans le CPU, avec une possible disparition des GPU grand public. A niveau-là les années à venir vont être plutôt cool après une décennie moribonde.





T ‘as oublié la loi de Wall Street semblable à celle de Ok Coral ou on écrase l’adversaire pour faire du bénef sans se casser les c…..

Dès qu’ AMD sera mort et cela ne va pas tarder, on y aura tous droit.









fullero a écrit :



T ‘as oublié la loi de Wall Street semblable à celle de Ok Coral ou on écrase l’adversaire pour faire du bénef sans se casser les c…..

Dès qu’ AMD sera mort et cela ne va pas tarder, on y aura tous droit.









Quand tu parles de Moore, tu penses à Roger Moore, Lovamour ou Mickael Moore?

Parce que pour reprendre Roger Moore, je savais que c’etait un bon informaticien mais je ne savais pas qu’il avait été aussi acteur.<img data-src=" />









fullero a écrit :



T ‘as oublié la loi de Wall Street semblable à celle de Ok Coral ou on écrase l’adversaire pour faire du bénef sans se casser les c…..

Dès qu’ AMD sera mort et cela ne va pas tarder, on y aura tous droit.





Merci du conseil!

Par contre entre une OR et une Platinium c’est juste du simple au double alors je vais faire le tour des test pour voir!









Anna Lefeuk a écrit :



Quand tu parles de Moore, tu penses à Roger Moore, Lovamour ou Mickael Moore?

Parce que pour reprendre Roger Moore, je savais que c’etait un bon informaticien mais je ne savais pas qu’il avait été aussi acteur.<img data-src=" />







<img data-src=" />



Indécents ces prix et conso… <img data-src=" />









von-block a écrit :



Je me demande si mon AMD X4 965 va sérieusement commencer à me limiter si je prends la GTX 970



Je ne crois pas, sauf si je vise plus de 60 FPS



Bon je viens de mettre en vente ma GTX 670…..on va voir ce qui va se passer.







Ma 955 limitait déjà une 470 alors une 970… <img data-src=" />









youri_1er a écrit :



La 970 me plairait bien dit donc!

Par contre j’ai une bonne vieille Alim 400w qui n’a qu’un connecteur PCI-e en 6 pin et je me demande dsi elle tiendra la distance avec ce type de carte!



Des alims à conseiller si je passe à cette CG?









Fortron Aurum, Seasonic, Be Quiet ou LDLC en Gold. 500W devraient faire l’affaire.









jeje07 a écrit :



euhhh……



le marketing a bien fait son travail <img data-src=" />



entre 90 DPI et 200 DPI y a un monde déjà….



enfin bref… <img data-src=" />







Aucun rapport, moi j’ai comparé 200dpi et 300dpi et c’est bof…

Surtout que le 8K va se pointer d’ici 5 ans



Excusez moi je n’ai pas tout suivi mais.. la Dynamic Super Resolution c’est juste du Downsampling je me trompe ? <img data-src=" />








chaps a écrit :



J’ai lu ici que ces cartes peuvent gérer simultanément 4 écrans.



Il me faudrait une GTX980 avec deux sorties DVI-D Dual Link et un HDMI. C’est possible <img data-src=" /> ?





Oui c’est possible et ça existe elle s’appelle GTX 980 Windforce Gigabyte

Deux ports DVI dual-link, un port HDMI 2.0 et deux ports DisplayPort manque juste le café <img data-src=" />

http://www.tomshardware.fr/articles/maxwell-geforce-gtx-970-geforce-gtx-980,2-23…

<img data-src=" />









luxian a écrit :



C’est quand même une sacré arnaque de sauter un chiffre dans la génération. Une malhonnêteté de la part de nVidia. Ca fait style : ah on a une belle carte … mais en fait, ce n’est qui aurait dû sortir l’année dernière en même temps que les GTX 750 … à savoir un Maxwell.

La belle affaire d’annoncer une maîtrise de TDP si c’est pour avoir le même sèche cheveux dans son ordinateur.

Je pense que je vais encore attendre qu’ils murissent leur proc.





Tu devrais regarder les différents site de test de carte pour avoir un avis là tu fais des suppositions qui n’ont pas lieu d’être car ils sont tous unanimes concernant le rapport / qualité / prix / TDP / bruit de la GTX 970

Exemple de test en d’autres encore sur la même longueur d’onde :)

http://www.hardware.fr/articles/928-22/conclusion.html

http://www.comptoir-hardware.com/articles/cartes-graphiques/26326-test-geforce-g…

http://www.lesnumeriques.com/carte-graphique/msi-geforce-gtx-970-gaming-4g-p2174…

http://www.tomshardware.fr/articles/maxwell-geforce-gtx-970-geforce-gtx-980,2-23…



Pour info Nvidia à sauté une série car les series GTX 800 existe déjà et sont réservé au pc portable (mobile) &gt;&gt; intitulé GTX 800M, 870M etc….

Je trouve cela honnête et intelligent de leur part pour ne pas embrouiller le consommateur.









cityhunter67 a écrit :



Oui c’est possible et ça existe elle s’appelle GTX 980 Windforce Gigabyte

Deux ports DVI dual-link, un port HDMI 2.0 et deux ports DisplayPort manque juste le café <img data-src=" />

http://www.tomshardware.fr/articles/maxwell-geforce-gtx-970-geforce-gtx-980,2-23…

<img data-src=" />







Yes, elle a l’air vraiment pas mal cette carte !

Reste à voir si ça rentre dans le budget, et si je craque tout de suite ou si j’attend encore un peu <img data-src=" />









cityhunter67 a écrit :



Tu devrais regarder les différents site de test de carte pour avoir un avis là tu fais des suppositions qui n’ont pas lieu d’être car ils sont tous unanimes concernant le rapport / qualité / prix / TDP / bruit de la GTX 970





J’avais déjà regardé à l’époque … et pas qu’un site.

D’où ma méfiance.







cityhunter67 a écrit :



Pour info Nvidia à sauté une série car les series GTX 800 existe déjà et sont réservé au pc portable (mobile) &gt;&gt; intitulé GTX 800M, 870M etc….

Je trouve cela honnête et intelligent de leur part pour ne pas embrouiller le consommateur.





Et on fait quoi de la GTX 760 M ?

Ton raisonnement ne tiens pas … on sait depuis longtemps que les cartes se terminant par M sont pour les mobiles ….

http://www.notebookcheck.net/NVIDIA-GeForce-GTX-780M.88993.0.html

GTX 680M aussi etc ……



non, ils ont volontairement sauté un chiffre et pas pour rien … !



Ma future =)



Quelqu’un a mis la main sur des tests constructeurs ?&nbsp;