GeForce « Game Ready » 344.48 WHQL : unification, améliorations et DSR pour tous

GeForce « Game Ready » 344.48 WHQL : unification, améliorations et DSR pour tous

C'est presque Noël avant l'heure

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

23/10/2014 3 minutes
33

GeForce « Game Ready » 344.48 WHQL : unification, améliorations et DSR pour tous

NVIDIA a diffusé hier soir la nouvelle version de ses pilotes graphique, estampillée 344.48 et certifiée WHQL. Au passage, la marque inaugure une nouvelle appellation marketing : « Game Ready Drivers ». L'occasion pour elle d'activer de nouvelles fonctionnalités et d'améliorer le support de certains titres.

Un pilote unifié qui veut appuyer l'attention portée aux joueurs

Depuis la sortie des GeForce GTX 900 et 900M, NVIDIA ne proposait qu'un pilote spécifique à ces cartes. Avec l'arrivée des 344.48 WQHL, ce n'est plus le cas puisqu'ils gèrent tous les produits de la marque de la génération 400 (Fermi) aux modèles les plus récents.

 

Mais ce n'est pas tout, puisque l'on a droit à une nouvelle appellation marketing : « Game Ready Drivers ». La marque veut en effet appuyer le fait qu'elle propose de manière continue des innovations pour les joueurs et des améliorations pour des titres comme Civilization : Beyond Earth, qui bénéficie pourtant du soutien d'AMD, notamment pour l'intégration de Mantle. Le titre dispose en effet d'un profil HBAO+ au sein de ces pilotes, mais cela ne va pas au-delà. Il sera intéressant de voir ce qu'il en est côté performances.

DSR généralisé à toutes les cartes, mais pas utile pour tout le monde

Pour le reste, outre ce petit coup de peinture niveau communication, on a droit à la généralisation du DSR (Dynamic Super Resolution) qui permet de calculer une image dans une définition supérieure à celle affichée puis de la réduire à l'écran pour bénéficier d'une sorte d'anti-aliasing généralisé (voir nos explications) afin d'améliorer le rendu sur des titres qui ne sont pas forcément très gourmands au départ (oui, parce que calculer le rendu de Crysis 3 en 4K pour afficher sur du 1080p, cela peut faire mal). Désormais, toutes les GeForce GTX de la génération 400 à 900 pourront en tirer parti.

 

Attention tout de même, cela ne fonctionnera pas au mieux pour tous les titres et toutes les définitions. C'est aussi sans doute pour cela que NVIDIA le propose au sein de GeForce Experience en complément de l'option présente dans ses pilotes. Il pourra ainsi être activé de manière automatique lorsque cela est possible et jugé utile. L'équipe du caméléon précise d'ailleurs que pour les titres où l'interface s'afficherait mal, il est parfois possible de modifier son rendu via une mise à l'échelle dans les paramètres du jeu, comme au sein des paramètres avancés de World of Warcraft. 

 

Une série de nouveaux profils, G-Sync et Oculus Rift s'entendent mieux

Bien entendu, de nouveaux profils SLI sont aussi de la partie pour Elite DangerousEscape Dead IslandLichdom: BattlemageLords of the FallenMechWarrior Online (DirectX 11), Monster Hunter Online Benchmark, Ryse: Son of RomeSleeping Dogs: Definitive Edition et The Vanishing of Ethan Carter. De plus, les systèmes exploitant un écran G-Sync pourront désormais cohabiter sans problème avec les pilotes Oculus Rift.

 

Pour les détails et le téléchargement, cela se passera par ici.

33

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Un pilote unifié qui veut appuyer l'attention portée aux joueurs

DSR généralisé à toutes les cartes, mais pas utile pour tout le monde

Une série de nouveaux profils, G-Sync et Oculus Rift s'entendent mieux

Commentaires (33)


et donc pour les carte antérieurs, ça fait toujours un écran bleu plutôt que de prévenir que c’est pas compatible?

le dernier driver pour une GTX260 par exemple, c’est lequel du coup?


Depuis le temps qu’on attendait ça, sérieux, la résolution de l’écran n’a rien à voir avec celui du jeux.







geekounet85 a écrit :



et donc pour les carte antérieurs, ça fait toujours un écran bleu plutôt que de prévenir que c’est pas compatible?

le dernier driver pour une GTX260 par exemple, c’est lequel du coup?



Laisse ceux fourni par Windows Update s’installer, pour ton cas c’est le mieux.



Installés ce matin, aucun problème avec un SLI de GTX480 et un écran 3D Vision <img data-src=" />


Ahhhhhhhhhh Dark Souls 2… C’est con j’ai une 7970 d’AMD <img data-src=" />



Je trouve le pilote Nvidia vraiment mieux foutu quand même quand on voit le panneau de config moyenâgeux d’AMD…


Sur le site de nvidia tu choisis ta carte, il te donne le dernier drivers compatible. Donc si ça ne déconne pas (perso ça a toujours été juste jusque là) c’est pas trop dur quand même non?&nbsp;<img data-src=" />


Bah tu vas sur le site de NVIDIA via le lien donné en fin d’article et tu vois ce que ça donne hein ;) Grosso modo, des pilotes de la branche 340 qui datent de juillet 2014.


Je vois sur le site que c’est dispo pour les M (840m dans mon cas). La question étant: est-ce que je peux installer ça sans risque de voir le fonctionnement d’optimus s’altérer voire disparaitre?


Bien sûr que tu le peux, je dirais même que tu le dois, ou presque !

Optimus est une techno Nvidia, je ne vois pas pourquoi son efficacité serait altérée.

A partir du moment où tu as une carte Nvidia, conserve tes pilotes Nvidia à jour (sauf bug spécifique à une version)


Pourquoi ce serait le cas ?


http://lmgtfy.com/?q=GTX260+drivers+nvidia



Bon.. je sais.. c’était facile et on n’est même pas vendredi.. j’ai honte..





Pour la news.. moi qui suis AMD.. je pense que je vais repasser côté Nvidia parce qu’effectivement quoi qu’on en dise… j’avais moins de problème sur des Nvidia.. c’est dommage je soutiens Amd pourtant… mais bon apparemment les gens ont comme moi un penchant pour nvidia alors c’est qu’il doit y avoir quelquechose..


Faut que je try ça sur WoW vu qu’ils ont viré le MSAA depuis la 6.0.2 …



Et le CMAA c’est vraiment dégueux (Et je préfère pas parler du FXAA…) .



Mais bon, je me demande comment ça va gérer l’interface et la taille des textes et surtout si c’est fullscreen only ?



Car si c’est ça, je m’en passerai (Perte de l’utilisation de mon dual-screen en Fullscreen) .


C est pratique de jouer en dualscreen a wow ?








David_L a écrit :



Bah tu vas sur le site de NVIDIA via le lien donné en fin d’article et tu vois ce que ça donne hein ;) Grosso modo, des pilotes de la branche 340 qui datent de juillet 2014.





ok, donc je touche à rien! <img data-src=" />



mais du coup c’est con, parce que j’ai deux carte, une 460 pour les graphique et une 260 pour physX et je suis obligé de rester sur de vieux drivers a cause de la 260…



Aucun rapport avec Nvidia, mais c’est une image de quel jeu qui sert d’image à l’article ?

Je parle de celle-là.



Et pour troller AMD, moi depuis les derniers drivers, dés que j’active/désactive un nouvel écran, j’ai le driver qui pète une erreur. Mis à jour récemment et matos d’il y a 4 ans (pas sûr que la MAJ soit utile donc).








Manowarz a écrit :



C est pratique de jouer en dualscreen a wow ?





Ben ça permet de jouer sur un écran et faire autre chose sur l’autre.



Et le fait d’être en fenêtré plein écran permet de switch de l’un à l’autre facilement alors qu’en full screen c’est chiant.



&nbsp;



Baldurien a écrit :



Aucun rapport avec Nvidia, mais c’est une image de quel jeu qui sert d’image à l’article ?

Je parle de celle-là.



Et pour troller AMD, moi depuis les derniers drivers, dés que j’active/désactive un nouvel écran, j’ai le driver qui pète une erreur. Mis à jour récemment et matos d’il y a 4 ans (pas sûr que la MAJ soit utile donc).



Dark Souls 2



Vais camper le forum nvidia où cas où ça rage sur des problèmes paranormaux 8)


Ah ok je fais deja ca :p&nbsp;


Perso, j’ai découvert DSR dans Elder Scrolls Online (GTX 980) et c’est vrai que ça améliore le rendu. Sur TESO, ça ne se ressent pas trop au niveau des perfs.



Par contre, je l’ai aussi essayé sur Shadow of Mordor et là, ça ramouille un peu quand même.



Les jeux Blizzard (du moins SC2 et D3) permettent également le DSR, la différence m’a moins sauté à la figure que sur TESO.


Hm… z’ont refusé de s’installer sur mon PC portable hier soir (GTX 860m)…&nbsp;



Je retenterai ce soir en virant et installant les nouveaux à la mano pour voir.


je trouve pas l’option sur gtx 570&nbsp;&nbsp; et sur le jeu tomb raider


Et dire que j’en suis toujours au 314.22 sur ma partition Windows. <img data-src=" />








Nerthazrim a écrit :



Bien sûr que tu le peux, je dirais même que tu le dois, ou presque !

Optimus est une techno Nvidia, je ne vois pas pourquoi son efficacité serait altérée.

A partir du moment où tu as une carte Nvidia, conserve tes pilotes Nvidia à jour (sauf bug spécifique à une version)





Merci, sure will do then&nbsp;<img data-src=" />

&nbsp;



David_L a écrit :



Pourquoi ce serait le cas ?





Parce que j’ai eu une mauvaise expérience avec les ati et le CCC qui a désactivé le swappage de cg sur un ancien portable :(&nbsp;



avec une 660ti standart, le DSR faut s’attendre à quoi ?


Ce genre d’anti-aliasing revient en fait à flouter légèrement l’image en mélangeant tous les pixels proches sans distinction. Ca a l’avantage d’anti-aliaser à la fois les textures et les bordures des polygones, par contre ça a un effet désastreux à mon goût sur les petites polices de caractères, qui elles doivent rester les plus nettes possibles.



Après ça dépend évidemment du DPI de l’écran, mais on en arrive vite à obtenir des caractères suffisamment floutés pour que ce soit visible. Sur un jeu comportant un bon nombre d’informations écrites suffisamment petit, ou alors sur un menu ou un écran d’information hors jeu (vu que ça s’applique tout le temps et plus seulement en jeu), ça donne un rendu franchement moche par rapport à une version non anti-aliasé.



&nbsp;J’ai pu constater ça ne serait-ce que sur Warcraft 3 et StarCraft 2 avec certains modes d’anti-aliasing qui reposent sur le même principe, alors que les polices sont encore assez grosses et l’écran pas trop chargé, alors j’imagine avec des MMORPG où il y a du texte partout…


Yes ma GTX460 est encore valable <img data-src=" />

Pour une fois que des améliorations ou fonctionnalités notables couvrent jusqu’à 5 générations de cartes…


À mon avis l’Antialiasing classique doit être bien moins gourmand en ressources.



Bon un jour, on aura une option pour avoir du full range RGB chez Nvidia…








Emralegna a écrit :



Bon un jour, on aura une option pour avoir du full range RGB chez Nvidia…





Tu parles de ça ? C’est pas par défaut, mais ça y est…









vampire7 a écrit :



Tu parles de ça ? C’est pas par défaut, mais ça y est…





&nbsp;Oui, mais le problème est que ce n’est actif que dans les vidéos et pas du tout sur le bureau ou dans les jeux par exemple.



Je parlais plutôt de çahttp://blog.metaclassofnil.com/?p=83 mais ça ne marche qu’en HDMI.



Chez AMD/ATI en revanche, pas de problème…



Hum, faudrait que j’essaie pour voir ce que ça donne.



On peut noter que plusieurs jeux sortis plus ou moins récemment proposent directement dans les options de faire du downsampling (Shadow of Mordor, Dead Rising 3, les CoD depuis un ou deux épisodes, BF4…).









ArnoStalgik a écrit :



Perso, j’ai découvert DSR dans Elder Scrolls Online (GTX 980) et c’est vrai que ça améliore le rendu. Sur TESO, ça ne se ressent pas trop au niveau des perfs.



Par contre, je l’ai aussi essayé sur Shadow of Mordor et là, ça ramouille un peu quand même.



Les jeux Blizzard (du moins SC2 et D3) permettent également le DSR, la différence m’a moins sauté à la figure que sur TESO.







Tous les jeux le permettent depuis toujours :http://www.neogaf.com/forum/showthread.php?t=509076 Là ça a été juste simplifié par nVidia.







Clad omnislash a écrit :



avec une 660ti standart, le DSR faut s’attendre à quoi ?









Emralegna a écrit :



À mon avis l’Antialiasing classique doit être bien moins gourmand en ressources.



Bon un jour, on aura une option pour avoir du full range RGB chez Nvidia…







Pour le coup, le “vrai” AA se fait comme avec ce DSR <img data-src=" /> Ce que tu appelles “AA classique”, ce sont des techniques différentes pour avoir un résultat assez proche et consommant moins forcément.









Bou2004 a écrit :



Pour le coup, le “vrai” AA se fait comme avec ce DSR <img data-src=" /> Ce que tu appelles “AA classique”, ce sont des techniques différentes pour avoir un résultat assez proche et consommant moins forcément.





Mais le DSR n’est pas limité par le pitch de l’écran ? Le but d’un AA étant de remplir l’écart entre deux pointes de pixels pour lisser l’effet escalier. avec le DSR ça ne changera donc rien si je comprends bien









Emralegna a écrit :



Mais le DSR n’est pas limité par le pitch de l’écran ? Le but d’un AA étant de remplir l’écart entre deux pointes de pixels pour lisser l’effet escalier. avec le DSR ça ne changera donc rien si je comprends bien







Du tout, la carte graphique fait le rendu dans son coin (4K, 8K…) et fait ensuite du downsampling pour que le signal envoyé en sortie soit à une définition acceptée par l’écran. En fait, c’est comme regarder une vidéo en 4K sur un écran qui n’est pas en 4K, ça fonctionne très bien, c’est plus détaillé et plus gourmand que la même vidéo en 1080p.



Pour l’AA, si, ça change tout, le DSR fait exactement la même chose que le SSAA, l’AA originel <img data-src=" /> Le SSAA n’est plus proposé depuis longtemps à cause de sa gourmandise, ici nVidia essaie de le remettre au goût du jour parce qu’on commence à avoir le matos pour l’encaisser. D’ailleurs, une technique comme le MSAA fait du SSAA/DSR “ciblé”, seuls les bords des objets 3D sont concernés au lieu de toute la scène, du coup c’est beaucoup plus léger mais ce n’est pas parfait. Il y a plus d’infos ici :http://www.dahlsys.com/misc/antialias/ Pour résumer, on utilise les pixels supplémentaires qu’on obtient en 4K par rapport à du 1080p pour remplir l’écart dont tu parles.



Une image pour illustrer tout ça :http://ec0c5a7f741a6f3bff65-dd07187202f57fa404a8f047da2bcff5.r85.cf1.rackcdn.com… (regarde les cordages et le bord des bâtiments d’une définition à l’autre, c’est flagrant) ^^ Source :http://www.pcgamer.com/pc-graphics-options-explained/









Bou2004 a écrit :



Du tout, la carte graphique fait le rendu dans son coin (4K, 8K…) et fait ensuite du downsampling pour que le signal envoyé en sortie soit à une définition acceptée par l’écran. En fait, c’est comme regarder une vidéo en 4K sur un écran qui n’est pas en 4K, ça fonctionne très bien, c’est plus détaillé et plus gourmand que la même vidéo en 1080p.



Pour l’AA, si, ça change tout, le DSR fait exactement la même chose que le SSAA, l’AA originel <img data-src=" /> Le SSAA n’est plus proposé depuis longtemps à cause de sa gourmandise, ici nVidia essaie de le remettre au goût du jour parce qu’on commence à avoir le matos pour l’encaisser. D’ailleurs, une technique comme le MSAA fait du SSAA/DSR “ciblé”, seuls les bords des objets 3D sont concernés au lieu de toute la scène, du coup c’est beaucoup plus léger mais ce n’est pas parfait. Il y a plus d’infos ici :http://www.dahlsys.com/misc/antialias/ Pour résumer, on utilise les pixels supplémentaires qu’on obtient en 4K par rapport à du 1080p pour remplir l’écart dont tu parles.



Une image pour illustrer tout ça :http://ec0c5a7f741a6f3bff65-dd07187202f57fa404a8f047da2bcff5.r85.cf1.rackcdn.com… (regarde les cordages et le bord des bâtiments d’une définition à l’autre, c’est flagrant) ^^ Source :http://www.pcgamer.com/pc-graphics-options-explained/





Merci beaucoup. <img data-src=" />