NVIDIA G-Sync : un module dans les écrans pour les satisfaire tous

NVIDIA G-Sync : un module dans les écrans pour les satisfaire tous

Un message pour AMD ?

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

18/10/2013 3 minutes
27

NVIDIA G-Sync : un module dans les écrans pour les satisfaire tous

Lors d'une conférence qui se tient actuellement à Montréal, NVIDIA a annoncé sa technologie G-Sync. Derrière ce nom se cache un module que certaines marques pourront intégrer à leurs écrans afin d'éviter des soucis de tearing, de lag ou de stuttering. Une manière d'envoyer un message à AMD ?

Ces dernières années, les différents constructeurs du marché des GPU ont cherché à lutter contre différents soucis au niveau du rendu des images. Ceux-ci prennent des noms barbares comme le lag, le stuttering ou le tearing. Dans la pratique, l'image apparaît découpée ou avec des sauts. Ces derniers temps, NVIDIA fait la guerre à AMD sur le sujet en l'accusant de ne pas se préoccuper de cette problématique afin de pouvoir afficher de bonnes moyennes dans les jeux.

 

NVIDIA G-Sync NVIDIA G-Sync

Pour que l'écran et le GPU travaillent ensemble, NVIDIA propose G-Sync

L'outil FCAT a ainsi été développé et mis à la disposition de certains journalistes (voir cet article de Hardware.fr) afin de leur permettre de mettre cette problématique en avant. Car le souci est complexe entre l'activation ou non de la synchronisation verticale, la communication entre le GPU et l'écran qui dispose de sa fréquence propre, la variation des performances, etc. Au final, c'est via une solution matérielle que cela sera corrigé par le caméléon : G-Sync.

 

Cette technologie prend la forme d'un module que les constructeurs d'écrans pourront intégrer à leurs produits à la place de l'actuel scaler. Il aura en charge la bonne synchronisation des données issues du GPU par rapport à leur affichage, plutôt que d'obéir à une fréquence fixe. En clair : l'écran attendra désormais qu'une nouvelle image ait été calculée par le GPU pour se mettre à jour, évitant ainsi de nombreux soucis et améliorant l'expérience du joueur.

Une bonne idée, mais qu'en sera-t-il dans la pratique ?

Seuls les modèles de la génération Kepler seront compatibles, bien entendu. Certaines marques sont déjà de la partie pour le programme de partenariat : Asus, BenQ, Philips et ViewSonic. Cela devrait donc largement réduire le choix pour les joueurs qui doivent encore avoir en tête la difficulté pour trouver de bons écrans accessibles gérant le 120 Hz pour 3D Vision par exemple. Rien ne devrait néanmoins voir le jour avant 2014.

 

NVIDIA G-Sync

 

Mais une version modifiée du VG248QE sera proposée dans un premier temps, et NVIDIA indique qu'il sera possible d'acheter le module séparément pour l'intégrer à ce produit, un point sur lequel nous attendons des retours de la part d'Asus.

 

Espérons que cela ne sera pas trop restrictif dans la pratique, et surtout que le surcoût ne sera pas énorme, un point sur lequel NVIDIA n'a pas pu nous donner de détails pour le moment. On nous a néanmoins indiqué que le résultat était impressionnant dans la pratique. Des démonstrations sont en cours, il faudra donc attendre le retour de nos confrères ou nos propres tests pour savoir s'il faut être convaincu ou non.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Pour que l'écran et le GPU travaillent ensemble, NVIDIA propose G-Sync

Une bonne idée, mais qu'en sera-t-il dans la pratique ?

Commentaires (27)


Dommage de passer par une solution propriétaire, car l’idée est bonne !



Y’a pas moyen de mettre au point une norme basée sur un principe similaire, mais ouverte à tous ?








chaps a écrit :



Dommage de passer par une solution propriétaire, car l’idée est bonne !



Y’a pas moyen de mettre au point une norme basée sur un principe similaire, mais ouverte à tous ?





Pour permettre au concurrent de résoudre un souci avec zéro R&D ? Je crois pas <img data-src=" />



Les bugs visuels sans V-sync oui c’est courant mais avec j’ai jamais eu de soucis, ou alors trop imperceptibles pour moi <img data-src=" />








David_L a écrit :



Pour permettre au concurrent de résoudre un souci avec zéro R&D ? Je crois pas <img data-src=" />





En même temps ça me parait pas plus intelligent d’avoir 3 puces identiques dans l’écran… une pour AMD, une pour Nvidia, une pour Intel









Obidoub a écrit :



En même temps ça me parait pas plus intelligent d’avoir 3 puces identiques dans l’écran… une pour AMD, une pour Nvidia, une pour Intel





Je doute que ce soit le cas un jour. C’est juste que tu as la techno NV, et sinon rien dans les écrans. Après si d’autres solutions poussent il faudra surement les unifier, mais je vois mal comment on peut attendre de NV de développer un avantage compétitif et l’offrir à son concurrent pour le plaisir.



Après si un consortium de fabricants d’écrans, ou une société comme MS par exemple, avait pris les choses en main depuis le temps, ça aurait été effectivement une bonne idée ;)



Et quand on changera de marque de carte graphique, on devra changer d’écran pour éviter des problèmes de compatibilités ? Tu m’étonnes que les constructeurs d’écran foncent dessus :)








Chiendelune a écrit :



Et quand on changera de marque de carte graphique, on devra changer d’écran pour éviter des problèmes de compatibilités ? Tu m’étonnes que les constructeurs d’écran foncent dessus :)





Je doute que ça pose un souci, puisque ça prendra le rôle du scaler. C’est juste qu’avec les GPU Kepler, il y aura un mode de fonctionnement différent :)



Après succès ou pas, on verra. Mais bon, c’est une des rares vraies bonnes idées que l’on voit sur ce marché en ce moment ;) (Shadowplay est aussi intéressant, mais dans une moindre mesure).



Un rapport avec la technologie pro existant déjà ?

http://www.nvidia.fr/object/nvidia-sync-quadro-g-sync-fr.html



Aussi chez AMD d’ailleurs.

http://www.amd.com/fr/products/workstation/graphics/s400/Pages/s400.aspx



J’aimerais bien pouvoir synchroniser plusieurs PC sur plusieurs projecteurs, le tout en relief actif à 120 Hz avec un frame-lock, et jusqu’à maintenant, seules les solutions pro le permettaient.








Jean_Peuplus a écrit :



Les bugs visuels sans V-sync oui c’est courant mais avec j’ai jamais eu de soucis, ou alors trop imperceptibles pour moi <img data-src=" />







Ma compréhension du truc, c’est qu’avec la V-Sync activée tous les problèmes d’image disparaissent, mais par contre tu t’exposes à une grosse baisse de framerate si le GPU est un peu juste. Si j’ai bien compris G-Sync est censé éliminer les problèmes d’image tout en “coûtant” moins cher que la V-sync en terme de framerate.



Ce que j’ai constaté sur ma machine, c’est qu’avec la V-Sync le framerate ne prend que des valeurs “rondes” (typiquement 30 ou 60 fps) ce qui fait que si le GPU n’arrive pas à assurer 60 fps constants, la chute est forcément brutale (de 60 vers 30). Alors que V-sync désactivée, ça peut par exemple oscilller autour de 50 fps (mais avec du tearing et autre problèmes d’image). J’imagine que dans ce cas là, G-Sync me permettrait d’avoir environ 50 fps sans tearing.









Nnexxus a écrit :









Disons que le V-Sync permet uniquement de synchroniser les choses à 60 Hz par exemple et de mettre fin au tearing. Mais effectivement, si tu fais moins, tu as du stuttering dans ta face et tu remplaces un souci par un autre.



L’avantage ici c’est que le GPU et l’écran fonctionnent de concert, ce qui aurait dû être le cas dès l’arrivée en masse des écrans LCD notamment. NV avait tenté des solutions intermédiaires, mais software, finalement c’est le hardware qui semble avoir gagné. Reste à voir si le gain est effectivement intéressant dans la pratique et les contraintes.









David_L a écrit :



Pour permettre au concurrent de résoudre un souci avec zéro R&D ? Je crois pas <img data-src=" />





<img data-src=" /> <img data-src=" /> <img data-src=" /> <img data-src=" />



J’attends Mai prochain( NDA inside ) xD



[ Mode mauvais esprit ]



C’est quand même une manière de “licensier” du matos généraliste, de commencer doucement à construire un écosystème qui pourrait s’avérer de moins en moins conciliant au fil du temps.


A plus de 60 images/secondes, en rater une avec l’option Vsync c’est pas visible, de coup je vois pas l’utilité du truc.








chaps a écrit :



Dommage de passer par une solution propriétaire, car l’idée est bonne !



Y’a pas moyen de mettre au point une norme basée sur un principe similaire, mais ouverte à tous ?





Tu exiges d’amd qui développe un mantle destiné aux cartes nvidia et peut être que nvidia en retour sortira sa technologie pour amd.



Malheureusement dans la réalité, chacun bosse pour soi car c’est la vie, la cours de l’actio net les bénefs de la boite qui sont en jeu.









David_L a écrit :



Pour permettre au concurrent de résoudre un souci avec zéro R&D ? Je crois pas <img data-src=" />











mightmagic a écrit :



Tu exiges d’amd qui développe un mantle destiné aux cartes nvidia et peut être que nvidia en retour sortira sa technologie pour amd.



Malheureusement dans la réalité, chacun bosse pour soi car c’est la vie, la cours de l’actio net les bénefs de la boite qui sont en jeu.







Je n’exige rien, je dis juste que c’est dommage de faire une enième techno fermée.



Et je ne rêve pas qu’Nvidia la libère, je me demande juste si un consortium indépendant pouvait mettre au point une norme “ouverte” permettant peu ou prou la même chose.



La puce en question elle est passive où elle discute avec la CG ?








mightmagic a écrit :



Tu exiges d’amd qui développe un mantle destiné aux cartes nvidia et peut être que nvidia en retour sortira sa technologie pour amd.



Malheureusement dans la réalité, chacun bosse pour soi car c’est la vie, la cours de l’actio net les bénefs de la boite qui sont en jeu.





Y a de tres grande chance que Nvidia sorte son Mantle-like rapidement.









dam1605 a écrit :



La puce en question elle est passive où elle discute avec la CG ?





Vu que ca se synchronise en temps reel en fonction du framerate, je suppose que ça soit discuter.



Edit. En fait la puce est peut être capable de déterminer le framerate, donc c’est pas obligé <img data-src=" />

A voir si ca genere du lag.









yeagermach1 a écrit :



Y a de tres grande chance que Nvidia sorte son Mantle-like rapidement.





Vu les derniers commentaires de leur part et de carmack invité, il y a de forte chance que non.









chaps a écrit :



Je n’exige rien, je dis juste que c’est dommage de faire une enième techno fermée.



Et je ne rêve pas qu’Nvidia la libère, je me demande juste si un consortium indépendant pouvait mettre au point une norme “ouverte” permettant peu ou prou la même chose.





Ce que je voulais dire est que tu ne peux demander à une société d’être altruiste alors que ses concurrents ne le sont pas.



Ce serait bien qu’un truc comme mantle et ce gsync soit ouvert à tous comme un standard.



Si gsync est une telle merveille comme pas mal le disent, même Tridam d’hfr, il ya de fortes chances que ça devienne un standard moyenant finance car nvidia a du déposé des brevets pour que personne d’autres puisse développer une même technologie sans donner des royalties..









mightmagic a écrit :



Vu les derniers commentaires de leur part et de carmack invité, il y a de forte chance que non.





Si mantle permet une telle hausse des performances, Nvidia sortira le leur. Faut pas rever.



Moi ce qui m’étonne en ce moment, c’est le manque de jeu sponsorisé par Nvidia. La quasi totalité des grosses IP de cette année, le sont par AMD.









yeagermach1 a écrit :



Si mantle permet une telle hausse des performances, Nvidia sortira le leur. Faut pas rever..





Comme dit dans de nombreuses previews et par de nombreuses personnes, gsync rendrait caduque l’intérêt de mantle donc je doute qu’nvidia développe son mantle like.

J’aimerais pourtant aussi qu’ils développent leur mantle like mais je pense que ça ne servirait à rien car aucun développeur ne va faire une version direct3d et une evrsion pour chaque api propriétaire à une époque où les versions Pcs sont quasiment toujours des portages des versions consoles.

Au début des cartes 3d, cela était le cas mais aujourd’hui, ce n’est plus possible.

Nvidia se contentera de direct3d et d’opengl qui lui peut faire aussi bien que mantle d’après ce que carmak vient de dire grâce aux extensions d’nvidia.







Moi ce qui m’étonne en ce moment, c’est le manque de jeu sponsorisé par Nvidia. La quasi totalité des grosses IP de cette année, le sont par AMD



Pas toutes.

A part BF4, il n’y a pas grande IP sponsorisé par AMD en cette fin d’année.



Cette année, ils ont eu tomb raider et à part des jeux dans un pack qui n’ont pas tous été sponsorisés amd, il n’y a pas beaucoup de jeux sponsorisé AMD.,



Nivida avait watch dogs même si celui-ci est repoussé. Nvidia a aussi assassin creed 4 et le prochain batman qui sort en cette fin d’année









mightmagic a écrit :



Comme dit dans de nombreuses previews et par de nombreuses personnes, gsync rendrait caduque l’intérêt de mantle donc je doute qu’nvidia développe son mantle like.

J’aimerais pourtant aussi qu’ils développent leur mantle like mais je pense que ça ne servirait à rien car aucun développeur ne va faire une version direct3d et une evrsion pour chaque api propriétaire à une époque où les versions Pcs sont quasiment toujours des portages des versions consoles.

Au début des cartes 3d, cela était le cas mais aujourd’hui, ce n’est plus possible.

Nvidia se contentera de direct3d et d’opengl qui lui peut faire aussi bien que mantle d’après ce que carmak vient de dire grâce aux extensions d’nvidia.







Pas toutes.

A part BF4, il n’y a pas grande IP sponsorisé par AMD en cette fin d’année.



Cette année, ils ont eu tomb raider et à part des jeux dans un pack qui n’ont pas tous été sponsorisés amd, il n’y a pas beaucoup de jeux sponsorisé AMD.,



Nivida avait watch dogs même si celui-ci est repoussé. Nvidia a aussi assassin creed 4 et le prochain batman qui sort en cette fin d’année









——————————————————————————-



“Comme dit dans de nombreuses previews et par de nombreuses personnes, gsync rendrait caduque l’intérêt de mantle donc je doute qu’nvidia développe son mantle like. ”



Je vois pas trop le rapport entre Mantle qui permet de mieux gérer les ressources offertes par la cg et donc orienté optimisation, et un matos qui permet de “gérer le flux” d’images envoyés à l’écran pour éviter les effets de “lag” :) . Et de toute façon, ce type de matos existe pour amd et nvidia, mais pour les pros.





“Nivida avait watch dogs même si celui-ci est repoussé. Nvidia a aussi assassin creed 4 et le prochain batman qui sort en cette fin d’année”



Je suis pas pro-console, mais faut bien avouer que c’est un bon argument pour acheter une console, où la principale concurrence réside dans les actus de jeux.

Ayant une cg amd, c’est ce qui me rebute à prendre ces jeux sponsorisés….si c’est du même genre qu’Assassin’s creed 3, je crois bien qu’ils resteront dans le rayon :)









Pra4 a écrit :



——————————————————————————-



“Comme dit dans de nombreuses previews et par de nombreuses personnes, gsync rendrait caduque l’intérêt de mantle donc je doute qu’nvidia développe son mantle like. ”



Je vois pas trop le rapport entre Mantle qui permet de mieux gérer les ressources offertes par la cg et donc orienté optimisation, et un matos qui permet de “gérer le flux” d’images envoyés à l’écran pour éviter les effets de “lag” :) . Et de toute façon, ce type de matos existe pour amd et nvidia, mais pour les pros.





Je t’invite à allez lire les arguments qu’ils apportent.

Pour te résumer succinctement, gsync permettrait d’obtenir à 45i/s seulement la même fluidité alors qu’il faut aujourd’hui bien plus à cause des tearing, judder, problème avec vsync etc…



Donc pas besoin d’avoir beaucoup d’i/s et donc rendant de facto mantle caduque.



J’explique pas très bien mais si tu veux avoir une explication claire et détaillé, le mieux est que tu ailles lire.










Chiendelune a écrit :



Et quand on changera de marque de carte graphique, on devra changer d’écran pour éviter des problèmes de compatibilités ? Tu m’étonnes que les constructeurs d’écran foncent dessus :)







QUID de la rentabilité: prendre des royalties sur un brevet et se faire un CA de ouf sur tous les prochains écrans en laissant AMD et Intel compatibles <img data-src=" /> <img data-src=" />









mightmagic a écrit :



Je t’invite à allez lire les arguments qu’ils apportent.

Pour te résumer succinctement, gsync permettrait d’obtenir à 45i/s seulement la même fluidité alors qu’il faut aujourd’hui bien plus à cause des tearing, judder, problème avec vsync etc…



Donc pas besoin d’avoir beaucoup d’i/s et donc rendant de facto mantle caduque.



J’explique pas très bien mais si tu veux avoir une explication claire et détaillé, le mieux est que tu ailles lire.







Prend pas mal ce que je dis.



“Pour te résumer succinctement, gsync permettrait d’obtenir à 45i/s seulement la même fluidité alors qu’il faut aujourd’hui bien plus à cause des tearing, judder, problème avec vsync etc… “.



Entièrement d’accord avec toi, et j’ai bien lu. Je fais aussi la différence entre un truc qui te permet de bidouiller en profondeur la cg et donc d’optimiser, et un matériel qui permet la “synchro” (pour faire du général) avec la cg.



En d’autre thermes, l’histoire de “ça rend l’intérêt de Mantle caduque” (qui ça se trouve ne sera jamais use), c’est du pipo. C’est comme comparer une vache à un cheval.



L’un te permet de mieux utiliser les ressources du matos, et l’autre d’utiliser plus efficacement les ressources fourni par le matos. Donc l’un n’empêche pas l’autre.



Tient, un mec a essayer de faire la comparaison :https://linustechtips.com/main/topic/66778-amd-mantle-vs-nvidia-g-sync/

Plus qu’a lire les réponses :)










Pra4 a écrit :



Prend pas mal ce que je dis.



“Pour te résumer succinctement, gsync permettrait d’obtenir à 45i/s seulement la même fluidité alors qu’il faut aujourd’hui bien plus à cause des tearing, judder, problème avec vsync etc… “.



Entièrement d’accord avec toi, et j’ai bien lu. Je fais aussi la différence entre un truc qui te permet de bidouiller en profondeur la cg et donc d’optimiser, et un matériel qui permet la “synchro” (pour faire du général) avec la cg.



En d’autre thermes, l’histoire de “ça rend l’intérêt de Mantle caduque” (qui ça se trouve ne sera jamais use), c’est du pipo. C’est comme comparer une vache à un cheval.



L’un te permet de mieux utiliser les ressources du matos, et l’autre d’utiliser plus efficacement les ressources fourni par le matos. Donc l’un n’empêche pas l’autre.





Cela rend caduque parce que si tu n’as pas besoin de dépasser les 45-50i/s comme dit par de nombreuses personnes qui ont pu tester pour une extrême fluidité, mantle a moins d’intérêt.



Mantle sert surtout à atteindre un nombre d’i/s bien plus élevé par rapport à dx. Si tu peux te contenter de peu en étant aussi fluide que beaucoup, mantle sera moins utile.



En plus gsync marche sur tous les jeux et programme dès le départ alors que mantle ne fonctionne que si les développeurs développent une version spécifique ce qui limite encore plus l’intérêt de mantle.



Rien n’empêche d’avoir les 2 mais en l’état si tu n’as pas mantle en étant sur nvidia, gsqync est une alternative meilleur car applicable à 100% des jeux.