G-Sync Compatible : comment utiliser un écran FreeSync/Adaptive Sync sur une GeForce

G-Sync Compatible : comment utiliser un écran FreeSync/Adaptive Sync sur une GeForce

VRR partout

Avatar de l'auteur
David Legrand

Publié dans

Hardware

15/01/2019 5 minutes
11

G-Sync Compatible : comment utiliser un écran FreeSync/Adaptive Sync sur une GeForce

NVIDIA supporte enfin le standard de la VESA pour le rafraichissement variable des écrans. Une bonne nouvelle après plusieurs années à ne promouvoir que sa solution G-Sync. Le constructeur est ainsi le seul à pouvoir exploiter les deux solutions. Voici comment ça marche.

Au CES de Las Vegas, NVIDIA l'a annoncé : les pilotes mis en ligne ce 15 janvier apportent le support des GeForce RTX 2060, mais également celui des écrans FreeSync/Adaptive Sync.

Pour rappel, il s'agit de synchroniser l'affichage de la carte graphique et celui du moniteur. Dès qu'une image est prête, elle est envoyée directement puis affichée, là où le fonctionnement classique se faisait à fréquence fixe (60 Hz, 144 Hz, etc.) ou au maximum de la capacité du GPU (même si l'écran ne pouvait pas suivre).

FreeSync et G-Sync : l'heure de la réconciliation

Cela impliquait des effets indésirables, notamment le tearing (déchirures) et le stuttering (saccades). NVIDIA a donc travaillé sur une solution maison, G-Sync, qui fonctionne grâce à un module implanté dans les écrans de ses partenaires. De son côté, AMD a construit sa solution FreeSync autour du standard de la VESA : le Variable Refresh Rate (VRR) du protocole Adaptive Sync. 

Ce dernier a été adopté par de nombreux constructeurs d'écrans, mais aussi de TV ou encore la Xbox One de Microsoft. Elle utilise en effet une puce AMD, notamment pour sa partie graphique.

NVIDIA G-SyncNVIDIA G-Sync

Si la solution d'AMD n'a pas tout de suite donné pleine satisfaction, notamment en raison de la trop grande liberté accordée aux constructeurs d'écrans qui avaient tendance à en abuser, elle s'est progressivement améliorée (avec l'arrivée du LFC). Elle a dans tous les cas l'avantage d'être standard et ouverte, et ainsi moins coûteuse que le G-Sync de NVIDIA. 

Mais elle ne fonctionnait de fait pas avec les GeForce, comme les Radeon ne peuvent utiliser G-Sync, qui est propriétaire mais reconnu pour être plutôt efficace. Face aux critiques récurrentes sur le sujet, NVIDIA a décidé de changer son fusil d'épaule et de revoir la définition de son offre G-Sync.

G-Sync se veut plus ouvert

Celle-ci se découpe désormais en trois : 

  • G-Sync
  • G-Sync Ultimate
  • G-Sync Compatible

Les deux premiers cas correspondent aux écrans qui utilisent le module FPGA propriétaire de NVIDIA, la version Ultimate étant celle certifiée avec HDR (entre autres critères). Ces écrans subissent une batterie de tests avant d'obtenir leur certification, et sont donc plus chers que la moyenne.

NVIDIA G-Sync

G-Sync Compatible correspond à des écrans FreeSync/Adaptive Sync qui ont eux aussi été validés par le constructeur. Ils subissent ainsi des tests (plus basiques) visant à vérifier que l'utilisateur ne rencontrera pas de problèmes dans la pratique. Sur plus de 500 écrans testés, pour le moment, seuls 12 ont été validés. 

S'ils ont obtenu le label, ils peuvent bénéficier d'une activation par défaut de G-Sync dans les pilotes à partir de la version publiée aujourd'hui (417.71). L'utilisateur branche son écran à une GeForce et n'a rien à faire. Sinon, la fonctionnalité doit être activée manuellement. 

Quelques conditions à respecter

Il y a néanmoins quelques restrictions : il faut disposer d'une GeForce de série 1000 (Pascal) ou 2000 (Turing) et utiliser le DisplayPort. Le fonctionnement n'est en effet pas encore assuré via le HDMI, ce qui arrivera dans un second temps.

Dommage pour ceux qui comptaient en profiter sur une télévision. Il en est de même pour les configurations multi-GPU où un seul écran G-Sync peut être géré avec le rafraichissement variable pour le moment. 

Comment procéder à l'activation ?

NVIDIA précise que la fonctionnalité de rafraichissement variable doit être activée sur votre écran, parfois un paramètre sera proposé dans son menu, parfois non (et ce sera donc automatique). 

Si votre écran est reconnu comme compatible, une notification sera affichée en bas à droite de votre écran sous Windows 10 : G-Sync compatible display connected. Un clic vous mènera aux paramètres G-Sync du panneau de configuration NVIDIA. C'était bien le cas de notre Acer XG270HU connecté à une GeForce RTX 2060 :

G-Sync FreeSyncG-Sync FreeSync

Si votre écran n'est pas reconnu, vous devrez accéder à ce panneau manuellement (via un clic droit sur le bureau). Dans la section Configuration de G-Sync vous pourrez activer ou non l'option. Elle pourra être mise en place en mode plein écran et/ou avec les applications fenêtrées. Ce sera à vous de choisir selon vos habitudes.

Si cette section n'apparaît pas, NVIDIA évoque une autre possibilité : se rendre dans Gérer les paramètres 3D, activer G-Sync dans Technologie du moniteur. Si ce n'est pas proposé, c'est sans doute que votre écran n'est pas compatible ou pas encore reconnu.

NVIDIA précise que vous pouvez toujours modifier la résolution ou augmenter la fréquence d'affichage et voir si cela change quelque chose.

Comment vérifier si G-Sync fonctionne ? 

Il n'y a pas d'indicateur permettant de voir si le rafraichissement variable est actif ou pas, mais le ressenti en jeu doit être relativement différent, notamment lorsque la carte graphique produit peu d'images par secondes.

Pour faire la démonstration de sa technologie, NVIDIA avait créé une démonstration fin 2013 : Pendulum. Elle est accessible à tous et peut être utilisée afin de vérifier si vous constatez des effets de déchirement ou de saccades.

Elle pèse un peu moins de 42 Mo et peut être utilisée avec différents angles de vue, en modifiant le framerate pour créer des situations où l'affichage du moniteur pose problème en l'absence de rafraichissement variable, etc.

G-Sync FreeSync

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

FreeSync et G-Sync : l'heure de la réconciliation

G-Sync se veut plus ouvert

Quelques conditions à respecter

Comment procéder à l'activation ?

Comment vérifier si G-Sync fonctionne ? 

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (11)


J’en profite de voir cet article, même si c’est un peu en dehors du sujet :
J’ai encore du mal à voir le gain de ce truc, pourtant j’ai un écran G-Sync 144Hz et une GTX 1080. Du coup, c’est plutôt dans les 30-50fps qu’on verra du mieux, plutôt vers 50-80 ?



Je vois une légère différence en mettant 25-80fps comme range dans le pendulum mais c’est pas non plus hyper fluide en G-Sync. C’est vraiment pas non plus une fluidité parfaite … Est-ce que dans vos tests c’est flagrant ? ou comme moi du un peu mieux pas de quoi casser 3 pattes à un caméléon.



bast73 a dit:





Y’a pas de règle sur telle ou telle plage de fréquence/framerate. Comme montré sur les deux graphiques, hors d’un V-Sync où le GPU produit toujours plus que la fréquence fixée, il y aura toujours des cas de tearing/stuttering.



Après c’est comme toute gêne, certains s’en foutent et ne le remarquent même pas, d’autres ne voient que ça (l’AA est un peu dans le même genre). Le principe du VRR/G-Sync est juste de couper le mal à la racine, même si avec les écrans FreeSync il y a des cas hors de la plage de fréquence gérée qui peuvent continuer à poser souci.


J’ai testé avec une 1060 et un Agon 322QCX, et j’ai des résultats mitigés. J’ai testé en particulier sur Destiny 2 et l’activation de Freesync cause des variations de luminosités sur les menus (imperceptibles en jeu).
Sur Borderlands 2, pas remarqué de soucis, mais j’ai moins de variations de framerate.



Et au final, j’arrive pas à distinguer une différence avec ou sans (à part le tearing sur le test pattern de la démo). J’ai pas le courage de tester avec ma R9 380 pour voir si y’a le même comportement.
Donc, vu que ça m’apporte plus de problèmes qu’autre chose, je vais continuer sans.


Y’a une bonne raison pour que cela ne fonctionne pas avec les GTX 900 ?
Ma 980 fonctionne toujours bien, et vu les prix pratiqués en ce moment, je ne suis pas particulièrement pressé de changé.



En tout cas, j’ai bien fait de ne pas craquer sur un écran GSync au prix fort, je vais attendre encore un peu avant de changer d’écran.
Coté carte graphique, attendre une vrai réponse d’AMD histoire de remettre un peu de concurrence dans le secteur, ou d’Intel, qui sait il sortirons peut-être un truc intéressant.



Patatt a dit:


Y’a une bonne raison pour que cela ne fonctionne pas avec les GTX 900 ? Ma 980 fonctionne toujours bien,




Oui, Adaptive Sync impose une nouvelle version de Display Port qui a été intégrée par AMD sur les séries R9 290 et consorts en 2013 mais pas sur la série 900 de NVIDIA sortie en 2014.



Il y a le même besoin de gap en HDMI puisque d’après le standard il faudrait du HDMI 2.1. AMD a contourné logiciellement la contrainte sur des versions antérieures mais avec des limitations. Le HDMI 2.1 est sorti fin 2017 mais ni AMD ni NVIDIA n’ont de cartes qui le gère. AMD a promis une rustine logicielle pour VEGA mais sans date. C’est assez dommage car les téléviseurs, eux, existent.


Testé sur mon ViewSonic XG2700-4K, ça fonctionne mais vu que c’est du 60Hz, ça n’apporte pas assez pour que je le laisse activé… je garde ça sous la manche pour quand les écrans UHD 144Hz seront abordables :D


Petit hors sujet en parlant d’HDMI et de téléviseur :mad2:



Est ce quelqu’un sait si absence de displayport sur les télé a une justification technique ?
Ou alors c’est seulement du au fait que les membres du consortium sont les grand de l’électronique et de la production audiovisuelle ?



Norde a dit:





HDMI a surtout été développé avant, et c’est dans les habitudes des consommateurs, largement dispo sur tous les produits. Tu ne changes pas ça comme ça, du coup le DP reste présent dans le monde PC où les composants sont indépendants les uns des autres et évoluent plus vite. (Les mêmes industriels sont dans la VESA hein)



David_L a dit:


HDMI a surtout été développé avant, et c’est dans les habitudes des consommateurs, largement dispo sur tous les produits. Tu ne changes pas ça comme ça, du coup le DP reste présent dans le monde PC où les composants sont indépendants les uns des autres et évoluent plus vite. (Les mêmes industriels sont dans la VESA hein)




Oui je me doute bien que les habitudes ne peuvent être changées comme ça, mais je n’arrive pas à comprendre qu’on ne puisse pas trouver un seul téléviseur avec un du displayport (en plus de l’HDMI).
On trouve bien les deux sur PC du coup je me demandai s’il y avait une raison “technique” à cela :fou:



(Tous les industriels de l’HDMI ne sont pas membre de VESA, et aucun des producteurs cinéma/télé. Mais en effet on retrouve LG, Panasonic, Samsung et Sony)



bast73 a dit:


J’en profite de voir cet article, même si c’est un peu en dehors du sujet : J’ai encore du mal à voir le gain de ce truc, pourtant j’ai un écran G-Sync 144Hz et une GTX 1080. Du coup, c’est plutôt dans les 30-50fps qu’on verra du mieux, plutôt vers 50-80 ?Je vois une légère différence en mettant 25-80fps comme range dans le pendulum mais c’est pas non plus hyper fluide en G-Sync. C’est vraiment pas non plus une fluidité parfaite … Est-ce que dans vos tests c’est flagrant ? ou comme moi du un peu mieux pas de quoi casser 3 pattes à un caméléon.




Ce n’est pas flagrant, mais en regardant bien on voit les différences. Testé sur un écran G-Sync 144Hz avec une GTX970, à 60fps, je vois bien les effets de stuttering en sélectionnant l’option “v-sync” et le tearing en sélectionnant “no v-sync”. En passant sur g-sync, c’est fluide et je ne vois plus de tearing.