GeForce GTX 970 / 980 et HDMI 2.0 : ça marche

GeForce GTX 970 / 980 et HDMI 2.0 : ça marche

Même avec quatre écrans

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

01/10/2014 5 minutes
38

GeForce GTX 970 / 980 et HDMI 2.0 : ça marche

Avec l'arrivée de ses GeForce GTX 970 et 980, NVIDIA a été le premier à mettre sur le marché une carte graphique capable de gérer le HDMI 2.0. L'occasion pour nous de vérifier le fonctionnement de cette nouvelle norme et de voir si elle est compatible avec un environnement à plusieurs écrans.

Alors que le DisplayPort 1.2 gère depuis bien longtemps la 4K à une fréquence de 60 Hz (voir notre analyse avec un écran ASUS), ce n'était pas encore le cas de l'HDMI jusqu'à il y a encore peu de temps. En effet, le HDMI 1.4 était limité à ce niveau à une fréquence de 24 à 30 Hz selon la définition, soit de quoi permettre la lecture d'un film, mais rien de plus. C'était donc loupé pour les jeux et une utilisation avec un PC de manière plus générale. Les premiers moniteurs 4K étaient donc équipés de deux ports HDMI 1.4 ou d'un DP 1.2.

HDMI 2.0 : objectif, rattraper le retard par rapport au DisplayPort 1.2

Mais pour les TV, autant dire que cela n'était pas sans poser quelques soucis. En effet, le DP n'est pas une connectique très répandue dans le salon et sur les amplis. De plus, le grand public ne connaît que le HDMI ou presque. Bien que le DisplayPort soit sans royalties, les industriels ne voulaient pas prendre le risque de bousculer le marché, et ont donc attendu le HDMI 2.0 patiemment.

 

displayport 1.2 4k

 

C'est en septembre 2013 que la norme est finalisée. Ainsi, on voit depuis quelques mois des TV l'exploiter, mais jusqu'à maintenant, ce n'était le cas d'aucune carte graphique. En attendant, NVIDIA avait trouvé une première astuce permettant tout de même d'utiliser de la 4K @ 60 Hz via le HDMI 1.4, lorsque l'écran ou la TV le permettait. Avec l'arrivée des GeForce GTX 970 et 980, NVIDIA est le premier à proposer le support de l'HDMI 2.0 et son débit de 18 Gb/s. 

GeForce GTX 900 : HDMI 2.0 et 5K au programme

Dans la documentation technique qui accompagne la sortie de ses cartes, la marque est d'ailleurs un peu plus précise. La définition maximale pouvant être supportée par sa carte est de type 5K (5120 x 3200 pixels) @ 60 Hz, contre 3840 x 2160 pixels pour la génération Kepler. C'est plus que le fameux écran Dell 5K annoncé récemment (5120 x 2880), qui nécessitera sans doute un passage au DP 1.3. Est-ce que cela veut dire que NVIDIA se réserve l'annonce d'une telle compatibilité ? Impossible à dire pour le moment.

 

GeForce GTX 900 Maxwell HDMI 2.0

 

Comme précédemment, le nombre d'écrans supportés est par contre de quatre, avec la possibilité d'activer le mode Surround, et ce même sur des écrans de type G-Sync. Il faut dire que la connectique par défaut de la carte est plutôt fournie : trois DP 1.2, un HDMI 2.0 et un DVI-DL. Nous avons donc décidé de rapatrier trois écrans 1080p, un écran G-Sync et une TV 4K  avec HDMI 2.0 que nous avons commandé pour les labos : la LG 42UB820V.

Pas besoin de changer de câble : connectez-le et ça fonctionne 

Et comme annoncé par la marque : cela fonctionne. En effet, il suffit de prendre un câble HDMI (ceux-ci ne changent pas) sur le port 2.0 de la carte graphique et de la TV. Vous aurez alors la possibilité d'activer une fréquence maximale de 4096 x 2160 pixels @ 60 Hz dans les paramètres de Windows. Notez que dans le panneau de configuration de NVIDIA c'est la même chose, mais avec une subtilité : il faudra se rendre dans la section PC et non pas dans Ultra HD / HD / SD qui se limite à du 30 Hz : 

 

GeForce GTX 980 HDMI 2.0GeForce GTX 980 HDMI 2.0

 

On peut alors profiter pleinement de la fluidité de la souris, même si utiliser Windows sur une telle diagonale n'est pas des plus confortable. Pour les jeux, cela prend par contre une autre dimension, même s'il faudra pour cela disposer d'une carte graphique assez puissante (nous y reviendrons dans une prochaine analyse).

Gérer quatre écrans, dont une TV 4K, c'est aussi possible

Et du côté de la gestion multi-écran ? En effet, NVIDIA annonce pouvoir gérer quatre affichages en simultanée, mais est-ce aussi possible en 4K @ 60 Hz. Selon nos essais : oui. En effet, nous avons pu utiliser trois écrans en 1080p avec la TV en complément sans problème. Voici d'ailleurs le bureau que nous avons obtenu pour l'occasion :

 

GeForce GTX 980 trois écrans + 4K

 

Il en était de même si un des trois écrans était un modèle G-Sync en 2560x1440 pixels (un Swift PG278Q d'ASUS). Nous n'avons malheureusement pas pu tester ce qu'il en était avec plusieurs de ces modèles ou plusieurs TV 4K pour le moment. Mais cela ne devrait là non plus pas poser de soucis.

 

NVIDIA respecte donc bien ce qui est annoncé avec ses GTX 970/980 du côté des définitions et des normes supportées. On appréciera au passage que la connectique arrière suffise à exploiter de multiples écrans même s'il faudra parfois passer par des adaptateurs DP / HDMI vu que c'est cette première connectique qui est présente en grande majorité (trois ports sur un modèle de référence). Il sera intéressant de voir si le DP 1.3 s'ajoute finalement à la liste dans les mois à venir. 

 

Notez enfin que si nos tests ont fonctionné nativement pour notre TV, un modèle plus ancien pourra peut-être nécessiter une mise à jour de son firmware pour que tout se passe bien. Si tel est votre cas, n'hésitez pas à nous le faire savoir au sein de nos commentaires.

 

GeForce GTX 980 HDMI 2.0GeForce GTX 980 HDMI 2.0

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

HDMI 2.0 : objectif, rattraper le retard par rapport au DisplayPort 1.2

GeForce GTX 900 : HDMI 2.0 et 5K au programme

Pas besoin de changer de câble : connectez-le et ça fonctionne 

Gérer quatre écrans, dont une TV 4K, c'est aussi possible

Commentaires (38)


Il n’y a que moi pour penser que c’est un marché de niche ?








Ricard a écrit :



Il n’y a que moi pour penser que c’est un marché de niche ?







A fort pouvoir d’achat (comprendre le monde pro)



Ca me fait envie les écrans 4K pour bosser, mais ça à l’air juste vraiment chère ^^








Ricard a écrit :



Il n’y a que moi pour penser que c’est un marché de niche ?






Le marché de niche du jour est le marché grand public de demain ;) Après le but c'était surtout de vérifier que le HDMI 2.0 était fonctionnel à 60 Hz et que tout passait bien avec plusieurs écrans en //. La connectique va de toutes façons être de plus en plus présente, reste à voir si ce sera aussi le cas sur les moniteurs 4K qui vont arriver et se démocratiser, ou s'ils resteront à du DP.     





Après il faut aussi voir qu’une TV HDMI 2.0 42” comme celle utilisée ici, c’est moins de 800 euros livré désormais. On est loin du produit de luxe : )







Thoscellen a écrit :



Ca me fait envie les écrans 4K pour bosser, mais ça à l’air juste vraiment chère ^^





  http://www.prixdunet.com/moniteur-lcd/iiyama-prolite-b2888uhsu-b1-871914.html



<img data-src=" />&nbsp;Je suis assez étonné.



J’ai reçu ma gtx970 samedi mais je n’avais qu’un câble mini DP. En attendant j’ai donc utilisé un câble HDMI pour connecter mon dell U2713HM (2560x1440).



Et bien impossible de dépasser le 1920x1080, &nbsp;aussi bien dans la partie PC ou HD des drivers (les derniers disponibles). J’ai été super déçu et pas moyen de monter en résolution, sauf à créer une résolution personnalisée mais avec une image dégradée.



Fonctionnement OK avec un câble dual-DVI et maintenant mon câble DP tout neuf.



Cela devait donc venir du câble HDMI mais je n’en avais pas d’autre disponible sous la main.








David_L a écrit :



Le marché de niche du jour est le marché grand public de demain ;)





<img data-src=" /> R&D en quelque sorte.





Après il faut aussi voir qu’une TV HDMI 2.0 42” comme celle utilisée ici, c’est moins de 800 euros livré désormais. On est loin du produit de luxe : )



On est encore loin du produit grand public aussi.<img data-src=" />









Thoscellen a écrit :



Ca me fait envie les écrans 4K pour bosser, mais ça à l’air juste vraiment chère ^^







en tout cas pour les télé les prix fondent comme neige au soleil

c’est déjà abordable










pcrwr a écrit :



<img data-src=" /> Je suis assez étonné.



J’ai reçu ma gtx970 samedi mais je n’avais qu’un câble mini DP. En attendant j’ai donc utilisé un câble HDMI pour connecter mon dell U2713HM (2560x1440).

.







Cet écran ne gère pas le HDMI 2 mais le 1.4 (HDMI 2 a été finalisée après la commercialisation de l’écran <img data-src=" />) . Ceci dit, cette résolution est normalement supporté par cette norme <img data-src=" />



Il est certifié High-Speed ton câble ?









pcrwr a écrit :



<img data-src=" />&nbsp;Je suis assez étonné.







Cela devait donc venir du câble HDMI mais je n’en avais pas d’autre disponible sous la main.





Comme répondu au dessus, la limitation vient de ton écran, pas de la carte. Il faut que l’écran soit HDMI 2.0, ce n’est pas le cas. Du coup obligé de passer par du DP. Et comme dit dans l’actu, il n’y a aucune différence de câble entre le HDMI 1.4 et le 2.0.









David_L a écrit :



En effet, le HDMI 1.4 était limité à ce niveau à une fréquence de 24 à 30 Hz selon la définition, soit de quoi permettre la lecture d’un film, mais rien de plus. C’était donc loupé pour les jeux et une utilisation avec un PC de manière plus générale





Je ne comprends pas en quoi c’est loupé pour utiliser un PC de manière plus générale.



Pourquoi Dell ne fait plus d’écran Haut de gamme ?

J’ai toujours mon 2707WFP depuis 2007 et j’aimerais bien le replacer par un plus récent.



Le problème c’est que tous les écrans d’aujourd’hui font cheap. Finition plastique et pied non mobile.








OlivierJ a écrit :



Je ne comprends pas en quoi c’est loupé pour utiliser un PC de manière plus générale.





24 à 30 Hz c’est visiblement saccadé, les films rajoutent du “flou cinétique” pour qu’on ne le voit pas trop (d’où l’idée du HFR pour le Hobbit par ex.).



Les écrans de PC/smartphones etc. utilisent 60Hz.









wagaf a écrit :



24 à 30 Hz c’est visiblement saccadé, les films rajoutent du “flou cinétique” pour qu’on ne le voit pas trop (d’où l’idée du HFR pour le Hobbit par ex.).

Les écrans de PC/smartphones etc. utilisent 60Hz.





Heu, non, justement Vincent a précisé dans son article que le 24 ou 30 Hz limitait à la visualisation de films (qui comportent de 24 à 30 images/sec selon les sources, 24 pour le cinéma classique) ; jusque-là rien à dire.

Et de mon côté je ne parlais pas de jouer (là où il y a un intérêt à dépasser 30 Hz).









OlivierJ a écrit :



Heu, non, justement Vincent a précisé dans son article que le 24 ou 30 Hz limitait à la visualisation de films (qui comportent de 24 à 30 images/sec selon les sources, 24 pour le cinéma classique) ; jusque-là rien à dire.

Et de mon côté je ne parlais pas de jouer (là où il y a un intérêt à dépasser 30 Hz).





Si c’est juste pour regarder des films, ce n’est pas une utilisation “PC” (dans ce cas 60Hz ne servent pas, la source étant 24 ou 30Hz).



Mais pour tout le reste - pas que jouer - c’est plus confortable et fluide avec 60Hz, même si ça reste utilisable en 24 ou 30Hz.









pcrwr a écrit :



<img data-src=" />&nbsp;Je suis assez étonné.



J’ai reçu ma gtx970 samedi mais je n’avais qu’un câble mini DP. En attendant j’ai donc utilisé un câble HDMI pour connecter mon dell U2713HM (2560x1440).



Et bien impossible de dépasser le 1920x1080, &nbsp;aussi bien dans la partie PC ou HD des drivers (les derniers disponibles). J’ai été super déçu et pas moyen de monter en résolution, sauf à créer une résolution personnalisée mais avec une image dégradée.



Fonctionnement OK avec un câble dual-DVI et maintenant mon câble DP tout neuf.



Cela devait donc venir du câble HDMI mais je n’en avais pas d’autre disponible sous la main.









Je monte a 3600 x 2025 via les drivers Nvidia (j’ai une 680 GTX) depuis un ecran 27” ayant comme resolution native 2560 x 1440. Le tout avec une image nickel sur LOTRO comme jeu par exemple

Je voulais tester des résolutions proches de la 4K pour voir le confort

Pas pour moi, je préfère de loin (actuellement) un mode Surround 7500 x 1080 qu’un 4K









Anna Lefeuk a écrit :



Je monte a 3600 x 2025 via les drivers Nvidia (j’ai une 680 GTX) depuis un ecran 27” ayant comme resolution native 2560 x 1440. Le tout avec une image nickel sur LOTRO comme jeu par exemple

Je voulais tester des résolutions proches de la 4K pour voir le confort

Pas pour moi, je préfère de loin (actuellement) un mode Surround 7500 x 1080 qu’un 4K









Petite precision: Connectique HDMI. Frequence 30 Htz









OlivierJ a écrit :



Je ne comprends pas en quoi c’est loupé pour utiliser un PC de manière plus générale.





Bah utilise ton PC au quotidien avec une fréquence de 30 Hz et dit moi que c’est super confortable <img data-src=" /> C’était tout le souci du HDMI 1.4 qui ne permet que de lire de la vidéo en 4K, pour tout le reste, c’est insupportable (bureau ou 3D).



Vivement le DP 1.3 pour profiter du 4k et 5k en 120hz/144hz.


Je me pose une question que je ne m’étais jamais posée avant concernant l’adaptative sync… Comment ça fonctionne avec du multi écran ?



Chaque écran adapte son taux de rafraichissement en attendant les images de la carte graphique indépendant des autres ? Le fonctionnement n’est pas différent d’avant ? La carte graphique n’a aucune chose à faire ?



C’est marrant mais je me pose la même question avec un rafraichissement fixe différent. Par exemple, 75hz et 60hz.



Peut être qu’il est trop tard pour moi mais j’avoue ne pas avoir de piste pour le coup <img data-src=" />


Permettez moi de vous corriger : le SWIFT est en 2560x1440, et non en 2560x1600 :) !


et pour la GTX 750 non ?








David_L a écrit :



Bah utilise ton PC au quotidien avec une fréquence de 30 Hz et dit moi que c’est super confortable <img data-src=" />





Ma question est tout à fait sérieuse, quels sont les symptômes quand tu lis des articles en ligne, ou quand tu tapes un document ?

(si j’avais les moyens de tester, je te dirais volontiers)









OlivierJ a écrit :



Ma question est tout à fait sérieuse, quels sont les symptômes quand tu lis des articles en ligne, ou quand tu tapes un document ?

(si j’avais les moyens de tester, je te dirais volontiers)





Si tu laisses un vieux crt en 50Hz (au lieu de 75 ou 85Hz), le scintillement provoque une fatigue oculaire et un mal au crâne.



L’effet doit être identique avec un lcd.



D’ailleurs avec XBMC sur une tv en 24Hz ou 30Hz, le curseur de la souris est saccadé, c’est assez désagréable <img data-src=" />









Depy1501 a écrit :



Je me pose une question que je ne m’étais jamais posée avant concernant l’adaptative sync… Comment ça fonctionne avec du multi écran ?



Chaque écran adapte son taux de rafraichissement en attendant les images de la carte graphique indépendant des autres ? Le fonctionnement n’est pas différent d’avant ? La carte graphique n’a aucune chose à faire ?



C’est marrant mais je me pose la même question avec un rafraichissement fixe différent. Par exemple, 75hz et 60hz.



Peut être qu’il est trop tard pour moi mais j’avoue ne pas avoir de piste pour le coup <img data-src=" />





Aucune idée pour la techno qui sera utilisée par AMD. Mais pour G-Sync, l’écran est détecté, la fonctionnalité activée et sa fréquence indépendante des autres. Pas de raison que ce soit différent pour AS/FreeSync, mais on a pour le moment aucun détail.



&nbsp;



OlivierJ a écrit :



Ma question est tout à fait sérieuse, quels sont les symptômes quand tu lis des articles en ligne, ou quand tu tapes un document ?

(si j’avais les moyens de tester, je te dirais volontiers)





Tu n’as pas la possibilité d’activer le 30 Hz dans tes paramètres ? Bah sinon c’est simple, tout te parait ne plus être fluide et saccadé. Rien que pour la souris, ça pose souci. C’est utilisable, mais gonflant.&nbsp;









David_L a écrit :



Tu n’as pas la possibilité d’activer le 30 Hz dans tes paramètres ? Bah sinon c’est simple, tout te parait ne plus être fluide et saccadé. Rien que pour la souris, ça pose souci. C’est utilisable, mais gonflant.&nbsp;





C’est ce que je viens de dire <img data-src=" />









Ricard a écrit :



Il n’y a que moi pour penser que c’est un marché de niche ?







Avec une GTX, tu peux même chauffer la niche du chien.



<img data-src=" />



“5120 x 3200 pixels) @ 60 Hz, contre 3840 x 2160 pixels pour la génération Kepler. C’est plus que le fameux écran Dell 5K annoncé récemment (5120 x 2880)”



C’est pas vraiment “plus”, il me semble que cela correspond juste à intégrer les écrans 16:10 dans la même plage de résolution.



En informatique ce format est très prisé (par les graphistes notamment).









Groumfy a écrit :



Avec une GTX, tu peux même chauffer la niche du chien.



<img data-src=" />





L’intérêt de cette nouvelle gamme Haswell, c’est justement la réduction du TDP.

Les perf sont similaire aux 780780 Ti.

Perso elle me botte bien cette 970GTX en changement d’une 570GTX (qui était elle-même une version amélioré du 470GTX pour les même raisons).



Je sors de ma niche.



Possédant 224°brancher en DVI + 1 27° 25601440 (U2713HM) en DP et une LG 55UB850V (4K en 55°) branché sur un port compatible HDMI 2.0 mais limité en 1.4a vue que j’ai une GTX 770.



J’ai eu pas mal de soucis lié à ce problème de fréquence vue qu’avec le dernier drivers nvidia, ma télévision était reconnu en tant que écran 60 hertz brancher en HDMI 2.0. (pas en 1.4a)

Windows plantait littéralement, donc par dépit j’ai remis l’ancien drivers.



Aujourd’hui j’ai vue qu’il y avais une maj de l’os de ma télévision ce qui m’as permis de mettre le nouveau drivers. (car j’ai pu brider la résolution de la télévision pendant l’installation)



Et tout fonctionne nickel, actuellement je fais ça pour avoir du 4K en 60 Hertz (4:2:0):

http://www.nextinpact.com/breve/88288-nvidia-propose-4k-60-hz-via-hdmi-1-4.htm



Je me tâte pour m’acheté une 970 pour passer en 60 Hertz natif en 4:4:4, enfin je ne sais pas si ça vaux le coup vue que j’ai déjà une bonne carte vidéo.

Actuellement je ne joue pas sur ma télévision 4K, j’utilise XBMC et des flux en streaming dessus.




De plus, le grand public ne connaît que le HDMI ou presque.



La belle excuse, le grand public. Lui il branche ce qu’il y a à brancher.

Ca serait pas plutot pour faciliter le contrôle des DRM ?


sur le U2713HM, que j ai aussi, la full reso en HDMI ne vient pas de la norme (1.4 suffirait) mais bien du “firmware” moisi de l écran qui refuse les 60Hz.

Par contre, pas de soucis pour créer une reso personalisée 2560*1440 @30Hz.



Ainsi, je l utilise en DP sur mon fixe @ 60Hz et en HDMI de mon portable @ 30Hz.

(pas de dual dvi sur le fixe avec gpu/cpu Intel).



Le 30Hz pour bosser (web+prog) n est pas génant.








airfab a écrit :



Si tu laisses un vieux crt en 50Hz (au lieu de 75 ou 85Hz), le scintillement provoque une fatigue oculaire et un mal au crâne.



L’effet doit être identique avec un lcd.



D’ailleurs avec XBMC sur une tv en 24Hz ou 30Hz, le curseur de la souris est saccadé, c’est assez désagréable <img data-src=" />





Alors, un LCD n’a pas d’effet de scintillement, la formation de l’image n’a rien à voir, et le rétroéclairage est constant.

J’ai un mini-PC Linux branché sur ma télé LCD lambda, le curseur de la souris est tout à fait fluide. Il n’y a pas besoin d’avoir beaucoup d’images différentes par seconde pour cela (la sensation de mouvement fluide on l’a déjà au ciné avec 24, pour rappel).







David_L a écrit :



Tu n’as pas la possibilité d’activer le 30 Hz dans tes paramètres ? Bah sinon c’est simple, tout te parait ne plus être fluide et saccadé. Rien que pour la souris, ça pose souci. C’est utilisable, mais gonflant.





Là rien que sur mon portable/laptop, quand je bouge la souris rapidement, je vois les multiples images, je ne suis pas sûr du tout d’en avoir plus que 30 par seconde, et ça me paraît fluide.

Il doit y avoir un autre effet qui se manifeste quand tu règles ce 30 Hz, tu ne dois pas avoir 30 rafraichissements de la position de la souris par seconde alors.









OlivierJ a écrit :



la sensation de mouvement fluide on l’a déjà au ciné avec 24, pour rappel







Le mouvement parait fluide à 24fps au cinéma car l’image est floue, pour rappel. Regarde Terminator, à la fin quand on voit le robot se déplacer, et viens dire que ça parait fluide (alors que c’est pourtant toujours 24 images par seconde)







OlivierJ a écrit :



Il doit y avoir un autre effet qui se manifeste quand tu règles ce 30 Hz, tu ne dois pas avoir 30 rafraichissements de la position de la souris par seconde alors.







Tu ne vois pas de différence sur le déplacement de la souris entre 30fps et 60fps ? Sérieusement ?



Bientôt du triple screen en 4K incurvé &lt;3








Oliewan a écrit :



La belle excuse, le grand public. Lui il branche ce qu’il y a à brancher.

Ca serait pas plutot pour faciliter le contrôle des DRM ?





Quel rapport ? HDCP fonctionne aussi bien sur DP que sur HDMI. Par contre, va me trouver des amplis en DP sur le marché… le choix du HDMI a été fait il y a bien longtemps, le DP a pris du galon depuis dans le monde PC, mais dans le salon on ne fait pas changer tout l’ecosystème parce que HDMI 2.0 est à la bourre par rapport à DP 1.2.







heiwa a écrit :



“5120 x 3200 pixels) @ 60 Hz, contre 3840 x 2160 pixels pour la génération Kepler. C’est plus que le fameux écran Dell 5K annoncé récemment (5120 x 2880)”



C’est pas vraiment “plus”, il me semble que cela correspond juste à intégrer les écrans 16:10 dans la même plage de résolution.





Je ne comprends pas ton raisonnement. La première définition, par rapport à la seconde, c’est 1,35x plus pouvant être affiché à l’écran. La génération précédente était juste limitée à du 4K à 60 Hz en DP 1.2, là on pourra aller plus loin, ce qui est dans la lignée des écrans 5K qui commencent à se montrer. Après, à avoir avec quelle connectique.









David_L a écrit :



Je ne comprends pas ton raisonnement. La première définition, par rapport à la seconde, c’est 1,35x plus pouvant être affiché à l’écran. La génération précédente était juste limitée à du 4K à 60 Hz en DP 1.2, là on pourra aller plus loin, ce qui est dans la lignée des écrans 5K qui commencent à se montrer. Après, à avoir avec quelle connectique.





Euh… comment se fait-il que mon propre message ai changé entre temps….

“3840 x 3200 pixels” contre 3840 x 2160 pixels

et maintenant:

“5120 x 3200 pixels) @ 60 Hz, contre 3840 x 2160 pixels



Pas les mêmes chiffres avec une coquille en plus.

Des explications?



edit: plus sur des chiffres que j’avais copié collé mais certains que quelqu’un a modifié mon message…



Etait-ce vraiment du 3840x2160 60Hz 4:4:4 avec ce TV LG ? Cela pourrait être du 4:2:0, officiellement supporté dans la norme HDMI2.0, mais qui compte tenu du débit se comporte toujours comme du 1.4 au niveau physique (TMDS).








airfab a écrit :



L’effet doit être identique avec un lcd.

:









OlivierJ a écrit :



Alors, un LCD n’a pas d’effet de scintillement, la formation de l’image n’a rien à voir, et le rétroéclairage est constant.





En fait un LCD ça rafraichit aussi, mais pour des raisons différentes du CRT, car comme tu le dis le rétroéclairage est constant, ce qui se voit d’ailleurs très bien.

D’ailleurs dans les com’ il est indiqué un site rigolo. On peut tester plein de trucs, comme le ghosting par exemple via le menu déroulant en haut…



Quelqu’un a-t-il croise une tele 4k avec DP1.2 et une diagonale de 50” (qui ne coute pas un rein si possible?)

l’idee c est de remplacer 3U2412M en mode portrait (donc ~50”) emulant plus ou moins 6ecrans du boulot, et pouvoir egalement jouer sans ces grosses bordures et sans changer de GPU (690GTX)

plus le temps avance et plus je me dis que ca ne va pas passer sur cette generation de GPUs (ou alors avec des bidouilles du genre 4:4:4 -&gt; 4:2:0)