XB280HK : Acer annonce son écran G-Sync 4K de 28

XB280HK : Acer annonce son écran G-Sync 4K de 28″ à 699 euros

Cadeau de rentrée pour les joueurs

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

11/08/2014 2 minutes
82

XB280HK : Acer annonce son écran G-Sync 4K de 28

Un peu plus tôt dans l'année, Acer avait évoqué l'arrivée d'un écran 4K compatible avec la technologie G-Sync de NVIDIA : le XB280HK. Mais celui-ci n'avait pas été annoncé en Europe. C'est désormais chose faite, et il devrait arriver sous peu dans les magasins, pour 699 euros.

En juin dernier, nous revenions sur les différentes annonces de technologies permettant d'obtenir une fréquence variable au sein des moniteurs. Chez NVIDIA, cela prend le nom de G-Sync et cette solution proposée depuis quelques mois commence à se répandre chez les constructeurs d'écrans. Ainsi, et comme nous l'indiquions à l'époque, la plupart attendaient cet été pour effectuer les annonces de disponibilité en France. Après ASUS ou encore AOC, c'est donc au tour d'Acer de faire parler de lui avec son XB280HK.

 

Derrière cette référence se cache un modèle de 28" disposant d'une dalle 4K (3840 x 2160 pixels) et annonce des angles de vision de 170°/170°. Il est possible d'incliner l'écran de -5° à +35°, il peut aussi pivoter de 120° sur la gauche ou la droite si besoin et sa hauteur est variable (jusqu'à 150 mm). La marque annonce quelques technologies spécifiques afin de limiter le scintillement, d'ajuster la luminosité en fonction de la lumière ambiante et précise que sa dalle est antireflet. 

 

Acer XB280HK

 

Côté connectique, on retrouve bien entendu du DisplayPort 1.2 ainsi que quatre ports USB 3.0. Il se limitera donc à une fréquence maximale de 60 Hz, la connectique ne permettant pas d'aller plus haut, ce qui permet aussi d'alléger le coût de la dalle. Pour ce qui est du tarif justement, il est question de 699 euros, ce qui le place 100 euros moins cher que le ROG Swift PG278Q d'Asus (2560 x 1440 pixels), mais 200 à 300 euros plus cher que le modèle 24" et 1080p d'AOC, le g2460Pg.

 

Notez au passage qu'AMD a récemment mis en ligne une FAQ concernant sa propre alternative, FreeSync. Si elle nous apprenait peu de choses par rapport à notre dernière analyse, elle confirme qu'aucun moniteur n'est attendu avant la fin de l'année dans le meilleur des cas, et donc qu'il faudra sans doute plutôt attendre le début de l'année 2015 afin d'en profiter chez nous.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (82)


c’est intéressant comme idée, mais acheter un écran en fonction du fabriquant de la puce de la carte graphique, non merci <img data-src=" />



c’est une dalle TN ? <img data-src=" />




il faudra sans doute plutôt attendre le début de l’année 2015 afin d’en profiter chez nous.

Ca me laisse le temps d’économiser <img data-src=" />








jb18v a écrit :



c’est une dalle TN ? <img data-src=" />



oui <img data-src=">









jb18v a écrit :



c’est intéressant comme idée, mais acheter un écran en fonction du fabriquant de la puce de la carte graphique, non merci <img data-src=" />



c’est une dalle TN ? <img data-src=" />









CUlater a écrit :



oui <img data-src=">





Toujours : G-Sync = Joueurs = TN :/



28”, UHD et compatible G-Sync ? Reste plus qu’à savoir le type de dalle (en esperant que ça ne soit pas du TN), et ça peut être pas mal !



Edit : Ha, bon, bah, TN :(








David_L a écrit :



Toujours : G-Sync = Joueurs = TN :/







C’est débile, justement avec G-Sync on n’a pas forcément besoin d’une dalle hyper-réactive (pas besoin de 120Hz constants). Techniquement je ne vois pas ce qui empêcherait d’utiliser G-Sync sur une dalle IPS…









chaps a écrit :



C’est débile, justement avec G-Sync on n’a pas forcément besoin d’une dalle hyper-réactive (pas besoin de 120Hz constants). Techniquement je ne vois pas ce qui empêcherait d’utiliser G-Sync sur une dalle IPS…





Rien, si ce n’est la débilité du client qui cherche du 1 ms.









CUlater a écrit :



oui <img data-src=">











David_L a écrit :



Toujours : G-Sync = Joueurs = TN :/





moki <img data-src=" />



Perso, j’attends un écran 24”, 4K avec Adaptative Sync. J’espère que ça va arriver rapidement ! Parce que G-Sync, à mon avis, ça n’est pas pérenne !








David_L a écrit :



Toujours : G-Sync = Joueurs = TN :/







:/

Heureusement que Eizo ne suit pas cette logique à la con. Je regrette vraiment pas d’avoir perdu 1pouce en me prenant un FS2333.

Malheureusement il faudra sans doute attendre l’intégration de l’équivalent g-sync dans la norme displayport pour espérer qu’ils l’implémentent dans leur écrans.









David_L a écrit :



Rien, si ce n’est la débilité du client qui cherche du 1 ms.







On est bien d’accord <img data-src=" />



Erff faut déjà que je change ma carte graphique. D’ailleurs, si quelqu’un a une ATI Radeon 7970m pour Dell Alienware m15x. Qu’il me contacte <img data-src=" />








Algent a écrit :



Heureusement que Eizo ne suit pas cette logique à la con. Je regrette vraiment pas d’avoir perdu 1pouce en me prenant un FS2333.







Ouais, enfin là tu compares un 28” UHD compatible G-Sync, avec un 23” FHD “classique”. Aucun rapport entre les deux, du coup la comparaison n’est pas très pertinente (je pense) <img data-src=" />



4K, faut une sacré CG pour faire tourner les jeux récents correctement dessus non ? Si c’était pas autant un gouffre financier ça me botterait bien…








jeliel a écrit :



4K, faut une sacré CG pour faire tourner les jeux récents correctement dessus non ? Si c’était pas autant un gouffre financier ça me botterait bien…







Non, il faut une sacrée CG pour faire tourner les jeux récents correctement en 4K.

Mais tu n’es pas obligé de les faire tourner en 4K sur cet écran, tu peux les faire tourner en 1080p ou 720p, ce sont des divisions exactes de la définition native 4K, ça devrait être aussi net que si c’était un écran 1080p ou 720p natif.









ZoZo a écrit :



Non, il faut une sacrée CG pour faire tourner les jeux récents correctement en 4K.

Mais tu n’es pas obligé de les faire tourner en 4K sur cet écran, tu peux les faire tourner en 1080p ou 720p, ce sont des divisions exactes de la définition native 4K, ça devrait être aussi net que si c’était un écran 1080p ou 720p natif.





Intéressant… par contre niveau temps de réponse en ms ça doit être loin des récents je suppose ? là j’ai 1ms sur un 27” en 1080p, je sais qu’on peut monter mais jusqu’à combien…









jeliel a écrit :



Intéressant… par contre niveau temps de réponse en ms ça doit être loin des récents je suppose ? là j’ai 1ms sur un 27” en 1080p, je sais qu’on peut monter mais jusqu’à combien…







tu as 1ms sur la papier….. dans la réalité tu dois être plus proche de 4 ou 5, voire plus



Et c’est quoi surtout la fréquence de rafraichissement en 4K ? c’est encore du 30Hz ?



Le Gsync c’est bien gentil mais si en 4K tu peux faire du 30Hz ou moins ça sert à rien… Déjà que le 60Hz c’est pas optimal, c’est tout de même le minimum pour une utilisation autre que téléviseur…








jeje07 a écrit :



tu as 1ms sur la papier….. dans la réalité tu dois être plus proche de 4 ou 5, voire plus





Iep je me doute, mais du coup quand ils annoncent de gros temps de réponse sur les 4K ça doit être bien pire <img data-src=" />









jeliel a écrit :



Iep je me doute, mais du coup quand ils annoncent de gros temps de réponse sur les 4K ça doit être bien pire <img data-src=" />







ben justement….. pas forcément!









Lordtoniok a écrit :



Et c’est quoi surtout la fréquence de rafraichissement en 4K ? c’est encore du 30Hz ?



Le Gsync c’est bien gentil mais si en 4K tu peux faire du 30Hz ou moins ça sert à rien… Déjà que le 60Hz c’est pas optimal, c’est tout de même le minimum pour une utilisation autre que téléviseur…





DP 1.2 donc 60 Hz, comme tous les moniteurs 4K sur le marché en fait… non ? J’ai rajouté une précision pour que ce soit clair pour tout le monde :)









jeje07 a écrit :



ben justement….. pas forcément!





Du coup on peu savoir que par les reviews ?



Sinon actuellement il y a quoi comme utilisations ? Films 4K ?









jeliel a écrit :



Du coup on peu savoir que par les reviews ?







Sinon actuellement il y a quoi comme utilisations ? Films 4K ?









en fait tu n’as aucun moyen de savoir….. ce sont des données le plus souvent bidon, comme pour le contraste.

y avait eu un test dans SVM y a 3-4 ans, tous les écrans donnés pour 2ms étaient en fait vers 5-6, voire beaucoup plus!



seules les marques pro donnent les vraies valeurs, du genre eizo









David_L a écrit :



DP 1.2 donc 60 Hz, comme tous les moniteurs 4K sur le marché en fait… non ? J’ai rajouté une précision pour que ce soit clair pour tout le monde :)





Je ne savais pas que le DP1.2 permettait le 60Hz. Et non tous les écrans 4K ne sont pas 60Hz. Pas mal de 4K sont limités en 30Hz, on trouve pas mal d’article sur le web à ce sujet.










jeje07 a écrit :



en fait tu n’as aucun moyen de savoir….. ce sont des données le plus souvent bidon, comme pour le contraste.

y avait eu un test dans SVM y a 3-4 ans, tous les écrans donnés pour 2ms étaient en fait vers 5-6, voire beaucoup plus!



seules les marques pro donnent les vraies valeurs, du genre eizo





Ok je vois merci :)





Notez au passage qu’AMD a récemment mis en ligne une FAQ concernant sa propre alternative, FreeSync. Si elle nous apprenait peu de choses par rapport à notre dernière analyse, elle confirme qu’aucun moniteur n’est attendu avant la fin de l’année dans le meilleur des cas, et donc qu’il faudra sans doute plutôt attendre le début de l’année 2015 afin d’en profiter chez nous.



Je croyais que AMD avait dit qu’il n’y avait pas besoin de changer d’écran pour profiter du FreeSync contrairement à GSync ?



Encore du bullshit de AMD ? <img data-src=" />








Lordtoniok a écrit :



Je ne savais pas que le DP1.2 permettait le 60Hz. Et non tous les écrans 4K ne sont pas 60Hz. Pas mal de 4K sont limités en 30Hz, on trouve pas mal d’article sur le web à ce sujet.





Des TV sans doute, mais des écrans… ? Mais oui le DP 1.2 est pour le moment la seule connectique à proposer le 60 Hz en 4K, que ce soit en MST ou pas, en attendant l’arrivée de l’HDMI 2.0 de manière plus courante :)







dodo021 a écrit :



Je croyais que AMD avait dit qu’il n’y avait pas besoin de changer d’écran pour profiter du FreeSync contrairement à GSync ?



Encore du bullshit de AMD ? <img data-src=" />





Disons que c’est plus subtil : “Ce n’est pas nécessaire on peut bidouiller le firmware, la preuve on l’a fait pour notre démo sur laquelle on ne dit pas grand chose, mais bon pour des vrais écrans ce sera quand même mieux d’avoir un nouveau modèle pensé pour ça hein. Bisou” <img data-src=" /> (il faudra aussi un nouveau pilote, des cartes compatibles et on pourra enfin voir si la promesse est tenue).









David_L a écrit :



Disons que c’est plus subtil : “Ce n’est pas nécessaire on peut bidouiller le firmware, la preuve on l’a fait pour notre démo sur laquelle on ne dit pas grand chose, mais bon pour des vrais écrans ce sera quand même mieux d’avoir un nouveau modèle pensé pour ça hein. Bisou” <img data-src=" /> (il faudra aussi un nouveau pilote, des cartes compatibles et on pourra enfin voir si la promesse est tenue).





Oui donc voila l’argument de AMD dénigrant le GSync de Nvidia est bidon au final. (Même si techniquement c’est possible)









Lordtoniok a écrit :



Je ne savais pas que le DP1.2 permettait le 60Hz. Et non tous les écrans 4K ne sont pas 60Hz. Pas mal de 4K sont limités en 30Hz, on trouve pas mal d’article sur le web à ce sujet.







La presse parle, souvent, de l’HDMI qui elle, est limitée en 30hz.









dodo021 a écrit :



Oui donc voila l’argument de AMD dénigrant le GSync de Nvidia est bidon au final. (Même si techniquement c’est possible)







Bidon, non, ce qu’ils disent est totalement vrai ! Mais entre la théorie et la pratique, il y a un monde ! Quel constructeur va proposer une mise à jour du firmware d’un écran déjà sorti ? Ça ne serait pas rentable ! Autant ne le proposer que sur un nouveau modèle auquel on attribuera une belle étiquette “FreeSync” et pour lequel on augmentera le prix !



Le discours d’AMD est pour les constructeurs, pas pour les acheteurs !



Du coup, j’attends Adaptative Sync (DP 1.3 ?) pour passer sur un 24” 4K en espérant que la définitions soit suffisante pour pouvoir dégager l’anticrénelage des jeux et ainsi compenser les pertes de performances liées à l’augmentation de la résolution !









Edtech a écrit :



Bidon, non, ce qu’ils disent est totalement vrai ! Mais entre la théorie et la pratique, il y a un monde ! Quel constructeur va proposer une mise à jour du firmware d’un écran déjà sorti ? Ça ne serait pas rentable ! Autant ne le proposer que sur un nouveau modèle auquel on attribuera une belle étiquette “FreeSync” et pour lequel on augmentera le prix !



Le discours d’AMD est pour les constructeurs, pas pour les acheteurs !



Du coup, j’attends Adaptative Sync (DP 1.3 ?) pour passer sur un 24” 4K en espérant que la définitions soit suffisante pour pouvoir dégager l’anticrénelage des jeux et ainsi compenser les pertes de performances liées à l’augmentation de la résolution !





Le problème c’est que sur pas mal de forum les gens on prit ça en se disant qu’ils pourront en profiter sans investir de l’argent dans un nouvel écran.

Ça va donner encore une mauvaise image à AMD.









dodo021 a écrit :



Oui donc voila l’argument de AMD dénigrant le GSync de Nvidia est bidon au final. (Même si techniquement c’est possible)





Pas forcément, disons qu’ils font de l’AMD : ils crient fort, et pour vérifier ce qu’ils disent, il faut attendre… Donc on attend, mais Freesync ce sera surtout pour l’année prochaine :)







mo6h a écrit :



La presse parle, souvent, de l’HDMI qui elle, est limitée en 30hz.





Le HDMI 2.0 n’est pas limité de la sorte ;)







Edtech a écrit :



Bidon, non, ce qu’ils disent est totalement vrai ! Mais entre la théorie et la pratique, il y a un monde ! Quel constructeur va proposer une mise à jour du firmware d’un écran déjà sorti ? Ça ne serait pas rentable ! Autant ne le proposer que sur un nouveau modèle auquel on attribuera une belle étiquette “FreeSync” et pour lequel on augmentera le prix !



Le discours d’AMD est pour les constructeurs, pas pour les acheteurs !



Du coup, j’attends Adaptative Sync (DP 1.3 ?) pour passer sur un 24” 4K en espérant que la définitions soit suffisante pour pouvoir dégager l’anticrénelage des jeux et ainsi compenser les pertes de performances liées à l’augmentation de la résolution !





Ils disent ce qui les arrange et reviennent dessus ensuite. Pour le firmware, au départ c’était “ça n’a rien de hardware, NV vous enfume !” Puis quelques mois après dans des précisions “mais il faut attendre de nouveaux écrans sur le marché pour supporter notre techno avec un hardware différent”.



Je doute que ce soit une volonté des constructeurs uniquement, NV a revu toute une partie de l’électronique de l’écran pour faire ça, je pense qu’AMD a pu bidouiller un modèle dans ses labos pour rendre l’AS exploitable le temps d’une démo, mais quand il faut commercialiser un produit fini et garantie, c’est une autre histoire tout de même ;) Il y a d’ailleurs eu plusieurs coups comme ça sur cette annonce, et à mon avis on est pas à l’abri de quelques surprises complémentaires d’ici l’arrivée des modèles commerciaux sur le marché.



Il faudra aussi voir si NV ne s’adapte pas pour rendre ses produits aussi compatible avec l’Adaptive Sync de l’évolution du DP 1.2 lorsque les écrans arriveront effectivement sur le marché, et ce quelles seront les vraies différences avec G-sync. Mais pour le moment, l’un a des produits dispo sur le marché (chers certes, mais dispo), l’autre crie fort des promesses pour l’année prochaine au mieux.







dodo021 a écrit :



Le problème c’est que sur pas mal de forum les gens on prit ça en se disant qu’ils pourront en profiter sans investir de l’argent dans un nouvel écran.

Ça va donner encore une mauvaise image à AMD.





C’est le souci des Texans, ils tirent avant et réfléchissent après <img data-src=" />









Edtech a écrit :



en espérant que la définitions soit suffisante pour pouvoir dégager l’anticrénelage des jeux et ainsi compenser les pertes de performances liées à l’augmentation de la résolution !







Il me semble que le coût en performances de l’anti-crénelage (avec les algos les plus efficaces) est bien moindre que le coût d’une augmentation de définition.









ZoZo a écrit :



Il me semble que le coût en performances de l’anti-crénelage (avec les algos les plus efficaces) est bien moindre que le coût d’une augmentation de définition.







Pas facile de savoir, personne ne teste ce genre de choses. A ce que je sais, aujourd’hui, l’augmentation de la résolution n’est pas autant consommateur de ressources qu’autrefois. Pour ça que je penche pour le lissage. Généralement, c’est la première chose qu’on te demande de virer pour rendre fluide un jeu. A mon avis, le filtrage des textures consomme en réalité bien plus que le lissage, mais c’est déjà un petit gain de l’ôter.



Et puis, ça permet aussi de l’appliquer au texte. Je connais pas mal de personne qui ne supporte pas ClearType, et une haute densité de pixels permettrait là aussi de s’en passer.









jeliel a écrit :



Du coup on peu savoir que par les reviews ?



Sinon actuellement il y a quoi comme utilisations ? Films 4K ?







Perso je développe mes photos à partir du RAW … donc un tel moniteur m’intéresse :)



(enfin sans le gsync pour ma part)



Hmm…TN…UHD donc 16:9…60Hz….suivant ! <img data-src=" />








David_L a écrit :



Rien, si ce n’est la débilité du client qui cherche du 1 ms.









jeliel a écrit :



Intéressant… par contre niveau temps de réponse en ms ça doit être loin des récents je suppose ? là j’ai 1ms sur un 27” en 1080p, je sais qu’on peut monter mais jusqu’à combien…





<img data-src=" />









[_Driltan_ a écrit :



]Hmm…TN…UHD donc 16:9…60Hz….suivant ! <img data-src=" />





pas mieux mais je pense qu’en 4K/UHD on aura plus du tout de 1610… mais vu le gain en pixels, je pense que ça me dérangera moins <img data-src=" />









Bug a écrit :



<img data-src=" />





Je ne cherche pas du 1ms, mais il y a 4-5 ans quand j’ai acheté mon 27” 1080p annoncé à 1ms en dalle TN pour 290€ (promo de fou à l’époque) je t’avoue que j’ai pas hésité longtemps.



Ma question était surtout : est-ce qu’il y a un réel intérêt du 4K en gaming ?









[_Driltan_ a écrit :



]Hmm…TN…UHD donc 16:9…60Hz….suivant ! <img data-src=" />







Hum…







jb18v a écrit :



pas mieux mais je pense qu’en 4K/UHD on aura plus du tout de 1610… mais vu le gain en pixels, je pense que ça me dérangera moins <img data-src=" />







+1



Autant je pouvais comprendre que ça fasse chier quand la norme 169 est apparue dans les moniteurs et qu’on a perdu 120px de hauteur en passant du 1920x1200 au 1920x1080, autant avec déjà 2160px de hauteur ça me semble déjà moins préjudiciable… Et je pense que pour des raisons économiques (usines de dalles partagées entre les moniteurs et les téléviseurs), on peut faire une croix sur le 1610 (sauf rares exceptions, vendues du coup à prix d’or).



Pour ce qui est de la partie “60Hz”, justement avec G-Sync ça devrait au moins en grande partie limiter le problème. Les 120Hz sont nettement moins utiles apriori avec un écran G-Sync. Et si vous en être au point qu’une image affichée 8ms plus tôt change absolument tout dans votre perception du jeu, c’est que vous passez votre vie dessus. Alors vous pouvez bien vous permettre de vous payer un écran 144Hz avec un input lag minimum pour vos sessions de jeux ,en plus d’un “vrai” moniteur pour les autres activités <img data-src=" />









jeliel a écrit :



Ma question était surtout : est-ce qu’il y a un réel intérêt du 4K en gaming ?







Image plus fine, moins d’aliasing (et donc moins besoin d’anti-aliasing) <img data-src=" />.



Mais à mes yeux, c’est quand même surtout pour la bureautique et le surf qu’une meilleure résolution est intéressante (plus de pixels = plus d’informations affichées simultanément sur l’écran).









chaps a écrit :



Hum…







+1



Autant je pouvais comprendre que ça fasse chier quand la norme 169 est apparue dans les moniteurs et qu’on a perdu 120px de hauteur en passant du 1920x1200 au 1920x1080, autant avec déjà 2160px de hauteur ça me semble déjà moins préjudiciable…







ca dépend de la taille de la police… et vu que les caractères auront forcément la même taille qu’actuellement sur un écran Hd et inférieur, au final le problématique 169 - 1610 reste la même

perso du 169, j’en veux pas



Prometteur sur le papier vivement le test détaillé des experts Les numériques








jeje07 a écrit :



ca dépend de la taille de la police… et vu que les caractères auront forcément la même taille qu’actuellement sur un écran Hd et inférieur, au final le problématique 169 - 1610 reste la même

perso du 169, j’en veux pas







Hum… Je ne suis pas d’accord, la taille de la police au pire ça se règle. Et plus de pixels, çe veut dire que tu peux dézoomer sans que ça devienne dégueulasse et illisible.



Au pire, tu rajoutes deux bandes noires de 192px de large de chaque coté de ton écran, et voilà, tu as un écran 1610 en 3456x2160. Félicitations, tu as une meilleure définition qu’avec un écran WUXGA (et même mieux qu’un WQXGA) !









jeliel a écrit :



Je ne cherche pas du 1ms, mais il y a 4-5 ans quand j’ai acheté mon 27” 1080p annoncé à 1ms en dalle TN pour 290€ (promo de fou à l’époque) je t’avoue que j’ai pas hésité longtemps.



Ma question était surtout : est-ce qu’il y a un réel intérêt du 4K en gaming ?





C’est ce que j’avais cru comprendre mais le rapprochement était tellement tentant <img data-src=" />

<img data-src=" />









chaps a écrit :



Hum… Je ne suis pas d’accord, la taille de la police au pire ça se règle. Et plus de pixels, çe veut dire que tu peux dézoomer sans que ça devienne dégueulasse et illisible.







Au pire, tu rajoutes deux bandes noires de 192px de large de chaque coté de ton écran, et voilà, tu as un écran 1610 en 3456x2160. Félicitations, tu as une meilleure définition qu’avec un écran WUXGA (et même mieux qu’un WQXGA) !







si tu dézoomes trop, ca devient illisible. sur des écrans 4K 2427 pouces, si tu as un taille de police plus petite que sur un 24 pouces HD, ca devient illisible. donc la surface d’image n’augmentera pas, ou pas de beaucoup, c’est surtout que on aura ENFIN une qualité des contours comparables à celles d’un smartphone. ca me gave un peu en 2014 d’avoir des caractères en escalier sur un 24 pouces…..



pour ton idée de rajouter des bandes noires, ca sera sans moi!









jeje07 a écrit :



si tu dézoomes trop, ca devient illisible. sur des écrans 4K 2427 pouces, si tu as un taille de police plus petite que sur un 24 pouces HD, ca devient illisible. donc la surface d’image n’augmentera pas, ou pas de beaucoup, c’est surtout que on aura ENFIN une qualité des contours comparables à celles d’un smartphone. ca me gave un peu en 2014 d’avoir des caractères en escalier sur un 24 pouces…..







Donc ce qu’il te faut, ce sont des écran plus grands. Un écran 32” UHD devrait te convenir, la hauteur est physiquement presque identique à celle d’un écran 30” WQXGA (à 0.56cm près, c’est à dire seulement 1.3% plus petite), sauf que tu as 2160px de hauteur au lieu de 1600px. Donc tu peux, en écrivant aussi gros, afficher au moins autant de chose qu’un écran 30” 1610 sur un 32” 169. Tu as juste un peu plus de surface en plus sur les cotés (c’est cadeau).







jeje07 a écrit :



pour ton idée de rajouter des bandes noires, ca sera sans moi!







Pourtant, si tu es un extremiste du 1610 et refuse absolument les 169, c’est un moyen d’avoir un 1610 meilleur que le meilleur des 1610 actuellement sur le marché, et pour moins cher…



En fait tu as juste décidé que le 169 c’est caca, que c’est pour le cinéma, et que tu n’en veux pas. Même si au final tu aurais une surface de travail plus grande (ET une hauteur identique) qu’en restant sur un 1610









chaps a écrit :



Hum…





Pour moi, acheter du TN 60Hz en 2014 c’est comme acheter de la merde bien cher et aimer ça. <img data-src=" />

Alors oui le prétexte des 1ms…depuis le temps…ils pourraient investir dans la R&D mais c’est bien entendu moins coûteux pour ces grosses boîtes et bien plus rentable de ressortir la bonne vieille dalle TN pas cher. <img data-src=" />



Gain en pixels peut-être mais ce qu’on demande à un moniteur d’ordinateur c’est d’être un moniteur d’ordinateur et pas une télévision.

Le 16:10 coûte plus cher à produire il paraît, alors bon puisque “tout le monde” accepte le 16:9 autant ne faire plus que ça après tout. Ce que le consommateur demande on s’en fout vu que s’il n’a que ce qu’on lui propose à sa disposition le problème est résolu…



Pour ce qui est de la technologie G-Sync, c’est juste un moyen de pallier au problème de rafraichissement, là encore…de la bonne merde en boîte.



Désolé mais je ne vois même pas comment on peut défendre ce truc du coup je m’emballe. <img data-src=" />









chaps a écrit :



Donc ce qu’il te faut, ce sont des écran plus grands. Un écran 32” UHD devrait te convenir, la hauteur est physiquement presque identique à celle d’un écran 30” WQXGA (à 0.56cm près, c’est à dire seulement 1.3% plus petite), sauf que tu as 2160px de hauteur au lieu de 1600px. Donc tu peux, en écrivant aussi gros, afficher au moins autant de chose qu’un écran 30” 1610 sur un 32” 169. Tu as juste un peu plus de surface en plus sur les cotés (c’est cadeau).







Pourtant, si tu es un extremiste du 1610 et refuse absolument les 169, c’est un moyen d’avoir un 1610 meilleur que le meilleur des 1610 actuellement sur le marché, et pour moins cher…







Mais toujours moindre qu’ un 4K 16:10 .Vivement les dalles 4K WHXGA ( 5120 × 3200 ) ,si ca arrive de manière abordable un jour



Editeuh : et mat bien sûr ( je rêve un peu je sais ,mais bon )









ZoZo a écrit :



Il me semble que le coût en performances de l’anti-crénelage (avec les algos les plus efficaces) est bien moindre que le coût d’une augmentation de définition.









Edtech a écrit :



Pas facile de savoir, personne ne teste ce genre de choses. A ce que je sais, aujourd’hui,[…]





Si ça peut vous aider, j’ai de meilleures perfs en 25601440 + FXAA/SMAA qu’en 19201080 + MSAA 4x. (même en réso native on ressent un léger aliasing, d’où le FXAA/SMAA qui suffit amplement)

Côté rendu, le feeling est meilleur en réso native, en plus d’éviter le floutage inhérent au 1080p qui n’est pas une division entière du 2560*1440.

De toute façon, comme disait je ne sais plus qui plus haut, la 4K va résoudre ce problème de floutage puisqu’étant un multiple entier du 720 et du 1080p.









[_Driltan_ a écrit :



]

Pour moi, acheter du TN 60Hz en 2014 c’est comme acheter de la merde bien cher et aimer ça. <img data-src=" />

Alors oui le prétexte des 1ms…depuis le temps…ils pourraient investir dans la R&D mais c’est bien entendu moins coûteux pour ces grosses boîtes et bien plus rentable de ressortir la bonne vieille dalle TN pas cher. <img data-src=" />







On est d’accord, le TN c’est de la merde <img data-src=" />. Mais c’est ce qui permet d’afficher les meilleurs latences (hors OLED encore trop cher), et comme c’est ça que les joueurs regardent en premier…







[_Driltan_ a écrit :



]

Gain en pixels peut-être mais ce qu’on demande à un moniteur d’ordinateur c’est d’être un moniteur d’ordinateur et pas une télévision.







Justement, c’est sur un moniteur que le gain en pixels est le plus intéressant !







[_Driltan_ a écrit :



]

Le 16:10 coûte plus cher à produire il paraît, alors bon puisque “tout le monde” accepte le 16:9 autant ne faire plus que ça après tout. Ce que le consommateur demande on s’en fout vu que s’il n’a que ce qu’on lui propose à sa disposition le problème est résolu…







Non, le 1610 n’est pas beaucoup plus cher à produire “en soit”. Ce qui est plus cher, c’est de produire des dalles de tailles différentes. C’est plus rentable si toutes les dalles ont le même format. Et malheureusement c’est le 169 qui a été retenu.







[_Driltan_ a écrit :



]

Pour ce qui est de la technologie G-Sync, c’est juste un moyen de pallier au problème de rafraichissement, là encore…de la bonne merde en boîte.







Tu as testé avant d’affirmer ça ? Ou tu imagines, forge, et arrête ton opinion sur ce que tu crois sans vérifier ?







[_Driltan_ a écrit :



]

Désolé mais je ne vois même pas comment on peut défendre ce truc du coup je m’emballe. <img data-src=" />







Cet écran n’est pas parfait, surtout à cause la dalle TN. Plus l’écran est grand et plus l’angle de vue change d’un bout à l’autre de l’écran. Et comme une dalle TN a des angles de vision moisis, sur un 28” ça fera juste une image dégueulasse et inhomogène.



Concernant les 60Hz et le format 169, en revanche, c’est un peu mesquin de cracher dessus “par principe”. Le 169 j’ai déjà expliqué pourquoi, les 60Hz je pense qu’on ne peut pas dire “même avec G-Sync c’est de la merde” sans même avoir testé <img data-src=" />









Hyrakama a écrit :



Mais toujours moindre qu’ un 4K 16:10.







A ce train là, on peut aussi dire qu’un 4K 16:10 c’est moindre qu’un UHD+ 16:9 !



Effectivement ,j’ ai mal formulé ,ce que je voulais dire , c’ est que une fois habitué au ratio 16:10 ,je le sens vite quand je reviens sur du 16:9 ,à résolution “équivalente” .Je le trouve plus “agréable”. Après, avec une forte montée en résolution comme le 4k ,je ne sais pas ,mais revenir de facon permanente sur du 16:9 ne m’ enchante pas vraiment








chaps a écrit :



Tu as testé avant d’affirmer ça ? Ou tu imagines, forge, et arrête ton opinion sur ce que tu crois sans vérifier ?





Non et je ne compte pas acheter un 60Hz sous prétexte que l’anti-stutter d’une technologie qui n’a pas encore fait ses preuves est là pour sauver la donne. <img data-src=" />







chaps a écrit :



Concernant les 60Hz et le format 169, en revanche, c’est un peu mesquin de cracher dessus “par principe”. Le 169 j’ai déjà expliqué pourquoi, les 60Hz je pense qu’on ne peut pas dire “même avec G-Sync c’est de la merde” sans même avoir testé <img data-src=" />





Le G-Sync est fait pour le 60Hz (et 60Fps) donc oui je trouve que c’est de la merde, je n’ai pas besoin de tester pour penser qu’il est plus agréable de jouer sur un 120Hz que sur un 60Hz sous prétexte qu’il y a G-Sync.

C’est mon avis.



Le 16:9 ne m’intéresse pas du tout ailleurs que sur ma télévision du salon. <img data-src=" />









[_Driltan_ a écrit :



]

Non et je ne compte pas acheter un 60Hz sous prétexte que l’anti-stutter d’une technologie qui n’a pas encore fait ses preuves est là pour sauver la donne. <img data-src=" />







Je ne te propose pas d’acheter, mais de tester avant de critiquer.







[_Driltan_ a écrit :



]

Le G-Sync est fait pour le 60Hz (et 60Fps) donc oui je trouve que c’est de la merde, je n’ai pas besoin de tester pour penser qu’il est plus agréable de jouer sur un 120Hz que sur un 60Hz sous prétexte qu’il y a G-Sync.

C’est mon avis.







Option 2 donc. Tu te forge une opinion d’après ton imagination, et tu t’y tiens fortement. Et tu ne vois pas ce que pourrait t’apporter un test, puisqu’on opinion est déjà bien arrêtée.



C’est un mode de pensée… Ce n’est pas le mien, désolé <img data-src=" />







[_Driltan_ a écrit :



]

Le 16:9 ne m’intéresse pas du tout ailleurs que sur ma télévision du salon. <img data-src=" />







Si tu rajoute (sans rien enlever donc) des pixels à ton moniteur sur le coté, tu peux le rendre 169 sans aucune perte. C’est un peu ce qui se passe avec les nouveaux moniteurs 169 UHD par rapport aux ancien WQXGA.



Après si c’est vraiment le ratio qui te dérange, tu peux rajouter des bandes noires sur le coté. Mais si ça ne te convient pas non plus, et bah… Tant pis, cherche un écran 1610 si t’en trouve, mais ça ne sert à rien de se plaindre !









chaps a écrit :



Je ne te propose pas d’acheter, mais de tester avant de critiquer.



Option 2 donc. Tu te forge une opinion d’après ton imagination, et tu t’y tiens fortement. Et tu ne vois pas ce que pourrait t’apporter un test, puisqu’on opinion est déjà bien arrêtée.



C’est un mode de pensée… Ce n’est pas le mien, désolé <img data-src=" />





60Hz, Synchro, 60Fps max, aucun intérêt. <img data-src=" />







chaps a écrit :



Si tu rajoute (sans rien enlever donc) des pixels à ton moniteur sur le coté, tu peux le rendre 169 sans aucune perte. C’est un peu ce qui se passe avec les nouveaux moniteurs 169 UHD par rapport aux ancien WQXGA.



Après si c’est vraiment le ratio qui te dérange, tu peux rajouter des bandes noires sur le coté. Mais si ça ne te convient pas non plus, et bah… Tant pis, cherche un écran 1610 si t’en trouve, mais ça ne sert à rien de se plaindre !





As-tu déjà utilisé un écran en 1920x1200 ?

Non parce que j’en ai rien à fiche du coup des pixels et ça ne tient pas debout vu que les 16:10 de ce genre là en possèderaient plus….<img data-src=" />



Si tu avais possédé un écran en 16:10 tu saurais pourquoi je me plains de voir tous ces nouveaux moniteurs en 16:9 et rien en vu en ce qui concerne le 16:10. <img data-src=" />









Hyrakama a écrit :



Mais toujours moindre qu’ un 4K 16:10 .Vivement les dalles 4K WHXGA ( 5120 × 3200 ) ,si ca arrive de manière abordable un jour



Editeuh : et mat bien sûr ( je rêve un peu je sais ,mais bon )





<img data-src=" /> rhaaa <img data-src=" />









[_Driltan_ a écrit :



]

60Hz, Synchro, 60Fps max, aucun intérêt. <img data-src=" />







Soit…







[_Driltan_ a écrit :



]

As-tu déjà utilisé un écran en 1920x1200 ?







Oui







[_Driltan_ a écrit :



]

Non parce que j’en ai rien à fiche du coup des pixels et ça ne tient pas debout vu que les 16:10 de ce genre là en possèderaient plus….<img data-src=" />







Même remarque que pour Hyrakama, à ce rythme on peut dire qu’un écran FUHD en possèderait encore plus !







[_Driltan_ a écrit :



]

Si tu avais possédé un écran en 16:10 tu saurais pourquoi je me plains de voir tous ces nouveaux moniteurs en 16:9 et rien en vu en ce qui concerne le 16:10. <img data-src=" />







Pour ta gouverne, mon moniteur principal depuis 7 ans est un Dell 3007WFP HC. Un moniteur 30” en 2560x1600, un 1610 donc <img data-src=" />



Et je ne me plaindrais pas si je devais le changer contre un 32” UHD, bien au contraire <img data-src=" />









chaps a écrit :



Donc ce qu’il te faut, ce sont des écran plus grands. Un écran 32” UHD devrait te convenir, la hauteur est physiquement presque identique à celle d’un écran 30” WQXGA (à 0.56cm près, c’est à dire seulement 1.3% plus petite), sauf que tu as 2160px de hauteur au lieu de 1600px. Donc tu peux, en écrivant aussi gros, afficher au moins autant de chose qu’un écran 30” 1610 sur un 32” 169. Tu as juste un peu plus de surface en plus sur les cotés (c’est cadeau)







ah non non, 24 pouces ca me suffit. un bon 24 pouces en 1610 en UHD et ca ira!









jeje07 a écrit :



ah non non, 24 pouces ca me suffit. un bon 24 pouces en 1610 en UHD et ca ira!







En WQUXGA alors plutôt <img data-src=" />



Bref… Si j’ai bien compris il te faut impérativement un écran physiquement 1610 d’environ 24”, quelque soit sa résolution (même si plus il y a de pixels, mieux c’est). Et surtout pas un peu plus large ou un peu plus haut, même si au final il pourrait afficher exactement la même image.



Ok <img data-src=" />



Est-ce que si on achète un écran avec Adaptative Sync on pourra mettre du Nvidia ou AMD au choix ?








Schumi a écrit :



Est-ce que si on achète un écran avec Adaptative Sync on pourra mettre du Nvidia ou AMD au choix ?







Dans la mesure où c’est prévu pour être un standard, il y a des chances. Faut juste espérer que NVidia ne bloque pas le support volontairement pour prévilégier sa technologie maison, mais en terme d’image ça reviendrait quand même un peu à se tirer une balle dans le pied. Surtout s’il y a toujours aussi peu d’écrans proposant le support de G-Sync qu’aujourd’hui !



Bref, sans garantie à 100% pour le moment, je pense que la réponse sera “oui” au final



@chaps <img data-src=" />



Un nouveau firmware pour mon Dell 1440p serait cool <img data-src=" />








chaps a écrit :



Même remarque que pour Hyrakama, à ce rythme on peut dire qu’un écran FUHD en possèderait encore plus !





C’est pas vraiment comparable…<img data-src=" />







chaps a écrit :



Pour ta gouverne, mon moniteur principal depuis 7 ans est un Dell 3007WFP HC. Un moniteur 30” en 2560x1600, un 1610 donc <img data-src=" />



Et je ne me plaindrais pas si je devais le changer contre un 32” UHD, bien au contraire <img data-src=" />





Chacun son délire après tout. <img data-src=" />









Schumi a écrit :



@chaps <img data-src=" />



Un nouveau firmware pour mon Dell 1440p serait cool <img data-src=" />







Ouais, ce serait cool. Mais rêve pas trop quand même <img data-src=" />









[_Driltan_ a écrit :



]

C’est pas vraiment comparable…<img data-src=" />







Si tu le dis <img data-src=" />…







[_Driltan_ a écrit :



]

Chacun son délire après tout. <img data-src=" />







Au passage, concernant les 60Hz, j’ai aussi un Alienware OptX AW2310. Donc j’ai également testé un écran 120Hz si tu te posais la question <img data-src=" />









chaps a écrit :



Si tu le dis <img data-src=" />…





Comparer du 3840x2160 avec du 7680x4320…t’étais sérieux ? <img data-src=" />

Pour le vendre au grand public en plus ? Tsss… <img data-src=" />









chaps a écrit :



Au passage, concernant les 60Hz, j’ai aussi un Alienware OptX AW2310. Donc j’ai également testé un écran 120Hz si tu te posais la question <img data-src=" />





Non, je ne me posais pas la question mais la réponse me paraît évidente. <img data-src=" />

Edit : à savoir, si tu préfères jouer sur un 120Hz ou un 60Hz j’entends.









[_Driltan_ a écrit :



]

Comparer du 3840x2160 avec du 7680x4320…t’étais sérieux ? <img data-src=" />

Pour le vendre au grand public en plus ? Tsss… <img data-src=" />







Ce que je voulais dire, c’est que l’argument “un 1610 de même largeur aurait plus de pixels en hauteur” n’est pas recevable. C’est la définition même du ratio : à largeur égale, un 1610 est évidemment plus haut qu’un 169.



Ce qui compte vraiment, c’est de savoir si la hauteur et la largeur proposées par l’écran sont suffisantes. A la rigueur, je dirais peu importe le ratio, du moment que l’écran propose une résolution satisfaisante en largeur et en hauteur <img data-src=" />







[_Driltan_ a écrit :



]

Non, je ne me posais pas la question mais la réponse me paraît évidente. <img data-src=" />

Edit : à savoir, si tu préfères jouer sur un 120Hz ou un 60Hz j’entends.







Et bien je joue essentiellement sur mon 30”, et n’utilise mon 23” que pour jouer en 3DVision (ou quand j’ai besoin d’un deuxième écran). Je ne suis pas sûr que c’est vraiment la réponse à laquelle tu t’attendais, comme quoi il faut se méfier des “évidences” <img data-src=" />









chaps a écrit :



Ce que je voulais dire, c’est que l’argument “un 1610 de même largeur aurait plus de pixels en hauteur” n’est pas recevable. C’est la définition même du ratio : à largeur égale, un 1610 est évidemment plus haut qu’un 169.



Ce qui compte vraiment, c’est de savoir si la hauteur et la largeur proposées par l’écran sont suffisantes. A la rigueur, je dirais peu importe le ratio, du moment que l’écran propose une résolution satisfaisante en largeur et en hauteur <img data-src=" />





même avec du 21:9 ?









Hyrakama a écrit :



même avec du 21:9 ?







Si j’ai physiquement la largeur nécessaire sur le bureau pour poser l’écran, et que la hauteur est suffisante pour mes besoins, pourquoi pas <img data-src=" />



Mais à faire des écrans vraiment allongés, à force, on s’attaque au problème qu’il faut 2 mètres (éxagération volontaire) de largeur pour avoir la hauteur souhaitée, et ce n’est pas très pratique à intégrer dans un meuble informatique. Mais entre 169 et 1610, bien qu’existante, la différence n’est généralement pas importante au point que le moniteur ne rentre plus sur le bureau <img data-src=" />









chaps a écrit :



Ce que je voulais dire, c’est que l’argument “un 1610 de même largeur aurait plus de pixels en hauteur” n’est pas recevable. C’est la définition même du ratio : à largeur égale, un 1610 est évidemment plus haut qu’un 169.



Ce qui compte vraiment, c’est de savoir si la hauteur et la largeur proposées par l’écran sont suffisantes. A la rigueur, je dirais peu importe le ratio, du moment que l’écran propose une résolution satisfaisante en largeur et en hauteur <img data-src=" />





C’est quand même dommage de voir le 16:10 balayé des choix je trouve. Là ou on peut y voir un gain de résolution j’y vois quand même un manque de gain supplémentaire personnellement. C’est idiot mais j’ai l’impression qu’on a plus le choix pour les moniteurs, 16:9 ou rien. C’est frustrant.







chaps a écrit :



Et bien je joue essentiellement sur mon 30”, et n’utilise mon 23” que pour jouer en 3DVision (ou quand j’ai besoin d’un deuxième écran). Je ne suis pas sûr que c’est vraiment la réponse à laquelle tu t’attendais, comme quoi il faut se méfier des “évidences” <img data-src=" />





Tu préfères jouer sur le plus grand des deux en fait. <img data-src=" />

Mais entre un 60Hz et un 120Hz de même résolution tu sais bien que la réponse est évidente. <img data-src=" />

(Sans G-Sync hein. <img data-src=" />)









[_Driltan_ a écrit :



]

Tu préfères jouer sur le plus grand des deux en fait. <img data-src=" />

Mais entre un 60Hz et un 120Hz de même résolution tu sais bien que la réponse est évidente. <img data-src=" />

(Sans G-Sync hein. <img data-src=" />)







Bah si la question est de savoir si, sans G-Sync et à diagonale et définition identiques, il vaut mieux un écran 120Hz qu’un écran 60Hz, oui évidemment la réponse va de soit <img data-src=" />



Mais on s’éloigne du “les 60Hz c’est pourri, G-Sync ou pas” du départ <img data-src=" />









chaps a écrit :



Bah si la question est de savoir si, sans G-Sync et à diagonale et définition identiques, il vaut mieux un écran 120Hz qu’un écran 60Hz, oui évidemment la réponse va de soit <img data-src=" />



Mais on s’éloigne du “les 60Hz c’est pourri, G-Sync ou pas” du départ <img data-src=" />





Et bien penses-tu qu’il sera plus confortable de jouer, bloqué en 60Hz avec le correcteur G-Sync plutôt qu’en 120Hz ?

Le G-Sync va servir à corriger le problème du 60Hz, autant directement sortir un 120Hz. Ou même, étant donné qu’il doit y avoir un joli contrat, pourquoi ne pas avoir sorti un 120Hz, G-Sync ready ? Si on veut lock un jeu avec la synchro vertical -&gt; 60Hz & G-Sync active.



Mais non là je vois un vieux 60Hz c’est tout et c’est ça que je trouve débile sachant que les 120Hz débarquent petit à petit. <img data-src=" />

Un écran est fait pour durer, investir dans un 60Hz maintenant…voilà quoi. <img data-src=" />









[_Driltan_ a écrit :



]

Et bien penses-tu qu’il sera plus confortable de jouer, bloqué en 60Hz avec le correcteur G-Sync plutôt qu’en 120Hz ?







Bah sachant que mon PC a bien du mal à sortir des FPS constants au delà de 60fps, et que du coup je suis souvent en dessous (écran 60Hz ou pas, si la carte graphique ne balance pas assez d’images l’écran ne va pas les inventer), alors OUI, je dirais que mes jeux seraient certainement plus agréables à jouer sur un écran G-Sync 60Hz que sur mon 120Hz actuel <img data-src=" />



Après, oui, évidemment le mieux serait d’avoir une config capable de balancer du 120fps constant, et dans ce cas on active la V-Sync et c’est réglé. Mais G-Sync est utile justement dans les cas où le PC n’arrive pas à envoyer assez d’images à l’écran.



Si ton PC crache déjà plus de 60fps constants, ça ne sert absolument à rien de prendre un écran G-Sync à 60Hz, n’importe quel autre écran 60Hz donnera les mêmes résultats. J’espère que tu l’avais bien compris <img data-src=" />









chaps a écrit :



Bah sachant que mon PC a bien du mal à sortir des FPS constants au delà de 60fps, et que du coup je suis souvent en dessous (écran 60Hz ou pas, si la carte graphique ne balance pas assez d’images l’écran ne va pas les inventer), alors OUI, je dirais que mes jeux seraient certainement plus agréables à jouer sur un écran G-Sync 60Hz que sur mon 120Hz actuel <img data-src=" />





Autant changer la carte graphique, ça serait moins onéreux et plus profitable je pense.







chaps a écrit :



Après, oui, évidemment le mieux serait d’avoir une config capable de balancer du 120fps constant, et dans ce cas on active la V-Sync et c’est réglé. Mais G-Sync est utile justement dans les cas où le PC n’arrive pas à envoyer assez d’images à l’écran. ne sert qu’à faire patienter avant que des cartes graphiques puissent permettre de jouer convenablement en “4K”.





<img data-src=" />

<img data-src=" />









[_Driltan_ a écrit :



]

Autant changer la carte graphique, ça serait moins onéreux et plus profitable je pense.







Hum… J’ai changé plus souvent de carte graphique que d’écran, et même si j’ai payé cher mon écran (~1400€) j’ai payé encore plus cher mes cartes graphiques (1000€ le SLI de 8800GTX, puis 175€ la GTX275, puis à nouveau 1000€ le SLI de GTX480). Même en rajoutant les 450€ de l’Alienware, on est encore en dessous du prix des cartes graphiques !



Et au final, même avec 1000€ de carte graphique, il ne faut pas longtemps avant que je ne puisse plus jouer en “tout à fond” à 60fps aux derniers jeux. Un écran G-Sync me permettrait de jouer dans de meilleures conditions, en achetant des cartes graphiques moins chères (et moins énergivores, j’ai mesuré 700W à la prise de mon PC <img data-src=" />)







[_Driltan_ a écrit :



]

<img data-src=" />

<img data-src=" />







Avant d’avoir une carte graphique qui te permette de soutenir les 60fps (et plus) constant dans les derniers jeux en “4K”, tu as le temps de mettre des sous de coté. Avec mes “seulement” 2560x1600 ça fait 7 ans que j’attends, et seul les systèmes bi-GPU ultra haut de gamme m’ont permis de m’en approcher (quelques temps) <img data-src=" />.



Allez, la même en 120hz, et je me ruine direct ! <img data-src=" />


Ça me tente bien perso mais pour de l’écran gaming, ne vaut mieux pas s’orienter vers un 1440p/120Hz ?

Même si on peut faire du 1080p sur cet écran, je vois pas quelle configuration (hors SLI) pourrait faire tourner un jeu en 4K@60Hz.



Donc mouais. L’ASUS ROG me parait plus pertinent que celui-ci même s’il est plus cher.








jeliel a écrit :



Ma question était surtout : est-ce qu’il y a un réel intérêt du 4K en gaming ?







Oui, au moins de pouvoir faire tourner les jeux en 4K, 1080p ou 720p en parfaite netteté. Donc d’ajuster en fonction des performances sans subir les effets de l’interpolation.









Cacao a écrit :



Même si on peut faire du 1080p sur cet écran, je vois pas quelle configuration (hors SLI) pourrait faire tourner un jeu en 4K@60Hz.







Ha bah ça tombe bien, G-Sync est utile JUSTEMENT dans les cas où la carte graphique fournit moins d’images que l’écran ne peut en afficher ! C’est fou <img data-src=" /> !



Si ton PC te permet de jouer à 60fps constants, ça sert à que dalle de prendre un écran G-Sync <img data-src=" /> (sauf sur un écran 120Hz si ton PC affiche entre 60 et 120fps constants, mais bon, soyons honnêtes, un jeu à 90fps de moyenne et qui ne descend jamais en dessous de 60fps, c’est relativement fluide en général…)









chaps a écrit :



Ha bah ça tombe bien, G-Sync est utile JUSTEMENT dans les cas où la carte graphique fournit moins d’images que l’écran ne peut en afficher ! C’est fou <img data-src=" /> !



Si ton PC te permet de jouer à 60fps constants, ça sert à que dalle de prendre un écran G-Sync <img data-src=" /> (sauf sur un écran 120Hz si ton PC affiche entre 60 et 120fps constants, mais bon, soyons honnêtes, un jeu à 90fps de moyenne et qui ne descend jamais en dessous de 60fps, c’est relativement fluide en général…)





Ouais.

Ben du coup, jme tate à mort. 1440p+120Hz ou 4K+60Hz.



Je vois un avantage à la 4K pour :




  • matter des films

  • un bureau d’une taille de ouf



    Je vois un avantage au 120Hz pour :

  • les jeux qui le demandent genre FPS



    Pour G-Sync, si je me tape 4 images par secondes, gsync ou pas, ça sera pas fluide <img data-src=" />



    Reste à voir la diff entre 1440p et 4K sur un 2728”.









Cacao a écrit :



Ouais.

Ben du coup, jme tate à mort. 1440p+120Hz ou 4K+60Hz.



Je vois un avantage à la 4K pour :




  • matter des films

  • un bureau d’une taille de ouf



    Je vois un avantage au 120Hz pour :

  • les jeux qui le demandent genre FPS



    Pour G-Sync, si je me tape 4 images par secondes, gsync ou pas, ça sera pas fluide <img data-src=" />



    Reste à voir la diff entre 1440p et 4K sur un 2728”.







    C’est sur qu’à 4fps, G-Sync ou pas ça saccadera à mort, on est d’accord <img data-src=" />. Maintenant à 30 ou 40fps c’est moins sûr… Et certains sont plus sensibles que d’autres à ce paramètres <img data-src=" />



    Pour les films, sur un écran 24” à moins de coller son nez dessus je ne suis pas convaincu que ça changera grand chose… Sur un 28” faut voir, mais faut pas trop de recul quand même si on veut voir une différence. A mon avis, la 4K sur les films c’est surtout utile pour les TV de grande taille.



    Par contre pour le bureau, là oui, je pense que c’est là que réside l’intérêt principal de la 4k <img data-src=" />. Tu peux attendre de pouvoir comparer en magasin ou chez un pote avant de faire ton choix, rien ne presse <img data-src=" />