PQ321Q d'Asus : le 3840 x 2160 à 60 Hz, ce n'est pas si simple dans la pratique

PQ321Q d’Asus : le 3840 x 2160 à 60 Hz, ce n’est pas si simple dans la pratique

On vous explique tout

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

18/07/2013 3 minutes
107

PQ321Q d'Asus : le 3840 x 2160 à 60 Hz, ce n'est pas si simple dans la pratique

Alors que l'écran PQ321Q d'ASUS vient d'arriver sur le marché aux USA, le constructeur a décidé de publier une petite vidéo afin d'expliquer comment profiter de cette définition dans la pratique sur plusieurs configurations, notamment à 60 Hz. En effet, il ne suffit pas de brancher son DisplayPort pour que cela fonctionne.

Comme lors de l'arrivée de la HD, le passage à l'Ultra HD / 4k ne devrait pas se faire sans quelques douleurs dans la pratique, surtout pour ceux qui sauteront le pas assez rapidement. En effet, les constructeurs clament tous qu'ils disposent d'un support complet, mais est-ce que les pilotes sont à jour, est-ce que les technologies sont réellement adaptées à une utilisation simple... ?

 

ASUS, qui va être l'un des premiers à proposer une solution grand public avec PQ321Q, a décidé de faire le point en vidéo afin d'expliquer aux utilisateurs ce qu'il faut faire dans la pratique pour profiter à plein de la définition de 3840 x 2160 pixels et d'une fréquence de 60 Hz lorsque cela est possible.

 

Asus PQ321Q 4K 60 Hz

 

En effet, il faut tout d'abord penser à activer le mode Multi-Stream Transport (MST) du DisplayPort 1.2 que certains connaissent déjà puisqu'il a notamment été vanté par AMD dans le cadre du « Daisy Chaining » de plusieurs écrans. Ainsi, un seul câble peut transporter le flux nécessaire à cette définition / fréquence.

 

Une fois activé, l'écran va redémarrer et tout dépendra ensuite de la marque. En effet, les deux flux qui arrivent à la machine sont perçus comme deux écrans séparés. Avec Intel, il faudra donc penser à activer le mode Collage afin de pouvoir passer de 30 Hz  à 60 Hz dans les pilotes. Pour rappel, Haswell est la première génération à supporter une telle définition à cette fréquence (voir notre dossier), Ivy Bridge devait en effet se limiter à du 2880 x 1800 à 60 Hz.

 

Du côté de chez AMD et NVIDIA, il faudra faire de même. Dans le premier cas, il faudra simuler un groupe Eyefinity, dans le second utiliser la fonctionnalité Surround. On regrettera tout de même qu'aucune démo de jeu sur un tel écran ne soit de la partie, bien qu'il soit avant tout pensé pour les Pro (dalle IGZO oblige).

 

Pour rappel, cet écran a été annoncé à 3499 $ par ASUS et il est déjà disponible outre-Atlantique. Chez nous, il faudra par contre attendre septembre pour pouvoir l'acheter dans une version spécifique. En effet, c'est le PQ321QE qui nous sera proposé, dépourvu de ses ports HDMI et uniquement doté de sa prise DisplayPort 1.2.

 

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Fermer

Commentaires (107)


Miam <img data-src=" />



c’est la dalle du Sharp mais repackagée par Asus c’est ça ?








jb18v a écrit :



Miam <img data-src=" />



c’est la dalle du Sharp mais repackagée par Asus c’est ça ?





Yep



Pff…. ça va être long avant de les trouver à 350€. <img data-src=" />


c’est quand meme bien plus simple avec du 6GSDI ;)








sxpert a écrit :



c’est quand meme bien plus simple avec du 6GSDI ;)





ça n’a surtout rien à voir ;) (on parle de connectique pour écran grand public déjà disponible dans la vraie vie là hein)



Perso j’attends les prochains iMac, MacPro et Apple Display pour voir ce que cela donne, l’un des avantages des Mac cohérence entre matériel et logiciel


Pour faire tourner un jeu en 4K va falloir artillerie lourde niveau carte graphique. <img data-src=" />


Qu’est ce que c’est que ce bricolage encore ? <img data-src=" />



Ca me rappelle la période transitoire du “HD ready” pour les téloches…


Et sous Linux ?



Parce que votre système d’exploitation bizarre, ça m’intéresse pas moi <img data-src=" />








maestro321 a écrit :



Pff…. ça va être long avant de les trouver à 350€. <img data-src=" />







Je serai déjà content si on avait des 27” en 2560 à ce prix sans avoir à aller les chercher directement en Corée.









Cara62 a écrit :



Pour faire tourner un jeu en 4K va falloir artillerie lourde niveau carte graphique. <img data-src=" />





Un petit empire total war en 4k

moi = <img data-src=" />

pc = <img data-src=" />



Va falloir attendre un peu que la technologie mûrisse, pars que là ça fait un peu bricolage quand même.




Pour rappel, Haswell est la première génération à supporter une telle définition à cette fréquence (voir notre dossier), Ivy Bridge devait en effet se limiter à du 2880 x 1800 à 60 Hz.





Et les ‘vieux’ Nehalem c’est quoi la limite ?


Zut ! je vais avoir l’air ridicule avec mon iiyama XB2776 en 2560x1440



<img data-src=" />








Latios a écrit :



Et sous Linux ?



Parce que votre système d’exploitation bizarre, ça m’intéresse pas moi <img data-src=" />





D’ici qq années, quand les pilotes serons fonctionnels xD









sashimi a écrit :



Qu’est ce que c’est que ce bricolage encore ? <img data-src=" />



Ca me rappelle la période transitoire du “HD ready” pour les téloches…







Ah bon ? Il y a une HD ready chez mes parents, ça marche très bien. C’est juste qu’elle est en 720p c’est tout. On n’a jamais eu aucun bricolage de ce genre à faire.









nday a écrit :



Zut ! je vais avoir l’air ridicule avec mon iiyama XB2776 en 2560x1440



<img data-src=" />





et mon Dell U3011 2560x1600 <img data-src=" />



1610 über alles <img data-src=" /> <img data-src=" />









Cara62 a écrit :



Pour faire tourner un jeu en 4K va falloir artillerie lourde niveau carte graphique. <img data-src=" />





Un cluster de 15 cartes? <img data-src=" />









nucl3arsnake a écrit :



Un petit empire total war en 4k

moi = <img data-src=" />

pc = <img data-src=" />



rome total war 2 <img data-src=" />









Stargateur a écrit :



rome total war 2 <img data-src=" />





Préfère Napoléon Total War.



J’aime le geste de recharge des fusils ^^









Stargateur a écrit :



rome total war 2 <img data-src=" />







Ou encore Metro 2033. <img data-src=" />



<img data-src=" /> transport tycoon <img data-src=" />


Moi j’attends HL3, mais d’ici là on sera en 8K <img data-src=" />








Jean_Peuplus a écrit :



Moi j’attends HL3, mais d’ici là on sera en 8K <img data-src=" />



minium <img data-src=" /> mais j’aime valve ils sortent les jeux quand ils sont prêts et n’hésite pas à revenir en arrière si il le faut









lateo a écrit :



Un cluster de 15 cartes? <img data-src=" />







un triple SLI de Titan je pense <img data-src=" />









Cara62 a écrit :



un triple SLI de Titan je pense <img data-src=" />



c’est toujours moins cher que l’écran <img data-src=" />









David_L a écrit :



ça n’a surtout rien à voir ;) (on parle de connectique pour écran grand public déjà disponible dans la vraie vie là hein)





en plus, ca ne necessite qu’un simple BNC…

pour info, c’est déja disponible sur un certain nombre de matériels dont les prix sont pas délirants









Stargateur a écrit :



minium <img data-src=" /> mais j’aime valve ils sortent les jeux quand ils sont prêts et n’hésite pas à revenir en arrière si il le faut





C’est blizzard ça, Valve ils disent juste “bientôt ^^










Stargateur a écrit :



c’est toujours moins cher que l’écran <img data-src=" />







Euh nan,



1 Titan = 999€

un SLI = 2 Titan

Triple SLI = 6 Titan



6x 999 = plus cher que l’écran <img data-src=" /> <img data-src=" /> <img data-src=" />









Cara62 a écrit :



Euh nan,



1 Titan = 999€

un SLI = 2 Titan

Triple SLI = 6 Titan



6x 999 = plus cher que l’écran <img data-src=" /> <img data-src=" /> <img data-src=" />



ah pardon j’avais compris 3…









nucl3arsnake a écrit :



C’est blizzard ça, Valve ils disent juste “bientôt ^^



Un jour peut être









David_L a écrit :



ça n’a surtout rien à voir ;) (on parle de connectique pour écran grand public déjà disponible dans la vraie vie là hein)





la vraie question c’est “pourquoi les constructeurs s’entetent a faire des connectiques différentes pour les memes choses ?”

question subsidiaires “pourquoi les connecteurs grand public sont ils des merdes infames ?”









Stargateur a écrit :



ah pardon j’avais compris 3…







Bon plus sérieusement, normalement une titan peux faire tourner les jeux en 4K sans problème. bon peut êtr plus à 100fps au max. xD









sxpert a écrit :



la vraie question c’est “pourquoi les constructeurs s’entetent a faire des connectiques différentes pour les memes choses ?”

question subsidiaires “pourquoi les connecteurs grand public sont ils des merdes infames ?”









  • Parce que tu ne donnes pas du lard aux cochons

  • Parce que si tu files des trucs solides à des vandales, ils vont s’acharner encore plus dessus (et se plaindre que pour le prix, c’est pas solide)

    <img data-src=" />









Cara62 a écrit :



un triple SLI de Titan je pense <img data-src=" />







Et un abonnement type PME chez EDF. <img data-src=" />









romjpn a écrit :



Ah bon ? Il y a une HD ready chez mes parents, ça marche très bien. C’est juste qu’elle est en 720p c’est tout. On n’a jamais eu aucun bricolage de ce genre à faire.







sans aller jusqu’à parler de bricolage … les premières HD Ready supportaient le 720p parfois avec une résolution native de 768 lignes, et elles avaient le HDCP quand elles avaient le temps (c’est à dire pas toujours), parfois du DVI plutot que du HDMI et parfois l’obligation de passer par les entrées analogiques pour avoir la “HD” 720p du lecteur Bluray ou HD-DVD









kvasir a écrit :



Et un abonnement type PME chez EDF. <img data-src=" />





et encore, imagine un processeur AMD pour aller avec le tout <img data-src=" />



J’espère que cette stupide proportion de 16:9 <img data-src=" /> va être boycottée et qu’ils vont nous sortir des 3840x2400 pour les écrans d’ordinateurs pour ceux qui bossent.



16:10 POUR TOUS ! <img data-src=" />









nday a écrit :



Zut ! je vais avoir l’air ridicule avec mon iiyama XB2776 en 2560x1440

<img data-src=" />







T’es déjà ridicule avec ton écran 16:9 <img data-src=" />







jb18v a écrit :



et mon Dell U3011 2560x1600 <img data-src=" />



1610 über alles <img data-src=" /> <img data-src=" />







<img data-src=" /> 16:10 FOR ALL !



SI je comprends bien, si on veut utiliser cet écran avec une NVidia vous dites qu’il faut simuler un écran Surround, c’est à dire 3 écrans branchés sur la/les cartes graphique comme aujourd’hui par exemple pour simuler un écran 5760x1080 quand on a trois écrans branchés à la carte graphique.



Problème, je veux jouer avec 3 écrans 4K, comment je fais dans ce cas ? (just kidding hein, juste pour savoir si c’est possible en terme de connectique. En terme de puissance je pense que c’est plus que limite :p )








OlivierJ a écrit :



J’espère que cette stupide proportion de 16:9 <img data-src=" /> va être boycottée et qu’ils vont nous sortir des 3840x2400 pour les écrans d’ordinateurs pour ceux qui bossent.



16:10 POUR TOUS ! <img data-src=" />







T’es déjà ridicule avec ton écran 16:9 <img data-src=" />







<img data-src=" /> 16:10 FOR ALL !









Autant je suis un fervent défenseur du 16:10 jusqu’au 1920x1200, autant au delà (Le fameux 2560x1440 par exemple) les lignes de pixels perdus ne me semblent pas si pénalisants ^^ Mais un travailleur pro sur image/vidéo doit sentir une différence j’imagine



Faudrait virer le terme 4K surtout…

S’pas du 4K ! C’est de l’UltraHD.

4K : 4 096 x 2 160 px

UltraHD : 3840 x 2160 px



Encore une vieille manigance digne de l’époque de l’HDReady…


Avec l’augmentation de la résolution, le débat 16:10 / 16:9 prend une autre tournure. Ce qu’on reproche au 16:9, c’est son manque de lignes. Editer un doc ou même lire une page web en 1080 lignes est toujours moins confortable qu’en 1200. Néanmoins si le nombre de lignes (et la taille de l’écran) augmentent drastiquement comme sur ce moniteur, ce n’est plus un problème. A partir de là, vu que notre champ de vision est plus horizontal que vertical, 16:9 est meilleur (à surface et nombre de pixels égaux, bien entendu).



June, 5:4 inside.








Lighty04 a écrit :



S

Problème, je veux jouer avec 3 écrans 4K, comment je fais dans ce cas ? (just kidding hein, juste pour savoir si c’est possible en terme de connectique. En terme de puissance je pense que c’est plus que limite :p )







Tu attends la rentrée et tu consumes ta CB avec le nouveau MacPro qui permet justement de brancher sans bidouilles 3 écrans 4K <img data-src=" />



Simple non ? <img data-src=" />









OlivierJ a écrit :



J’espère que cette stupide proportion de 16:9 <img data-src=" /> va être boycottée et qu’ils vont nous sortir des 3840x2400 pour les écrans d’ordinateurs pour ceux qui bossent.



16:10 POUR TOUS ! <img data-src=" />







T’es déjà ridicule avec ton écran 16:9 <img data-src=" />







<img data-src=" /> 16:10 FOR ALL !









Paye ton fanatique à la cause ridicule <img data-src=" />









Tarpan a écrit :



Tu attends la rentrée et tu consumes ta CB avec le nouveau MacPro qui permet justement de brancher sans bidouilles 3 écrans 4K <img data-src=" />



Simple non ? <img data-src=" />





Et s’il veux un truc plu polyvalent? ^^









nucl3arsnake a écrit :



Et s’il veux un truc plu polyvalent? ^^





Ben il va faire un tour à la plage pour mater des nibards en vrai 3d UltraHD <img data-src=" />









Tarpan a écrit :



Ben il va faire un tour à la plage pour mater des nibards en vrai 3d UltraHD <img data-src=" />





Y’a même l’odeur



Tout cela sous windows, mais sous mac et linux ?








Aisyk a écrit :



Tout cela sous windows, mais sous mac et linux ?





Pour MAC c’est mort, tu crois que c’est un hasard si il n’y a qu’un bouton sur la souris ? Pour linux pas de pb chacun écrira son driver.









Aisyk a écrit :



Tout cela sous windows, mais sous mac et linux ?







Comment tu fais pour utiliser plusieurs écrans ? Voilà, c’est la solution.



Perso j’aimerais juste un écran en au moins en 120 Hz, réactif, sans colorimétrie trop dégueu, pitch fin, et sans 3D. <img data-src=" />


Le 18/07/2013 à 10h 25

Il faudrait déjà que les ayants droits proposent des films blu-ray en 4K… Y’en a 0 pour l’instant, ils sont coincés parce que sur les blu-ray actuels il n’y a pas assez de place. Et pour le streaming il faut plus de 100 Mbit/s pour que ça marche…

Donc bon…








OlivierJ a écrit :



J’espère que cette stupide proportion de 16:9 <img data-src=" /> va être boycottée et qu’ils vont nous sortir des 3840x2400 pour les écrans d’ordinateurs pour ceux qui bossent.



16:10 POUR TOUS ! <img data-src=" />







T’es déjà ridicule avec ton écran 16:9 <img data-src=" />







<img data-src=" /> 16:10 FOR ALL !







Vu l’espace de travail gagné, la proportion ne me gène pas… en fait j’avais pas fait gaffe que c’était un 16:9 <img data-src=" />



Quelle sont les protections a prendre face au mode MST ?

Je ne suis pas rassuré ! ;)


Je comprends pas tout ce bordel alors qu’avec un simple écran 1080p 60Hz on peut déjà faire du 3840x2160 (bon, parfois faut baisser à 45-50Hz).



Moi avec mon Acer GD245HQ (24” 1080p 120Hz) je fais du 3840x2160 60Hz sans problème.



Bureau en UltraHD :http://i3.minus.com/ibta4Tt8c8awCY.jpg



Bioshock Infinite en UHD :http://i5.minus.com/iT5KG0CYttCV.jpg



Redimensionné en 1080p (pour le plaisir de le voir en plein écran ^^) :http://i3.minus.com/ibwYNYTgcSVnrv.jpg


asus ne pouvait pas faire plus compliqué ??? <img data-src=" />








polytan a écrit :



Quelle sont les protections a prendre face au mode MST ?

Je ne suis pas rassuré ! ;)







les préservatif estampille free offert pas mon pote Xavier.



https://www.facebook.com/photo.php?fbid=619321124748080&set=a.35462864788399…





<img data-src=" />









GutsCrush3R a écrit :



Je comprends pas tout ce bordel alors qu’avec un simple écran 1080p 60Hz on peut déjà faire du 3840x2160 (bon, parfois faut baisser à 45-50Hz).



Moi avec mon Acer GD245HQ (24” 1080p 120Hz) je fais du 3840x2160 60Hz sans problème.



Bureau en UltraHD :http://i3.minus.com/ibta4Tt8c8awCY.jpg



Bioshock Infinite en UHD :http://i5.minus.com/iT5KG0CYttCV.jpg



Redimensionné en 1080p (pour le plaisir de le voir en plein écran ^^) :http://i3.minus.com/ibwYNYTgcSVnrv.jpg





<img data-src=" />



oui enfin là 1 pixel de ton écran affiche 4 pixels de l’image, c’est pas sa définition native



Quelle lisibilité a le texte accompagnant les icônes au niveau du bureau Windows (si on ne touche pas à l’apparence) ?



Parce que là il n’est pas possible de zoomer avec les doigts comme sur un smartphone ou tablette…

Surtout que j’ai lu que certains voudraient cette définition sur des écrans de 27” ou moins…



Bref, qu’en est-il de l’ergonomie et du confort pour un usage autre que gamer ou traitement d’images ?

C’est une vraie question, pas un troll… <img data-src=" />








Taliesin a écrit :



Autant je suis un fervent défenseur du 16:10 jusqu’au 1920x1200, autant au delà (Le fameux 2560x1440 par exemple) les lignes de pixels perdus ne me semblent pas si pénalisants ^^ Mais un travailleur pro sur image/vidéo doit sentir une différence j’imagine







Sérieusement, le 16:9 ne devrait pas exister, et même le 16:10 en informatique, je ne vois pas l’intérêt. Vive le 4:3, plus adapté au développement, à la lecture et au traitement photo.







toufou a écrit :



Faudrait virer le terme 4K surtout…

S’pas du 4K ! C’est de l’UltraHD.

4K : 4 096 x 2 160 px







En effet. Je me demande d’ailleurs pourquoi la HD classique n’est pas en 2048xqqch.







GutsCrush3R a écrit :



Je comprends pas tout ce bordel alors qu’avec un simple écran 1080p 60Hz on peut déjà faire du 3840x2160 (bon, parfois faut baisser à 45-50Hz).



Moi avec mon Acer GD245HQ (24” 1080p 120Hz) je fais du 3840x2160 60Hz sans problème.







Ahaha n’importe quoi <img data-src=" />

Moi aussi je fais de la HD 1200p avec mon écran 1024x768 ça marche super bien. <img data-src=" />



Donc calculons un peu, un écran 31,5 pouces Asus de résolution 3840 x 2160 x 3 = 11520 x 2160 en Eyefinity !!!



ouahh impressionnant <img data-src=" />



Hmmm je me vois déjà entrant de joué a Arma 3 !!!!!!!!!!!!!!!!!!!! <img data-src=" />


<img data-src=" />

L’image est bien évidemment redimensionnée, c’est le but même du downsampling. Mais le signal est en UHD puis redimensionnée au moment de l’afficher, pas en amont (du moins si on choisit de faire la mise à l’échelle avec l’écran, pas la CG).








GutsCrush3R a écrit :



Je comprends pas tout ce bordel alors qu’avec un simple écran 1080p 60Hz on peut déjà faire du 3840x2160 (bon, parfois faut baisser à 45-50Hz).



Moi avec mon Acer GD245HQ (24” 1080p 120Hz) je fais du 3840x2160 60Hz sans problème.



Bureau en UltraHD :http://i3.minus.com/ibta4Tt8c8awCY.jpg



Bioshock Infinite en UHD :http://i5.minus.com/iT5KG0CYttCV.jpg



Redimensionné en 1080p (pour le plaisir de le voir en plein écran ^^) :http://i3.minus.com/ibwYNYTgcSVnrv.jpg







Merci pour l’info je ne savais pas^^

J’ai un ASUS 27” 3D 1080p , m’en fait tester en 3840x2160 60Hz : Ma GTX 680 va chauffer un peu surtout que je fais un bureau étendu avec un autre 27” 2500 * 1440



Thanks









nday a écrit :



Zut ! je vais avoir l’air ridicule avec mon iiyama XB2776 en 2560x1440



<img data-src=" />





+1



Acheté le même il y a 15 jours









jb18v a écrit :



et mon Dell U3011 2560x1600 <img data-src=" />



1610 über alles <img data-src=" /> <img data-src=" />







Je suis d’accord, j’ai mis beaucoup de temps à remplacer mon vieux 24” 1920x1200 parce que je voulais absolument un 1610.



Mais, voilà,c’était beaucoup plus cher.





Et finalement, le ratio 169 est beaucoup moins gênant avec une définition de 2560x1440: autant il manquait des lignes en 1920x1080 (confort INdispensable pour pisser du code tout en voyant bien ce que l’on fait, mais aussi agréable pour applications comme séquenceur audio, ou juste pour lire confortablement PCI), autant je suis passé sans problème au 169 avec 1440 pixels verticaux, tout simplement parce que cela fait plus d’espace disponible qu’avec les 1200 pixels du précédent.



Certes, 2560x1600 ce serait encore mieux, mais je n’en avais pas les moyens. Et mon Iiama me satisfait pleinement<img data-src=" />









GutsCrush3R a écrit :



Je comprends pas tout ce bordel alors qu’avec un simple écran 1080p 60Hz on peut déjà faire du 3840x2160 (bon, parfois faut baisser à 45-50Hz).



Moi avec mon Acer GD245HQ (24” 1080p 120Hz) je fais du 3840x2160 60Hz sans problème.



Bureau en UltraHD :http://i3.minus.com/ibta4Tt8c8awCY.jpg



Bioshock Infinite en UHD :http://i5.minus.com/iT5KG0CYttCV.jpg



Redimensionné en 1080p (pour le plaisir de le voir en plein écran ^^) :http://i3.minus.com/ibwYNYTgcSVnrv.jpg









Puis je te demander e que tu as comme config et surtout comme connectique depuis ta carte graphique jusqu’à l’ecran? c’est pour tester à la maison

merci



Bon bah en tout cas avec NVidia impossible d’utiliser plusieurs de ces écrans 4k de ce que j’en comprends en simultané. Bien dommage :p








Anna Lefeuk a écrit :



Puis je te demander e que tu as comme config et surtout comme connectique depuis ta carte graphique jusqu’à l’ecran? c’est pour tester à la maison

merci





sur la capture y’a marqué DVI <img data-src=" />









Lighty04 a écrit :



Bon bah en tout cas avec NVidia impossible d’utiliser plusieurs de ces écrans 4k de ce que j’en comprends en simultané. Bien dommage :p





On en reparle bientôt ;)









OlivierJ a écrit :



Sérieusement, le 16:9 ne devrait pas exister, et même le 16:10 en informatique, je ne vois pas l’intérêt. Vive le 4:3, plus adapté au développement, à la lecture et au traitement photo.





Sur les petits écrans, je suis d’accord.

Mais plus sa taille augmente, plus il envahit ton champ de vision, et ce n’est pas plus mal qu’il s’élargisse.









OlivierJ a écrit :



Sérieusement, le 16:9 ne devrait pas exister, et même le 16:10 en informatique, je ne vois pas l’intérêt. Vive le 4:3, plus adapté au développement, à la lecture et au traitement photo.







Tu oublies justes les joueurs et les gens qui regardent des films… <img data-src=" />



Edit : note que même pour le développement, je préfère largement du 16:X pour Eclipse que du 4:3









OlivierJ a écrit :



Sérieusement, le 16:9 ne devrait pas exister, et même le 16:10 en informatique, je ne vois pas l’intérêt. Vive le 4:3, plus adapté au développement, à la lecture et au traitement photo.





<img data-src=" />







Pourtant sur mon 169 27 pouce coréen



Quand je bosse, 50% de l’écran affiche microsoft Word, l’autre, un texte de référence, article, etc.



Je ne m’en passerais plus.










Anna Lefeuk a écrit :



Puis je te demander e que tu as comme config et surtout comme connectique depuis ta carte graphique jusqu’à l’ecran? c’est pour tester à la maison

merci





Pour l’écran j’ai déjà dis. Il est connecté avec un cable dual link DVI (nécessaire pour le 120Hz).

Sinon j’ai un Core i7 860 (@3.66GHz) avec un SLI de GTX 660.









GutsCrush3R a écrit :



Pour l’écran j’ai déjà dis. Il est connecté avec un cable dual link DVI (nécessaire pour le 120Hz).

Sinon j’ai un Core i7 860 (@3.66GHz) avec un SLI de GTX 660.









Merci

Je testouillerai ce soir de mon coté









Jean_Peuplus a écrit :



Et les ‘vieux’ Nehalem c’est quoi la limite ?







Ils n’ont pas de GPU intégrés il me semble???









after_burner a écrit :



Ils n’ont pas de GPU intégrés il me semble???







Ah ok c’est juste le GPU intégré qui limite mais pas l’architecture en elle même <img data-src=" />









june a écrit :



Sur les petits écrans, je suis d’accord.

Mais plus sa taille augmente, plus il envahit ton champ de vision, et ce n’est pas plus mal qu’il s’élargisse.





Et donc, il faudrait l’élargir jusqu’à quel ratio pour qu’il corresponde au champ de vision (le tien) ?

Tu trouves que ça, ou ça, ça ressemble à du 169 ?

Mon écran desktop est en 16:10. Quand je passe sur mon portable en 16:9, ce qui me gêne est bien davantage le ratio que le manque de pixels.









vampire7 a écrit :



Et donc, il faudrait l’élargir jusqu’à quel ratio pour qu’il corresponde au champ de vision (le tien) ?

Tu trouves que ça, ou ça, ça ressemble à du 169 ?

Mon écran desktop est en 16:10. Quand je passe sur mon portable en 16:9, ce qui me gêne est bien davantage le ratio que le manque de pixels.





Sans doute as-tu raison, ce n’est pas une question de vision binoculaire (environ 43 sur tes liens). Mais alors peut-être est-ce la plus grande facilité des yeux à balayer horizontalement plutôt que verticalement. Sinon, comment expliquer que l’on fait toujours du dual-screen horizontal et non vertical (mis à part le problème de pied) ?

Mon ordi chez moi est en 5:4, au taf en 16:9 (1600x900). C’est le nombre de lignes qui me gêne au taf, pas le ratio (mais je pense que chaque expérience est unique).









vampire7 a écrit :



Mon écran desktop est en 16:10. Quand je passe sur mon portable en 16:9, ce qui me gêne est bien davantage le ratio que le manque de pixels.







comment tu fais pour déterminer que c’est le ratio qui te gène et pas le nombre de pixel ?





se prendre la tête avec ces histoire de ratio me fait doucement rire <img data-src=" />

j’espère au moins que tu as pensé à mettre ta barre des tache en vertical ? car rien que ça compense la faible différence entre 169 et 1610



et puis au pire investit dans un écran ergonomique qui peut se mettre à la verticale…



Ils n’ont qu’à garder les résolutions de télé pour les télés, et les résolutions de PC pour les PC. Pour ceux qui disent “oui mais pour les films?” c’est pas l’utilisation première d’un PC. Il y a les télés pour ça. C’est juste chiant de développer sur un écran 169, beaucoup plus qu’il ne l’est de voir un film sur un 1610.








GutsCrush3R a écrit :



Je comprends pas tout ce bordel alors qu’avec un simple écran 1080p 60Hz on peut déjà faire du 3840x2160 (bon, parfois faut baisser à 45-50Hz).



Moi avec mon Acer GD245HQ (24” 1080p 120Hz) je fais du 3840x2160 60Hz sans problème.



Bureau en UltraHD :http://i3.minus.com/ibta4Tt8c8awCY.jpg



Bioshock Infinite en UHD :http://i5.minus.com/iT5KG0CYttCV.jpg



Redimensionné en 1080p (pour le plaisir de le voir en plein écran ^^) :http://i3.minus.com/ibwYNYTgcSVnrv.jpg







Je suppose que ce genre de manip ne fonctionnera pas avec la version 60hz de cet ecran… <img data-src=" /> Ca aurait été vachement pratique pour la MAO… <img data-src=" />









JCDentonMale a écrit :



C’est juste chiant de développer sur un écran 169.







au boulot j’ai un 1610 en 1680*1050

je te l’échange sans soucis contre un full HD <img data-src=" />



c’est gagnant gagnant visiblement …









Jean_Peuplus a écrit :



comment tu fais pour déterminer que c’est le ratio qui te gène et pas le nombre de pixel ?





J’ai dit : “bien davantage … que”. Bien que ce soit parfaitement français, je vais donc reformuler : le manque de pixels me gêne aussi, mais pas autant que le ratio (l’impression d’être à l’étroit en hauteur, la nécessité de bouger les yeux davantage à gauche et à droite pour avoir une vue d’ensemble…).





Jean_Peuplus a écrit :



se prendre la tête avec ces histoire de ratio me fait doucement rire <img data-src=" />





Moi, ce qui me fait doucement rire, c’est de voir que certains ne reprochent plus le ratio des écrans quand la résolution verticale dépasse un certain nombre. Faudrait savoir, c’est quoi le problème ? Le ratio, ou la résolution ?

Pour moi, ça a toujours été le ratio. Du “4K”, “UltraHD”, ou même un nombre infini de pixels, je n’en veux pas si c’est en 16:9. Je trouve déjà le 16:10 un peu trop large (et le 4:3 pas assez). A croire que mon champ de vision n’a pas été affecté par la propagande de l’industrie du cinéma… <img data-src=" />



J’ai commencé l’informatique en 640x480. Je devrais donc considérer le 1920x1080 (ou même le 1366x768 de mon portable) comme un luxe… Et pourtant, non, je trouve ça désagréable.





Jean_Peuplus a écrit :



j’espère au moins que tu as pensé à mettre ta barre des tache en vertical ? car rien que ça compense la faible différence entre 169 et 1610





Ca peut compenser un manque de pixels. Encore une fois, ce n’est pas ce qui me gêne. Avoir la barre des tâches à gauche serait même encore pire : mouvements des yeux plus fréquents, nécessité d’une plus grande précision dans les clics (j’affiche le titre des fenêtres dans la barre des tâches)…





Jean_Peuplus a écrit :



et puis au pire investit dans un écran ergonomique qui peut se mettre à la verticale…





Un écran de portable qui peut se mettre à la verticale ? <img data-src=" />

De toute façon, ça ne résout rien : quand ce n’est pas assez haut, si on le pivote, ça devient plus assez large.









vampire7 a écrit :











bon bah au pire il te reste une solution



régler ton driver CG pour afficher des bandes noires sur les bords de ton écran 169… (avec les ATI c’est possible en tout cas je l’avais fait pour un jeu natif en 43 que je voulais pas jouer en déformé)



mais là tu va me dire que ça prend trop de place ?

ou que le noir est pas assez noir ? <img data-src=" />














nucl3arsnake a écrit :



Un petit empire total war en 4k

moi = <img data-src=" />

pc = <img data-src=" />







Sur Anno, même en zoomant à fond, tu peux voir la carte entière je suis sûr <img data-src=" />



sinon un tri-SLI de GTX titan, ça doit aller <img data-src=" />









june a écrit :



Sur les petits écrans, je suis d’accord.

Mais plus sa taille augmente, plus il envahit ton champ de vision, et ce n’est pas plus mal qu’il s’élargisse.







Note que ce n’est pas tant d’un grand écran physiquement dont j’ai besoin, mais d’un écran avec une définition confortable. Par exemple, j’ai un 24 pouces en 1920x1200 et je ne souhaite pas plus grand, mais éventuellement plus défini (pourquoi pas en doublant dans chaque sens).







Pochi a écrit :



Tu oublies justes les joueurs et les gens qui regardent des films… <img data-src=" />

Edit : note que même pour le développement, je préfère largement du 16:X pour Eclipse que du 4:3







En quoi les joueurs préféreraient du 16:9 au 16:10 ou 4:3 ? Et pour regarder un film, mon 16:10 me va très bien. Qui peut le plus peut le moins.

Quant à préférer développer en 16:X plutôt que 4:3 (j’ai pas mal utilisé Eclipse), je trouve ça étonnant. A la limite, je mettrais un 16:9 verticalement pour développer ou rédiger des documents (ce que fait un collègue avec son 2e écran).







von-block a écrit :



Pourtant sur mon 169 27 pouce coréen

Quand je bosse, 50% de l’écran affiche microsoft Word, l’autre, un texte de référence, article, etc.

Je ne m’en passerais plus.







Eh bien pour ma part, mon 24 pouces 1920x1200 m’affiche 2 pages A4 mieux que si j’avais du 16:9 .







vampire7 a écrit :



J’ai dit : “bien davantage … que”. Bien que ce soit parfaitement français, je vais donc reformuler : le manque de pixels me gêne aussi, mais pas autant que le ratio (l’impression d’être à l’étroit en hauteur, la nécessité de bouger les yeux davantage à gauche et à droite pour avoir une vue d’ensemble…).



Moi, ce qui me fait doucement rire, c’est de voir que certains ne reprochent plus le ratio des écrans quand la résolution verticale dépasse un certain nombre. Faudrait savoir, c’est quoi le problème ? Le ratio, ou la résolution ?

Pour moi, ça a toujours été le ratio. Du “4K”, “UltraHD”, ou même un nombre infini de pixels, je n’en veux pas si c’est en 16:9. Je trouve déjà le 16:10 un peu trop large (et le 4:3 pas assez). A croire que mon champ de vision n’a pas été affecté par la propagande de l’industrie du cinéma… <img data-src=" />



J’ai commencé l’informatique en 640x480. Je devrais donc considérer le 1920x1080 (ou même le 1366x768 de mon portable) comme un luxe… Et pourtant, non, je trouve ça désagréable.







COPAIN <img data-src=" /> <img data-src=" />



On va fonder un groupe de pression contre ce 16:9 de mairde (sic).



C’est fou quand même, en 2004 on avait déjà des 20 pouces 1600x1200, et maintenant on se retrouve avec des 27 pouces en 1080 de haut seulement. Et pour les portables, j’avais en 2005 un Dell D610 pas haut de gamme avec un écran 1400x1050, à présent faut taper dans les portables hauts de gamme pour avoir du 1080 de haut, à peine plus, sinon c’est 768 ou 900.

Bref <img data-src=" /> .









OlivierJ a écrit :



En quoi les joueurs préféreraient du 16:9 au 16:10 ou 4:3 ?







Ca peut dépendre des jeux, un RTS ou jeu en vue iso profitera plus d’un 4:3, les jeu en FPS, TPS, scrolling horizontal profiteront plus du 16:X.







OlivierJ a écrit :



Quant à préférer développer en 16:X plutôt que 4:3 (j’ai pas mal utilisé Eclipse), je trouve ça étonnant.







Dans Eclipse il y a pas mal d’onglets qui listent plein de choses utiles pour la navigation dans le code et c’est très pratique de les avoir sur les côté avec le code au centre.









nucl3arsnake a écrit :



D’ici qq années, quand les pilotes serons fonctionnels xD





S’te troll…









Cara62 a écrit :



Euh nan,



1 Titan = 999€

un SLI = 2 Titan

Triple SLI = 6 Titan



6x 999 = plus cher que l’écran <img data-src=" /> <img data-src=" /> <img data-src=" />







Hm non, du tri SLI c’est bien 3 cartes, soit 3000$, donc c’est moins cher. :p









vampire7 a écrit :





J’ai commencé l’informatique en 640x480.









P’tit joueur, avant ça y eu le 32 lignes de 80 caractères.









vampire7 a écrit :





J’ai commencé l’informatique en 640x480.













levhieu a écrit :



P’tit joueur, avant ça y eu le 32 lignes de 80 caractères.







Peux plus «éditer» (on devrait dire modifier en français soit dit en passant), mais en plus je me suis planté, c’est 24 lignes (plus une ligne d’état pour certains terminaux)









levhieu a écrit :



Peux plus «éditer» (on devrait dire modifier en français soit dit en passant), mais en plus je me suis planté, c’est 24 lignes (plus une ligne d’état pour certains terminaux)





“Standard VGA text mode uses an 80x25 character display, rendered with a 9x16 pixel font, for an effective resolution of 720x400 in 16 colors.” (Wikipedia)



Je me suis aussi bien amusé avec tous ces modes… On chargeait les registres, une petite interruption du BIOS, et hop, il n’y avait plus qu’à écrire dans la RAM de la carte graphique… <img data-src=" />









levhieu a écrit :



Peux plus «éditer» (on devrait dire modifier en français soit dit en passant), mais en plus je me suis planté, c’est 24 lignes (plus une ligne d’état pour certains terminaux)



Le 24 lignes x 80 caractères c’est en gros à partir des premiers PC IBM (plus ou moins inventeur du terme “Personal Computer” d’ailleurs”)…



L’Apple II par exemple n’affichait que 24 lignes de 40 caractères…

Et d’autre petits ordinateurs de cette époque encore moins que ça. <img data-src=" />









spidy a écrit :



Sur Anno, même en zoomant à fond, tu peux voir la carte entière je suis sûr <img data-src=" />



sinon un tri-SLI de GTX titan, ça doit aller <img data-src=" />



c’est pas sur le new sim city ça ? sauf que la ça marche même en 480p









Latios a écrit :



S’te troll…





QU’en partie ^^









gavroche69 a écrit :



Le 24 lignes x 80 caractères c’est en gros à partir des premiers PC IBM (plus ou moins inventeur du terme “Personal Computer” d’ailleurs”)…



L’Apple II par exemple n’affichait que 24 lignes de 40 caractères…

Et d’autre petits ordinateurs de cette époque encore moins que ça. <img data-src=" />





Inventeur de ordinateur je croit, mais pas de PC.









Jean_Peuplus a écrit :



au boulot j’ai un 1610 en 1680*1050

je te l’échange sans soucis contre un full HD <img data-src=" />



c’est gagnant gagnant visiblement …







J’ai un full HD 23” pour développer en plus de l’écran du portable, mais mon boss m’indique qu’il n’est pas d’accord <img data-src=" />









nucl3arsnake a écrit :



Inventeur de ordinateur je croit, mais pas de PC.







Wiki : IBM PC Compatible









osdev64 a écrit :



Wiki : IBM PC Compatible





http://www.presse-francophone.org/apfa/motdor/etymolog/ordinate.htm



tiré du wiki fr ordinateur ;)



D’aillieur le fr est plus rempli que l’anglais pour une fois, je t’invite donc à la lire









Stargateur a écrit :



c’est pas sur le new sim city ça ? sauf que la ça marche même en 480p







c’est petit ça <img data-src=" />









nucl3arsnake a écrit :



Inventeur de ordinateur je croit, mais pas de PC.



Il me semble bien que le terme de “PC” soit apparu avec IBM et son “Personnal Computer”, avant on parlait surtout de “micro-ordinateurs” et “d’informatique familiale”, mais je me trompe peut-être…









gavroche69 a écrit :



Il me semble bien que le terme de “PC” soit apparu avec IBM et son “Personnal Computer”, avant on parlait surtout de “micro-ordinateurs” et “d’informatique familiale”, mais je me trompe peut-être…





À l’origine, PC était le nom donné par IBM aux premiers micro-ordinateurs qu’elle commercialisa dès 1981



En gros si tu lis vite fait la page wikipedia, PC était un modèle de calculateur, comme les commodore etc …









nucl3arsnake a écrit :



http://www.presse-francophone.org/apfa/motdor/etymolog/ordinate.htm



tiré du wiki fr ordinateur ;)



D’aillieur le fr est plus rempli que l’anglais pour une fois, je t’invite donc à la lire







Merci, en effet, lien très intéressant.



J’avais lu un jour que c’était Pompidou qui avait choisi ce mot. Clairement, on m’avait donc menti !









gavroche69 a écrit :



Le 24 lignes x 80 caractères c’est en gros à partir des premiers PC IBM (plus ou moins inventeur du terme “Personal Computer” d’ailleurs”)…



L’Apple II par exemple n’affichait que 24 lignes de 40 caractères…

Et d’autre petits ordinateurs de cette époque encore moins que ça. <img data-src=" />







Mais je voulais faire référence aux terminaux alpha-numérique de l’époque exemple emblèmatique



Edit == lien









nucl3arsnake a écrit :



QU’en partie ^^





Pas faux <img data-src=" /> Mais Intel développe les pilotes Linux pour ses CPU & GPU et en libre (c’est dans directement dans le kernel), donc en fait je serais pas étonné si le 4K marchait d’office sans rien faire avec un des derniers kernel et un CPU+IGP Haswell.









Latios a écrit :



Pas faux <img data-src=" /> Mais Intel développe les pilotes Linux pour ses CPU & GPU et en libre (c’est dans directement dans le kernel), donc en fait je serais pas étonné si le 4K marchait d’office sans rien faire avec un des derniers kernel et un CPU+IGP Haswell.





Oui sauf que la 4k sert pour la vidéos etc … donc a voir le rendu final mais bon je suis pas encore convaincu que Linux l’aura plus vite que Windows :s









nucl3arsnake a écrit :



Oui sauf que la 4k sert pour la vidéos etc … donc a voir le rendu final mais bon je suis pas encore convaincu que Linux l’aura plus vite que Windows :s





Ça sert aussi à afficher plus de chose sur un écran et/ou a avoir un pitch meilleur.









Dacoco974 a écrit :



Comment tu fais pour utiliser plusieurs écrans ? Voilà, c’est la solution.







Bah sous linux, il suffit que les pilotes supportent ce genre de résolution, et ça tourne sans avoir besoin de simuler des écrans supplémentaires…