Microsoft : « le 1080p n'est pas une définition mythique ou parfaite »

Microsoft : « le 1080p n’est pas une définition mythique ou parfaite »

Le seul mythe sur consoles, ça reste la 4K

Avatar de l'auteur
Kevin Hottot

Publié dans

Société numérique

14/08/2014 2 minutes
250

Microsoft : « le 1080p n'est pas une définition mythique ou parfaite »

Depuis le lancement de la Xbox One, Microsoft est sous le feu permanent de critiques concernant les performances graphiques de sa console par rapport à la PS4. Phil Spencer, le responsable de la branche Xbox estime de son côté que la définition des jeux n'est pas le facteur le plus important.

Depuis l'arrivée des consoles de nouvelle génération, nombre de studios et d'éditeurs cherchent à mettre en avant les graphismes de leurs jeux afin de mieux les vendre. Les joueurs eux, s'attendent à ce que l'ensemble des titres tourne sur leur console avec la sacro-sainte définition de 1920 x 1080 pixels (1080p) et un taux de rafraichissement de 60 images par seconde.

 

Certains titres ne proposent pas cela sur Xbox One et cela peut donner l'impression que la console de Microsoft est moins performante. Phil Spencer, le responsable de la branche Xbox a quant à lui une interprétation un peu différente de cela. Interrogé par nos confrères de CVG, le dirigeant insiste sur le fait que certains jeux proposent la même définition sur Xbox One que sur PS4, comme Destiny

 

Mais il insiste surtout sur le fait, que « tout ne doit pas se jouer que sur les chiffres, parce que le 1080p n'est pas une définition mythique ou parfaite. La fluidité est pour moi significativement plus importante dans l'expérience de jeu que la définition ». En guise d'exemple, il explique que certains jeux se passent de 1080p pour des raisons artistiques, comme The Order : 1886 sur PlayStation 4, qui se contente de 1920 x 900 pixels afin d'offrir une ambiance particulière. « J'aime leur choix, il est intéressant », poursuit-il. « Je veux pouvoir donner des outils aux artistes et ne pas essayer de savoir s'il y a une formule mathématique qui donne la bonne définition et le taux de rafraichissement nécessaire pour un jeu, parce qu'elle n'existe pas ».

 

Le dirigeant reconnait toutefois que pour certains types de jeux, comme les simulations de course automobile, atteindre les sacro-saints « 1080p et 60 fps » est quelque chose d'essentiel pour l'expérience de jeu. « Il y a certains genres où il y a une attente, mais il y en a aussi d'autres pour lesquels je préfèrerais utiliser des cycles machine pour ajouter plus d'effets à l'écran ou un meilleur éclairage. Je dois juste offrir aux développeurs les outils pour le faire ». 

Écrit par Kevin Hottot

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Fermer

Commentaires (250)


C’te fournée de bullshit <img data-src=" /><img data-src=" />


Bullshiting at his best. Vive dredi.


« Dammage controle service bonjour… Ne quittez pas M Phil, un opérateur va prendre votre appel. »



Bon, après, il a pas totalement tard, si j’ai le choix entre un framerate stable en 720p et un framerate qui joue au yo-yo en 1080p, plutôt prendre la version 720p, plus agréable à jouer à la longue.


Bah il n’a pas tort dans le fond, mais sachant qu’une console est censée durer pas mal d’années, ça aurait été bien de partir sur une base solide tout de même…



Après au prix d’une console comparé à un bon PC de gaming, on ne peut pas demander la lune non plus.


Enfin même en 720p ils font pas non plus du 60fps donc bon..


Tout ça pour justifier le manque de performances des consoles de nouvelle génération…


Faut pas abuser, au jour d’aujourd’hui ne pas proposer du 1080p sur console, c’est ce foutre des gens … le 60fps a la limite je veux bien meme si ca devrait etre aussi un minimum …


Si, le 1080 n’était pas devenu un standard et, si ils n’avaient pas insisté sur la compatibilité 4K, qui au yeux des consommateurs est 4 fois mieux que le 1080 et ceci même dans les jeux (ce que comprend M.lambda), ils en seraient peut-être pas là <img data-src=" />



Il y en a qui ont dû zapper des cours de marketing chez Microsoft, c’est l’arroseur arrosé !



Et c’est un possesseur de X1 qui dit ça <img data-src=" />


La définition mystique c’est 320×240. <img data-src=" />








Lafisk a écrit :



Faut pas abuser, au jour d’aujourd’hui ne pas proposer du 1080p sur console, c’est ce foutre des gens … le 60fps a la limite je veux bien meme si ca devrait etre aussi un minimum …







Fixed



Et vu que l’on est dans le troll, un bon PC restera toujours plus performant qu’une console. (vendredi c’est férié, on a le droit ? :))









Zergy a écrit :



« Dammage controle service bonjour… Ne quittez pas M Phil, un opérateur va prendre votre appel. »



Bon, après, il a pas totalement tard, si j’ai le choix entre un framerate stable en 720p et un framerate qui joue au yo-yo en 1080p, plutôt prendre la version 720p, plus agréable à jouer à la longue.







Certe, mais le 1080p ca date pas d’hier, la PS3 à sa sortie était “censé” être compatible avec les jeux en 1080… Donc la maintenant que la dernière gen de console ne le fasse pas en natif sans avoir recours à des artifices divers et variés c’est du foutage de gueule<img data-src=" />









Zergy a écrit :



« Dammage controle service bonjour… Ne quittez pas M Phil, un opérateur va prendre votre appel. »



Bon, après, il a pas totalement tard, si j’ai le choix entre un framerate stable en 720p et un framerate qui joue au yo-yo en 1080p, plutôt prendre la version 720p, plus agréable à jouer à la longue.









Ou on peut avoir le choix d’upgrader son matos pour obtenir le niveau de performance qui nous convient en fonction de nos moyens. Ah oui, seulement sur PC.

En gros ça devient de plus en plus difficile dans une époque ou l’évolution technique est si rapide, de défendre le principe de la console à spécifications fixes pendant 7 ans. Seul une armée de bullshiteurs professionnels comme ce monsieur peuvent essayer de cacher le problème de fond.



Purée, j’aimerais bien voire Dwarff Fortress sur une X1 ou PS4 car c’est le seul jeu qui fait réellement ramer mon ordi (et c’est pas à cause des shader) <img data-src=" />








zefling a écrit :



Le définition mystique c’est 320×240. <img data-src=" />





<img data-src=" /><img data-src=" /><img data-src=" />



bien sur avec un écran de +40pouces hein



Si on suit sa logique, pourquoi ne pas faire tourner les jeux en 720P, 60 FPS ?

Pourquoi avoir martelé “1080P 60 FPS” pendant l’E3 ?



La PS4 m’attire pas mal, mais la politique des deux maisons me fait gerber. Sony ne fait pas tourner The order en 1080P parce que la console ne peut le tenir, pas par souci d’esthétisme.








Zergy a écrit :



« Dammage controle service bonjour… Ne quittez pas M Phil, un opérateur va prendre votre appel. »



Bon, après, il a pas totalement tard, si j’ai le choix entre un framerate stable en 720p et un framerate qui joue au yo-yo en 1080p, plutôt prendre la version 720p, plus agréable à jouer à la longue.







je suis d’accord, je prefere avoir du 720p aussi avec un meilleurs framrate et éventuellement plus d’effets affichés…

Mais bon la, ca sent l’argument bidon de la loose

je pense que si on inversait la situation, le monsieur ne tiendrait pas du tout le meme discours….









Tirr Mohma a écrit :



Fixed



Et vu que l’on est dans le troll, un bon PC restera toujours plus performant qu’une console. (vendredi c’est férié, on a le droit ? :))









https://fr.wiktionary.org/wiki/au_jour_d%E2%80%99aujourd%E2%80%99hui



1080 ou pas ! Je prends toujours du plaisir avec ma One et à mettre des roustes à Fifa 14 (si il y a des challengers ici je suis preneur ^^) et c’est ce qui compte !








IhazHedont a écrit :



Pourquoi avoir martelé “1080P 60 FPS” pendant l’E3 ?







Parce que sur les PC de démo ça marchait nickel en 1080P 60FPS <img data-src=" />









Sakthivel a écrit :



https://fr.wiktionary.org/wiki/au_jour_d%E2%80%99aujourd%E2%80%99hui









Étymologiquement parlant, c’est une locution doublement redondante.





Et une horreur pour les oreilles



http://parler-francais.eklablog.com/au-jour-d-aujourd-hui-a5227461



Voilà une analyse intelligente…

C’est un peu comme au cinéma, les meilleurs effets spéciaux ne font pas forcément le meilleur film…




le 1080p n’est pas une définition mythique





Je suis d’accord, Homère ne le mentionne pas dans ses récits mythologiques. <img data-src=" />



<img data-src=" />








Jean_Peuplus a écrit :



Ou on peut avoir le choix d’upgrader son matos pour obtenir le niveau de performance qui nous convient en fonction de nos moyens. Ah oui, seulement sur PC.

En gros ça devient de plus en plus difficile dans une époque ou l’évolution technique est si rapide, de défendre le principe de la console à spécifications fixes pendant 7 ans. Seul une armée de bullshiteurs professionnels comme ce monsieur peuvent essayer de cacher le problème de fond.







Ca dépend, si tout le marché se réorganise en fonction des consoles en tirant le niveau artificiellement par le bas, tu auras beau avoir un super PC de la mort qui tue avec de nouvelles CG et de nouveaux proc, les jeux resteront similaires sur consoles qui servent d’etalon.

C’est ce qui s’etait passé avec les PS360, ya que depuis les annonces de sorties de la next gen que l’ecart s’etait vraiment creusé.



Ils vont surement recommencer….









fraoch a écrit :



Ca dépend, si tout le marché se réorganise en fonction des consoles en tirant le niveau artificiellement par le bas, tu auras beau avoir un super PC de la mort qui tue avec de nouvelles CG et de nouveaux proc, les jeux resteront similaires sur consoles qui servent d’etalon.

C’est ce qui s’etait passé avec les PS360, ya que depuis les annonces de sorties de la next gen que l’ecart s’etait vraiment creusé.



Ils vont surement recommencer….







On en a eu un exemple flagrant avec Watch_Dog





Phil Spencer





C’est le frère de Puti ?



(vendredi jeudi, tout ça …)








Tirr Mohma a écrit :



Et une horreur pour les oreilles



http://parler-francais.eklablog.com/au-jour-d-aujourd-hui-a5227461





D’ailleurs, j’aimerais remettre au goût du jour le mot hui, qui est plus agréable à l’oreille qu’aujourd’hui,









JimTK a écrit :



Voilà une analyse intelligente…

C’est un peu comme au cinéma, les meilleurs effets spéciaux ne font pas forcément le meilleur film…







C’est juste évident …

Je joue à des jeux pour prendre du plaisir, pas pour faire des benchmark …



On a l’habitude sur PC d’ajuster les paramètres graphiques afin d’avoir le meilleur ration jouabilité/graphisme.



Je préfère donc une légère baisse de résolution, plutôt qu’une perte de fluidité.









Zyami a écrit :



Purée, j’aimerais bien voire Dwarff Fortress sur une X1 ou PS4 car c’est le seul jeu qui fait réellement ramer mon ordi (et c’est pas à cause des shader) <img data-src=" />







En 4k il doit envoyer du pâté :bave:

Des nains vampires en full HD









IhazHedont a écrit :



Si on suit sa logique, pourquoi ne pas faire tourner les jeux en 720P, 60 FPS ?

Pourquoi avoir martelé “1080P 60 FPS” pendant l’E3 ?



La PS4 m’attire pas mal, mais la politique des deux maisons me fait gerber. Sony ne fait pas tourner The order en 1080P parce que la console ne peut le tenir, pas par souci d’esthétisme.







Ca a été martelé car les journalistes et le public s’attachent tellement aux chiffres qu’il faut bien leur en fournir et que c’est la réalité du marché. Après il faut pas être dupe des chiffres et je trouve que là en l’occurrence, c’est une analyse saine qui relativise un peu cette course aux pixels… C’est un peu comme à l’époque de la Saturn et de la PS1, tout le monde s’est rué sur la PS1 car elle affichait des transparences alors que la Saturn ne faisait que tramer… Mais franchement j’ai toujours préféré jouer à Virtua Fighter qu’à Tekken car le jeu de Sega était bien plus profond dans la technique de jeu, alors que sur Tekken n’importe quel bourrin du joystick pouvait s’en sortir s’il était rapide.

Les années passent et les gens continuent de se fourrer le doigt dans l’œil en ne regardant que les apparences…



En même temps le 1080 ne se suffit pas à lui même, il faut que les textures suivent. Et dans beaucoup de jeux augmenter la résolution apporte certes des détails au loin, mais au final les textures vues de près sont souvent très limités.



Un 720p avec un bon anti-crenélage suffit souvent pour la plupart des jeux.



Après sur les fps ouvert, c’est effectivement utile, mais tout le monde n’a pas de grosses carte graphique non plus, je parle en général.

Sur les consoles qui sont au prix d’une carte graphique moyen hdg, cela ne m’étonne pas qu’ils ne puissent pas faire comme les pc. Ils trouvent un juste milieu entre prix final et puissance.


OUAIS, 1080, c’est pas une définition magique, VIVE LE PIXEL ART, VIVE LE VGA

VIVE L’UPSCALING !



la résolution native, c’est pour les bourgeois !


Le mec fait de la pub pour la Wii U ? Tous les jeux de Nintendo tournent en 60fps sur la console.


Cette génération ne devrait pas trop durer car 720p pour faire du 1080 avec anti crénelage pourquoi pas, mais pas sûr que ce soit aussi simple avec le 4k qui arrive.


Microsoft et sa comm dans toute sa splendeur.



Notre console est a la ramasse par rapport à Sony , mais c’est pas grave : c’est même cool !



1080p pour quoi franchement ? Du 480i ça suffit amplement.








canti a écrit :



OUAIS, 1080, c’est pas une définition magique, VIVE LE PIXEL ART, VIVE LE VGA

VIVE L’UPSCALING !



la résolution native, c’est pour les bourgeois !







Le flou de l’upscaling c’est de l’art, c’est voulu par l’éditeur <img data-src=" />

Pourquoi personne fait le choix de garder de la musique 8 bits par contre c’est un mystère, c’est tellement intéressant artistiquement <img data-src=" />









Toniob a écrit :



Le mec fait de la pub pour la Wii U ? Tous les jeux de Nintendo tournent en 60fps sur la console.





Genre Mario Kart à 4 joueurs ?



Oh, wait…









Jean_Peuplus a écrit :



Pourquoi personne fait le choix de garder de la musique 8 bits par contre c’est un mystère, c’est tellement intéressant artistiquement <img data-src=" />





Si si. Les mecs de Shovel Knight l’ont fait, et c’est juste une tuerie.



si le jeu est bon, le 720p me gène pas <img data-src=" />



mais desfois faut avoir, que la finesse du 1080p fait plaisirs aux yeux…








fraoch a écrit :



Ca dépend, si tout le marché se réorganise en fonction des consoles en tirant le niveau artificiellement par le bas, tu auras beau avoir un super PC de la mort qui tue avec de nouvelles CG et de nouveaux proc, les jeux resteront similaires sur consoles qui servent d’etalon.







Il y a quand même quelques éditeurs spécialisés PC qui se feront un plaisir de montrer le gouffre technique entre les 2 mondes.









Nathan1138 a écrit :



Genre Mario Kart à 4 joueurs ?



Oh, wait…





Perso je suis d’accord avec Toniob, Nintendo en fait pas des caisse, mais les jeux (en solo) tournent en 1080 / 60. Après c’est pas pour ça que j’ai acheté la console de toute façon !



Pi Mario Kart, quand ta TV est divisé en 4, 1080 / 60 ou pas, tu te marre bien quand même !!



Ouais enfin d’un côté à part les kikoolols qui ne cherche que les performance (90% des joueurs PC sont dans ce cas, suffit de voir les commentaires sur cette articles et tout les articles qui tourne sur les consoles/PC), qui ça intéresse de savoir qu’un jeu est en 1080p/60fps ? Non parce que tant que le jeux est bon, que les graphisme soit travailler (et pas besoin d’être en 1080p pour ça) et que c’est fluide ça devrait être suffisant pour les joueurs. Mais non, vous comprenez ma bonne dame le jeu ne tourne pas en 108060, cela ne peut donc pas être un bon jeu…. Tant pis si c’est le jeux de l’année à côté, il n’as pas les standards inutiles exigé par une minorité de joueurs… Puis le 60 FPS me fait toujours rire quand on sais qu’une télé c’est en général 50 hz donc 50 fps (sans comptez les yeux bioniques des types qui distingues la différence entre 30 et 60). <img data-src=" />








zefling a écrit :



La définition mystique c’est 320×240. <img data-src=" />







ça c’est youtube sur free (les jours ou j’ai un bon débit)



de toutes façons, que l’analyse de ce monsieur soit juste ou non

le fait est qu’en 2013, ils auraient du sortir une console (Sony et MS) capable de faire du 1080p en 60fps.

Ils etaient attendus ladessus, ont “communiqué” la dessus”



A chaque nouvelle gen de consoles on avait un bon graphique, la, je suis désolé, mais une next gen qui fait la meme résolution que l’ancienne, c’est anormal.



si la X1 faisait tout le temps de la HD et la PS4 de la 1.5 X HD par exemple

je trouverais argument valable, et je dirais que la X1 fait de la HD comme attendue



La, c’est different, ils ont échoué la ou tout le monde les attendait ( je met Sony et MS dans le meme sac)

pire, les fonctionnalité multimedia chez Sony sont en retrait par rapport a l’ancienne version….








Kikilancelot a écrit :



Ouais enfin d’un côté à part les kikoolols qui ne cherche que les performance (90% des joueurs PC sont dans ce cas, suffit de voir les commentaires sur cette articles et tout les articles qui tourne sur les consoles/PC), qui ça intéresse de savoir qu’un jeu est en 1080p/60fps ? Non parce que tant que le jeux est bon, que les graphisme soit travailler (et pas besoin d’être en 1080p pour ça) et que c’est fluide ça devrait être suffisant pour les joueurs. Mais non, vous comprenez ma bonne dame le jeu ne tourne pas en 108060, cela ne peut donc pas être un bon jeu…. Tant pis si c’est le jeux de l’année à côté, il n’as pas les standards inutiles exigé par une minorité de joueurs… Puis le 60 FPS me fait toujours rire quand on sais qu’une télé c’est en général 50 hz donc 50 fps (sans comptez les yeux bioniques des types qui distingues la différence entre 30 et 60). <img data-src=" />







beaucoup TV proposent le 100hz



et de toutes facons, c’est 60 ou 30 donc vaut mieux peut etre avoir 60 pour tirer parti des 50 non ?



Ben disons que comment dire… avec son raisonnement… out la TV HD, pourquoi n’investissons-nous plus dans une bonne vieille TV cathodique, hein?

Heu, m’sieur, pourquoi faudrait acheter la Xbox one plutôt que de garder sa Xbox360?

“hé bien, jeune homme, c’est parce qu’avec la Xbox One tu pourras jouer en HD… heu… non mais ce n’est pas ce que je voulais dire…c’est parce que…bouhouhou fichez moi la paix!!!!”



Bon on vous a promis un truc, on ne parvient pas à le faire mais osef, faut acheter tout de même la nouvelle génération, <img data-src=" />








Kikilancelot a écrit :



Ouais enfin d’un côté à part les kikoolols qui ne cherche que les performance (90% des joueurs PC sont dans ce cas, suffit de voir les commentaires sur cette articles et tout les articles qui tourne sur les consoles/PC), qui ça intéresse de savoir qu’un jeu est en 1080p/60fps ? Non parce que tant que le jeux est bon, que les graphisme soit travailler (et pas besoin d’être en 1080p pour ça) et que c’est fluide ça devrait être suffisant pour les joueurs. Mais non, vous comprenez ma bonne dame le jeu ne tourne pas en 108060, cela ne peut donc pas être un bon jeu…. Tant pis si c’est le jeux de l’année à côté, il n’as pas les standards inutiles exigé par une minorité de joueurs… Puis le 60 FPS me fait toujours rire quand on sais qu’une télé c’est en général 50 hz donc 50 fps (sans comptez les yeux bioniques des types qui distingues la différence entre 30 et 60). <img data-src=" />





Je suis d’accord, mais quand tu vas sur les sites de jeux vidéos, c’est une des premières choses mis en avant le graphismes par un nombre très important de pseudos .









metaphore54 a écrit :



Je suis d’accord, mais quand tu vas sur les sites de jeux vidéos, c’est une des premières choses mis en avant le graphismes par un nombre très important de pseudos .





C’est l’une des raisons qui ont fait que je ne lit absolument plus aucun test de jeux, ni sur les divers site ni en magazine (ça et le fait que pour la plupart sa tourne plus au biftons passé sous la table que sur la réelle qualité du jeu).



Euh…pour faire switcher le joueur, il va peut être falloir lui faire voir l’intérêt de lâcher sa PS360.



Là, le monsieur nous explique qu’avec sa console il ne faut pas exiger, càd s’attendre, à avoir qq chose de plus fin ou fluide que sur la gen’ précédente.



Comme en plus niveau gameplay, c’est pas la folie non plus : on retrouve les mêmes pads à quelques changements cosmétiques prêts, les mêmes accessoires obligatoiro-facultatifs (Kinect <img data-src=" />),



et qu’en plus les jeux continuent de sortir en XO/PS4/360/PS3,



en gros c’est wait & see, la vraie next gen’ (par rapport à la PS360) en 2020.



Entre parenthèses, qu’une console soit capable de sortir des jeux fluides à la résolution native de la plupart des écrans sur laquelle elle sera exploitée semble tout de même être un minimum en 2014.



Avec sa XO, MS donne dans le renoncement permanent…et amha Sony n’en pense pas moins mais communique mieux (du moins ils s’abstiennent de ce genre de sorties)








Tirr Mohma a écrit :



Étymologiquement parlant, c’est une locution doublement redondante.







Oui, tout comme “aujourd’hui” si tu avais lu le lien jusqu’au bout…









fraoch a écrit :



beaucoup TV proposent le 100hz



et de toutes facons, c’est 60 ou 30 donc vaut mieux peut etre avoir 60 pour tirer parti des 50 non ?







50hz en principe c’est suffisant pour la fluidité, l’oeil humain ne voyant que 24 image seconde (c’est ce que projette les films), c’est tout bon.

Les 50hz, il faut quand même les diviser par 2, il faut afficher une image pour l’effacer pour la suivante.









Kikilancelot a écrit :



Ouais enfin d’un côté à part les kikoolols qui ne cherche que les performance (90% des joueurs PC sont dans ce cas, suffit de voir les commentaires sur cette articles et tout les articles qui tourne sur les consoles/PC), qui ça intéresse de savoir qu’un jeu est en 1080p/60fps ? Non parce que tant que le jeux est bon, que les graphisme soit travailler (et pas besoin d’être en 1080p pour ça) et que c’est fluide ça devrait être suffisant pour les joueurs. Mais non, vous comprenez ma bonne dame le jeu ne tourne pas en 108060, cela ne peut donc pas être un bon jeu…. Tant pis si c’est le jeux de l’année à côté, il n’as pas les standards inutiles exigé par une minorité de joueurs… Puis le 60 FPS me fait toujours rire quand on sais qu’une télé c’est en général 50 hz donc 50 fps (sans comptez les yeux bioniques des types qui distingues la différence entre 30 et 60). <img data-src=" />







PC master race <img data-src=" />



Et sinon, pour les FPS, c’est important selon le jeu. Ne pense pas que ton cerveau et tes yeux sont des trucs qui fonctionnent en FPS.









Sakthivel a écrit :



Oui, tout comme “aujourd’hui” si tu avais lu le lien jusqu’au bout…







En plus un pléonasme n’est pas interdit par la langue française. Si la figure est volontaire pourquoi pas.



L’acharnement à rester en 720P/30fps c’est une conséquence de différents phénomènes :





  • Les clients ne voient pas la différence

  • Si tu baisses la résolution, tu peux augmenter le niveau de détail des textures ou d’autre chose

  • Tout le monde le fait, pourquoi devrait-on faire mieux que les autres ?

  • L’optimisation d’un jeu est toujours une des dernières étapes. Moins on en fait, moins ça coûte et d’autant plus que les jeux vidéo sortent toujours en retard.





    Oui c’est énervant pour les joueurs PC, oui c’est un nivellement par le bas, oui les constructeurs nous le vendent depuis des lustres, mais ça change rien aux points précédents. Tant qu’un gros jeu n’aura pas “1080P full HD” d’écrit sur sa boîte, les gens ne sauront pas que ça existe et que c’est mieux.








Zyami a écrit :



50hz en principe c’est suffisant pour la fluidité, l’oeil humain ne voyant que 24 image seconde (c’est ce que projette les films), c’est tout bon.

Les 50hz, il faut quand même les diviser par 2, il faut afficher une image pour l’effacer pour la suivante.







Encore cette légende urbaine, je te conseille d’aller lire un excellent article de NoFrag à ce sujet.



Mais pour t’éveiller dis toi que l’oeil voit en continue et que la rétine garde l’information des images ce qui donne le flou des mouvements rapides.



Si la géode projette à 80 images par seconde, c’est que l’oeil peut les voir ;)









boglob a écrit :



Faut être idiot pour faire des reflexions comme ça de nos jours ! <img data-src=" />







Faut être idiot pour répondre à un idiot <img data-src=" />









Zyami a écrit :



l’oeil humain ne voyant que 24 image seconde (c’est ce que projette les films), c’est tout bon.











sioowan a écrit :



Encore cette légende urbaine, je te conseille d’aller lire un excellent article de NoFrag à ce sujet.







Avec le lien, c’est mieux ;)









Jean_Peuplus a écrit :



Le flou de l’upscaling c’est de l’art, c’est voulu par l’éditeur <img data-src=" />

Pourquoi personne fait le choix de garder de la musique 8 bits par contre c’est un mystère, c’est tellement intéressant artistiquement <img data-src=" />





… on appelle cela le bitcruch en audio ….









sioowan a écrit :



Encore cette légende urbaine, je te conseille d’aller lire un excellent article de NoFrag à ce sujet.



Mais pour t’éveiller dis toi que l’oeil voit en continue et que la rétine garde l’information des images ce qui donne le flou des mouvements rapides.



Si la géode projette à 80 images par seconde, c’est que l’oeil peut les voir ;)







Mais je suis bien d’accord avec toi, c’est autour de 100hz qu’on perd le scintillement ou les saccade sauf qu’avec 24 ims on a un sentiment de fluidité suffisante.

Si c’était possible de jouer en 100hz, tout le monde le ferait et je parle même pas de la TV ou ça passerait certainement pas sur de l’ADSL.



La Playstation 2, sortie il y a plus de 14 ans, était capable de faire du 1080i sur certain jeux.



De nos jours les téléphones sont capables d’afficher du 1080p, les TV du 4k. Pour une console nouvelle génération prévue pour durer de nombreuses années, ne pas pouvoir faire mieux que la précédente, c’est juste du foutage de gueule.



J’attendais de cette génération de console de pouvoir faire de la 4k, un peu comme la PS2 a introduit le DVD et la PS3 le blu-ray. Au final il n’y a absolument rien d’inovant que ça soit du côté de Microsoft comme de Sony, c’est juste une mise à jour de leurs consoles de 2005 et 2006.








fraoch a écrit :



de toutes façons, que l’analyse de ce monsieur soit juste ou non

le fait est qu’en 2013, ils auraient du sortir une console (Sony et MS) capable de faire du 1080p en 60fps.

Ils etaient attendus ladessus, ont “communiqué” la dessus”



A chaque nouvelle gen de consoles on avait un bon graphique, la, je suis désolé, mais une next gen qui fait la meme résolution que l’ancienne, c’est anormal.



si la X1 faisait tout le temps de la HD et la PS4 de la 1.5 X HD par exemple

je trouverais argument valable, et je dirais que la X1 fait de la HD comme attendue



La, c’est different, ils ont échoué la ou tout le monde les attendait ( je met Sony et MS dans le meme sac)

pire, les fonctionnalité multimedia chez Sony sont en retrait par rapport a l’ancienne version….





tout à fait, j’ai donc pris un wii u et ne compte pas prendre cette génération de console : on jouera sur PC (steam me semble bien, hormis le online obligatoire et les jeux d’occaz.)









XalG a écrit :



PC master race <img data-src=" />



Et sinon, pour les FPS, c’est important selon le jeu. Ne pense pas que ton cerveau et tes yeux sont des trucs qui fonctionnent en FPS.







lol peasants

<img data-src=" />









fraoch a écrit :



beaucoup TV proposent le 100hz



et de toutes facons, c’est 60 ou 30 donc vaut mieux peut etre avoir 60 pour tirer parti des 50 non ?







et on voit bien la différence en 30 et 60. TLOU PS3/PS4, ca crève les noeils !









Kikilancelot a écrit :



Ouais enfin d’un côté à part les kikoolols qui ne cherche que les performance (90% des joueurs PC sont dans ce cas, suffit de voir les commentaires sur cette articles et tout les articles qui tourne sur les consoles/PC), qui ça intéresse de savoir qu’un jeu est en 1080p/60fps ? Non parce que tant que le jeux est bon, que les graphisme soit travailler (et pas besoin d’être en 1080p pour ça) et que c’est fluide ça devrait être suffisant pour les joueurs. Mais non, vous comprenez ma bonne dame le jeu ne tourne pas en 108060, cela ne peut donc pas être un bon jeu…. Tant pis si c’est le jeux de l’année à côté, il n’as pas les standards inutiles exigé par une minorité de joueurs… Puis le 60 FPS me fait toujours rire quand on sais qu’une télé c’est en général 50 hz donc 50 fps (sans comptez les yeux bioniques des types qui distingues la différence entre 30 et 60). <img data-src=" />







Moi ce qui me fait rire c’est les gens qui parlent sans savoir juste en se basant sur leurs petites expériences au carrouf du coin…



Il me semble que le 60 hz c’est un standard chez les ricains depuis des années voir décennie en électricité pour leur courant alternatif quand en europe on a misé sur le 50 hz … est ce lié ou pas ?

Certainement y a un facteur de cause à effet que je ne connais pas.



Puis niveau télé faut remonter plus loin que l’époque de tes télé full HD pour comprendre d’où viennent ses nombres magiques de 60 ou 50 hz….



Le pal, standard européen en télé était en 25 hz quand son homologue américain NTSC était en 30hz… Ils ont tous simplement doublé le nombre d’image quand la technologie le permettait ( et car c’est bon pour le commerce aussi ^^ ).



Bon en vrai le NTSC c’était plutôt du 29.970 hz soit 30 hz * 10001001 pour des raisons techniques liés au synchronisme entre son et image.



Pour tes histoires de yeux bioniques … s’est encore l’argument facile/type/inutile des gens qui confondent tout car ils ne sont pas assez réfléchis ou cultivés sur le sujet…

Tes yeux sont largement capables de discerner des flashs lumineux durant 2 millardièmes de secondes par contre ils sont pas capable de voir une lumière qui s’éteint pendant quelques centièmes de secondes…



Donc tu peux largement être sensible à du 60 fps tout dépend ce que tu regardes en fait …



Tiens un petit lien sympa qui va mieux t’expliquer que moi certains aspects pratiques de ce domaine.



Sinon je suis entièrement d’accord avec la première partie de ton post et donc avec les déclarations de Phil Spencer même si c’est que du marketing dans le fond il a raison …









Zyami a écrit :



Mais je suis bien d’accord avec toi, c’est autour de 100hz qu’on perd le scintillement ou les saccade sauf qu’avec 24 ims on a un sentiment de fluidité suffisante.







La fluidité d’un film vient du flou de mouvement du au temps d’exposition. Sans ça, ton film va ressembler à une soirée diapo <img data-src=" /> (sans parler que les projections ciné se font dans le noir)









darkbeast a écrit :



ça c’est youtube sur free (les jours ou j’ai un bon débit)







Perso, en ce moment, je joue plus souvent en un truc proche de 320×240 qu’en 1920×1200 <img data-src=" />









kamuisuki a écrit :



Enfin même en 720p ils font pas non plus du 60fps donc bon..







Le 720p n’est pas une définition mythique ou parf… euh bon <img data-src=" />









zefling a écrit :



Perso, en ce moment, je joue plus souvent en un truc proche de 320×240 qu’en 1920×1200 <img data-src=" />







ben moi aussi et les tutoriels de démontage de tel ou ordi quand je dois descendre en 240 j’ai les yeux qui pleurent



<img data-src=" />



Ne pas proposer 1080p 60 fps en 2014, c’est juste du foutage de gueule…



Ce n’est certainement pas avec ce genre “d’argument” qu’il me donnera envie de racheter une console.









John Shaft a écrit :



La fluidité d’un film vient du flou de mouvement du au temps d’exposition. Sans ça, ton film va ressembler à une soirée diapo <img data-src=" />







C’est ce que je viens de lire sur ton lien ;) Et comme il l’explique très bien en fin d’article, c’est bien nos équipements qui ne permettent pas d’avoir aujourd’hui un rafraichissement d’image supérieur.









Kikilancelot a écrit :



Ouais enfin d’un côté à part les kikoolols qui ne cherche que les performance (90% des joueurs PC sont dans ce cas, suffit de voir les commentaires sur cette articles et tout les articles qui tourne sur les consoles/PC), qui ça intéresse de savoir qu’un jeu est en 1080p/60fps ? Non parce que tant que le jeux est bon, que les graphisme soit travailler (et pas besoin d’être en 1080p pour ça) et que c’est fluide ça devrait être suffisant pour les joueurs. Mais non, vous comprenez ma bonne dame le jeu ne tourne pas en 108060, cela ne peut donc pas être un bon jeu…. Tant pis si c’est le jeux de l’année à côté, il n’as pas les standards inutiles exigé par une minorité de joueurs… Puis le 60 FPS me fait toujours rire quand on sais qu’une télé c’est en général 50 hz donc 50 fps (sans comptez les yeux bioniques des types qui distingues la différence entre 30 et 60). <img data-src=" />







1/ ici on ne parle pas d’un jeu, on parle de matos et encore plus de console -qui a un matos figé : si le même jeu est le même sur xbox360 et xbox one, pourquoi acheter une xbox one? C’est bien pour avoir des performances en plus. Le jeu reste le même question gameplay.



2/ une TV : c’est passif, il n’y a pas d’interaction entre l’action qui se déroule à l’écran et l’utilisateur (à part pour changer de chaîne etc… hein, pas qu’y ait un malin pour faire celui qui ne comprend pas). Ensuite, 30 FPS pour un FPS <img data-src=" /> -le 1er FPS= Frame Per Second, le second=First Person Shooter - c’est franchement pas assez, ça manque de fluidité, tu vois vraiment la différence par rapport à 60 FPS. Au-dessus, je te l’accorde à part quelques exceptions on en voit plus la différence.



Gamescom 2014, définitivement le salon du Bullshit <img data-src=" />








Zyami a écrit :



Mais je suis bien d’accord avec toi, c’est autour de 100hz qu’on perd le scintillement ou les saccade sauf qu’avec 24 ims on a un sentiment de fluidité suffisante.

Si c’était possible de jouer en 100hz, tout le monde le ferait et je parle même pas de la TV ou ça passerait certainement pas sur de l’ADSL.







C’est possible de jouer en 200 hz si tu veux … les vrais soldats ils jouent à la vraie guerre en je sais pu combien de milliards d’hz … <img data-src=" />



Bref blague à part tu confonds tout … le cinéma, la persistance rétienne, ce que l’oeil est réellement capable de voir puis la façon dont le cerveau décode le flux rétinien pour arriver à appréhender le monde en fonction de l’interactivité que notre corps offre…



&gt;&gt;&gt;&gt; Va lire ça avant de reparler sur le sujet









Danytime a écrit :



Gamescom 20[0-9][0-9], définitivement le salon du Bullshit <img data-src=" />







<img data-src=" />



Pareil pour l’E3 et pareil pour tous les gros salons nan ? ;)









Ideal a écrit :



C’est possible de jouer en 200 hz si tu veux … les vrais soldats ils jouent à la vraie guerre en je sais pu combien de milliards d’hz … <img data-src=" />



Bref blague à part tu confonds tout … le cinéma, la persistance rétienne, ce que l’oeil est réellement capable de voir puis la façon dont le cerveau décode le flux rétinien pour arriver à appréhender le monde en fonction de l’interactivité que notre corps offre…



&gt;&gt;&gt;&gt; Va lire ça avant de reparler sur le sujet







3 post au dessus ;)









Zyami a écrit :



3 post au dessus ;)







PAs vraiment mdrr Y a une page t’étais à la ramasse et 20 post plus tard ton “ 3 posts au dessus ” t’as toujours pas saisi le fin mot de l’article …





Et pour être honnête, il n’est pas très intelligent de parler de la perception humaine en terme d’images par seconde alors que l’oeil et le cerveau perçoivent un flux continu de lumière et d’informations.





<img data-src=" />









NonMais a écrit :



1/ ici on ne parle pas d’un jeu, on parle de matos et encore plus de console -qui a un matos figé : si le même jeu est le même sur xbox360 et xbox one, pourquoi acheter une xbox one? C’est bien pour avoir des performances en plus. Le jeu reste le même question gameplay.







Perso j’y connais rien en console.



Mais n’est-il pas possible d’avoir des jeux plus jolis plus détaillés avec la même résolution de 720p ?









zefling a écrit :



La définition mystique c’est 320×240. <img data-src=" />







putain carrément c’est même légendaire <img data-src=" /> de bon souvenir dans cette résolution









NonMais a écrit :



Ensuite, 30 FPS pour un FPS <img data-src=" /> -le 1er FPS= Frame Per Second, le second=First Person Shooter - c’est franchement pas assez, ça manque de fluidité, tu vois vraiment la différence par rapport à 60 FPS





Franchement pour avoir passer de nombreuse heures devant CS:GO, que je tourne a 30 FPS ou a 60 j’y voit aucun changement. J’ai aucun ressenti d’un manque de fluidité à 30 FPS.









John Shaft a écrit :



Mais non, vous comprenez ma bonne dame le jeu ne tourne pas en 108060, cela ne peut donc pas être un bon jeu…. Tant pis si c’est le jeux de l’année à côté, il n’as pas les standards inutiles exigé par une minorité de joueurs…







1440p stp <img data-src=" />







John Shaft a écrit :



Puis le 60 FPS me fait toujours rire quand on sais qu’une télé c’est en général 50 hz









  1. Le joueur PC joue sur Ecran PC donc 60 HZ (certains passent même à 120 Hz mais le peu que j’ai vu en écran 120 Hz, une TV pour le coup, ne me plait pas, je vois vraiment la différence, le film semble trop rapide mais je ne sais pas ce que ça rend pour un jeux vidéo).



  2. Le 60 fps c’est plus pour avoir un tampon en cas de perte de fps. Passer de 60 à 30 fps n’est pas génant, de 30 à 15 oui.









Kikilancelot a écrit :



Ouais enfin d’un côté à part les kikoolols qui ne cherche que les performance (90% des joueurs PC sont dans ce cas, suffit de voir les commentaires sur cette articles et tout les articles qui tourne sur les consoles/PC), qui ça intéresse de savoir qu’un jeu est en 1080p/60fps ? Non parce que tant que le jeux est bon, que les graphisme soit travailler (et pas besoin d’être en 1080p pour ça) et que c’est fluide ça devrait être suffisant pour les joueurs. Mais non, vous comprenez ma bonne dame le jeu ne tourne pas en 108060, cela ne peut donc pas être un bon jeu…. Tant pis si c’est le jeux de l’année à côté, il n’as pas les standards inutiles exigé par une minorité de joueurs… Puis le 60 FPS me fait toujours rire quand on sais qu’une télé c’est en général 50 hz donc 50 fps (sans comptez les yeux bioniques des types qui distingues la différence entre 30 et 60). <img data-src=" />







je distingue sans problème entre 60 et 120 donc tu doit avoir du caca dans les yeux









Pochi a écrit :



(…)







Eh, tu me quotes sur des propos qui ne sont pas les miens ! <img data-src=" />









Folgore a écrit :



si le jeu est bon, le 720p me gène pas <img data-src=" />



mais desfois faut avoir, que la finesse du 1080p fait plaisirs aux yeux…







Il ya quelques mois j’avais lu un article sur Polygon et le l’auteur de l’article testait CoD ghost sur xbox one (720p) et ps4 (1080p) et le résultat était sans appel on ne voit aucune différence entre les 2.

Comme quoi la définition ne fait pas tout



http://www.polygon.com/2013/11/5/5052646/call-of-duty-ghosts-review



The two versions look nearly identical. Viewing the Xbox One release next to the PS4 , I had difficulty telling them apart. It’s possible that the PS4 version looked somewhat sharper, but that may have just been my imagination after confirming the hard resolution difference. The next-gen releases of Call of Duty: Ghosts are so close together that gun to my head, I’d have no confidence in being able to discern which version was which — at least, while the two are standing still.



The Xbox One release’s framerate was far more noticeable. As mentioned in the initial review, Call of Duty: Ghosts suffers from consistent framerate drops on the PS4, especially during multiplayer when action got especially hectic. The Xbox One version suffered no such drops, maintaining a steady 60 frames per second throughout.






« le 1080p n’est pas une définition mythique ou parfaite »





Pourtant, les pixels sont bien carrés ? On m’aurais menti ? (déjà là, quand je vois comment on maltraite les vrais formats à la Télévision)<img data-src=" /> (une honte, pour un rapport NTSC et Pal)








FRANCKYIV a écrit :



Perso j’y connais rien en console.



Mais n’est-il pas possible d’avoir des jeux plus jolis plus détaillés avec la même résolution de 720p ?





Pour moi c’est indépendant du matos ça : c’est sûr que la direction artistique joue beaucoup. C’est vrai sur PC comme sur console.









2show7 a écrit :



Pourtant, les pixels sont bien carrés ? On m’aurais menti ?







On t’a menti. Un pixel parfait n’est pas carré, mais à un ratio H/L qui vaut le nombre d’or <img data-src=" />



<img data-src=" />









Kikilancelot a écrit :



Franchement pour avoir passer de nombreuse heures devant CS:GO, que je tourne a 30 FPS ou a 60 j’y voit aucun changement. J’ai aucun ressenti d’un manque de fluidité à 30 FPS.





Tout le monde n’est pas sensible de la même façon. Tant mieux pour toi si ça ne te gêne pas.









John Shaft a écrit :



On t’a menti. Un pixel parfait n’est pas carré, mais à un ratio H/L qui vaut le nombre d’or <img data-src=" />



<img data-src=" />







Ils n’ont qu’à le standardiser au carré :épicétou:



Il est vrai que c’est un peu dommage pour ceux disposant d’un écran qui gère cette résolution de ne pas pouvoir en profiter.



Âpres, je ne suis pas sur que les optimisation se rajoutant au fur et à mesure du temps (tel qu’on pouvaient le voir sur les anciennes consoles) sont toujours d’actualité, comme les architectures sont assez proches par rapport aux générations précédentes (chez m$ en tous cas).

Donc il faut s’attendre à ce que la situation n’évolue pas (ou potentiellement, en mieux)



En contrepartie, ça peut paraitre dommage, mais avec ma 360 je reste sur une connexion vga (fruit de mon ancien 21 cathodique, paie à son âme). Alors que je pourrais être en hdmi sur mon écran actuel.

Mais c’est plus pour limiter un peu l’usure de cette dernière ^^‘.

Idem sur mon deuxième pc, mais avec un écran 17”, la question ne se pose pas.



Bref, le 1080 /enfin, surtout le lcd et consorts, en dehors du fait que la plupart de mes séries sont maintenant dégueulasses, je ne cours pas après.



Bien que ce fut assez fun de voir une collegue faire la tronche a la vue du cathodique 21” de 98 alors que ce dernier crachait du 2 048 × 1 536 sans aucun défaut, la ou sa pauvre télé 1080p achetée bien cher il y à 4 ans souffrait déja d’un problème de traitement et affichait régulierement des beaux gros carrés à l’écran ^^








Kikilancelot a écrit :



C’est l’une des raisons qui ont fait que je ne lit absolument plus aucun test de jeux, ni sur les divers site ni en magazine (ça et le fait que pour la plupart sa tourne plus au biftons passé sous la table que sur la réelle qualité du jeu).



Canard PC FTW <img data-src=" /> <img data-src=" />



Quand je pense à la qualité qu’un C64 faisait à son époque. Ils bâclent toujours pour passer à la ‘next gen’ (qui à son tour en fait autant) lamentable <img data-src=" />


II se moque un peu de nous en sortant cette excuse mais sur le fond il n’a pas tout a fait tord…Et dire que certains trouve scandaleux de ne pas avoir cette définition sur un téléphone 4 pouces à 99 €. Cf : article wiko kite….








x689thanatos a écrit :



En contrepartie, ça peut paraitre dommage, mais avec ma 360 je reste sur une connexion vga (fruit de mon ancien 21 cathodique, paie à son âme). Alors que je pourrais être en hdmi sur mon écran actuel.

Mais c’est plus pour limiter un peu l’usure de cette dernière ^^‘.

Idem sur mon deuxième pc, mais avec un écran 17”, la question ne se pose pas.







Pour un nouvel écran ? <img data-src=" />









Kikilancelot a écrit :



(sans comptez les yeux bioniques des types qui distingues la différence entre 30 et 60). <img data-src=" />







Je m’inquiéterais pour tes yeux si tu n’y arrivais pas.http://30vs60.com/









NonMais a écrit :



Pour moi c’est indépendant du matos ça : c’est sûr que la direction artistique joue beaucoup. C’est vrai sur PC comme sur console.







En fait, je voulais parler d’avancées techniques sur les cartes graphiques.



Du genre :






Je comprend pas pourquoi les développeur sur console n’offre pas une possibilité de choisir en haute résolution/qualité graphique et basse résolution et fluidité.



Comme sur PC quoi.


Son discours n’est pas logique. Si le 1080p n’est pas la définition sacre sainte… Pourquoi appliquer au jeu qui ne sont pas en 1080p un upscale en 1080p.



Son exemple avec The Order n’est pas bon car justement c’est un effet bande noir qui est recherché. Pas un choix technique.



Bref ils arrivent pas à proposer du 1080p et c’est dommage <img data-src=" /> même si elle reste à mes yeux le meilleur choix pour moi.



Ces consoles n’ont rien apprit de la génération précédente !








dodo021 a écrit :



Je comprend pas pourquoi les développeur sur console n’offre pas une possibilité de choisir en haute résolution/qualité graphique et basse résolution et fluidité.



Comme sur PC quoi.







Sur console, c’est la même carte graphique et même(s) processeur(s) pour tout le monde, pas forcément sur PC









2show7 a écrit :



Sur console, c’est la même carte graphique pour tout le monde, pas forcément sur PC







Ca ne change rien à son commentaire.



Sur PC, avec la même carte graphique, tu peux choisir ta résolution ou tes effets pour les augmenter ou les diminuer.









zefling a écrit :



La définition mystique c’est 320×240. <img data-src=" />





320×200 (pour le CGA 4 couleurs), mystique et mythique à la fois ^^;

Mais le 256×192 du ZX81 me manque (il fallait bidouiller pour l’avoir ou utiliser le bon logiciel pour ça ^^;)









FRANCKYIV a écrit :



Ca ne change rien à son commentaire.



Sur PC, avec la même carte graphique, tu peux choisir ta résolution ou tes effets pour les augmenter ou les diminuer.







Sauf que le pb n’est pas là: Toutes les config étant différentes, on permets sur PC des réglages poussés afin que chacun puisse tirer le bon compromis de son matos.



Sur console, tout le monde pareil, l’éditeur du jeu peut proposer d’entrée le meilleur compromis pour les capacités du matos unique.



Je pense que le problème c’est que les gens n’ont pas compris que la meilleure qualité d’image s’obtient en RESOLUTION NATIVE de l’écran qu’on possède.



Du coup, si on a un (vieil?) ecran HD 720p (et non pas full HD), on aura toujours la meilleure image possible avec la Xone ou la PS4.



Maintenant les gens ne sont pas contents car beaucoup possèdent un TV fullHD. Du coup, avec la Xone c’est une peu moins bien en terme de netteté.



Comment les équipes en R&D de crosoft ont-ils pu imaginer une console qui supporte mal le standard de la 1080p alors que ce meme standard sera encore majoritaire dans les 10 prochaines années?…



Ca me fait penser à Nintendo avec la Wii qui avait raté le virage de la HD à l’époque…(sauf que le public visé était moins geek que celui de microsoft et c’est là le probleme)











yl a écrit :



Sauf que le pb n’est pas là: Toutes les config étant différentes, on permets sur PC des réglages poussés afin que chacun puisse tirer le bon compromis de son matos.



Sur console, tout le monde pareil, l’éditeur du jeu peut proposer d’entrée le meilleur compromis pour les capacités du matos unique.







ok ok









FRANCKYIV a écrit :



Ca ne change rien à son commentaire.



Sur PC, avec la même carte graphique, tu peux choisir ta résolution ou tes effets pour les augmenter ou les diminuer.







Bah il y a quelque jeu qui permettent ça. BF3 par exemple sur PS3 et Xbox peut être aussi. Mais bon c’est pas grand chose.



Mais avec la génération actuelle à part quelque jeux pour choix “artistique” tout les jeux tourne en 60fps au moins. Donc pour les dev, aucune raison de donner cette possibilité de choix.



Ce qui importe ce n’est pas la qualité graphique et encore moins le refresh rate mais bien l’univers narratif du jeu.



Conclusion : achetez des livres plutôt que des jeux sur console


Ah ces mythes qui nous abusent !

(contrepèterie)

<img data-src=" />








v1nce a écrit :



Ce qui importe ce n’est pas la qualité graphique et encore moins le refresh rate mais bien l’univers narratif du jeu.



Conclusion : achetez des livres plutôt que des jeux sur console







<img data-src=" />



Des livres dont vous êtes le héros, pour garder l’aspect ludique <img data-src=" />









FRANCKYIV a écrit :



Ca ne change rien à son commentaire.



Sur PC, avec la même carte graphique, tu peux choisir ta résolution ou tes effets pour les augmenter ou les diminuer.







Les consoles c’est toujours le même hardware, donc pas besoin de se fatiguer à pondre des options graphiques différentes. Options qui auront un coût de développement, de tuning, de testing, etc, et donc auront un impact sur le budget du jeu.







noahm92 a écrit :



Ca me fait penser à Nintendo avec la Wii qui avait raté le virage de la HD à l’époque…(sauf que le public visé était moins geek que celui de microsoft et c’est là le probleme)







Ils avaient argumenté à l’époque dans le sens où la HD n’était pas assez présente pour investir dans une console hors de prix et pas rentable (rappelons que la PS3 était vendue jusqu’à 600 boules à l’époque…).









v1nce a écrit :



Conclusion : achetez des livres plutôt que des jeux sur console





J’ai essayé l’autre jour, mais bonjour la galère…. impossible de trouver où se branche la manette….



Le monsieur enfonce des portes ouvertes mais c’est bien de le rappeler car tous les joueurs ne le savent pas forcément vu tous les concours de trolls à chaque jeu dont on annonce qu’il ne sera pas en 1920*1080.








FRANCKYIV a écrit :



Ca ne change rien à son commentaire.



Sur PC, avec la même carte graphique, tu peux choisir ta résolution ou tes effets pour les augmenter ou les diminuer.







Ça te donne le même effet qu’un zoom numérique, c’est ce que tu obtiens même à cette résolution



ou tu obtiendrais un rectangle plus petit (puisque le jeu est conçu pour du 1080p)



:grilled:









v1nce a écrit :



Conclusion : achetez des livres plutôt que des jeux sur console







+1000000000000000 ^^;

Mais bon pour certains, il faut lire plutôt que d’avoir des images interactives ^^; (ça ne m’empêche pas d’aimer aussi les jeux – MMORPG – ainsi que les manga).



on a tous des écrans full HD en 1080p, on veut donc jouer en full HD 1080p, ça me parait tout aussi logique.



Le 720p était acceptable en 2005, pas en 2014 ou les consoles sont sensées avoir énormément évolué, or c’est loin d’être si flagrant que ça.


Je dirais également que la Playstation 4 a des soucis de performance, par exemple, oddworld new n tasty c’est bien affiché 1080p/60fps, lors du 2éme écran je tombe dans le yoyo 60–&gt;40 voir 20fps lors des ‘explosions, soit les développeurs, on mal optimiser leur jeu, soit une HD7850 c’est pas suffisant, de plus la jouabilité est déconcertante ….








2show7 a écrit :



Sur console, c’est la même carte graphique et même(s) processeur(s) pour tout le monde, pas forcément sur PC





Ça n’empêche pas les dev de pouvoir mettre un bouton pour choisir.









Ideal a écrit :



C’est possible de jouer en 200 hz si tu veux … les vrais soldats ils jouent à la vraie guerre en je sais pu combien de milliards d’hz … <img data-src=" />



Bref blague à part tu confonds tout … le cinéma, la persistance rétienne, ce que l’oeil est réellement capable de voir puis la façon dont le cerveau décode le flux rétinien pour arriver à appréhender le monde en fonction de l’interactivité que notre corps offre…



&gt;&gt;&gt;&gt; Va lire ça avant de reparler sur le sujet







De plus, et corriges moi si je me trompe, que les 24 images par secondes pour le cinema , a été instauré de facons empiriques et/ou lié a la limitation technique.



mais moi perso, le taux de rafraichissement de ma tv, quand je le change, je le percois et d’ailleurs, en passant a 100 hz ou plus, il y a un petit effet camescope qui derange les gens (moi non, je trouve ca plus nette comme image)









Zergy a écrit :



« Dammage controle service bonjour… Ne quittez pas M Phil, un opérateur va prendre votre appel. »



Bon, après, il a pas totalement tard, si j’ai le choix entre un framerate stable en 720p et un framerate qui joue au yo-yo en 1080p, plutôt prendre la version 720p, plus agréable à jouer à la longue.





Et moi je préfère baisser les effets d’ombre, de lumière et de reflet qui eux détruise énormément le framerate sans apporté grand chose au gameplay (voir à l’ambiance). Mais je garde mon filtre anti-aliasing à au moins “x2”.

En effet, avec les écran LCD, être dans une autre résolution que la résolution native (ou un multiple) c’est horrible, c’est flou moche. Sur le HUD ça fait tache comme c’est pas permis. Or nos télé sont en 1080x1920. Donc à moins de descendre à 540*960 ou jouer en panoramique ou en 43, ça sera moche.









dodo021 a écrit :



Ça n’empêche pas les dev de pouvoir mettre un bouton pour choisir.







Tu peux tout aussi bien changer la résolution de ton écran, mais tu seras déçu <img data-src=" /> <img data-src=" /> (si celui le permet)






Je suis entièrement d’accord avec Phil Spencer et j’ajouterais boire ou conduire jouer ou mater un film, il faut choisir.


Comme si les graphismes se réduisaient à une réso et à un FPS. Franchement, tant de bétises dans les comz… Ok on est vendredi, mais réveillez-vous les gars quoi.



bon après c’est sur que les consoleux qui n’ont en générale aucun contrôle sur leur réglages graphique, les notions de FOV, AA et multisampling ça leur passe au dessus mais quand même.



Entre une 720p qui a un gros AA de porc et une 1080p sans AA (et donc plein d’escaliers hideux), je préfère nettement le 720p… Et c’est souvent ce qu’on voit dans les comparaisons Onevsps4.


Remettez la composite ça sera plus doux <img data-src=" />








2show7 a écrit :



Tu peux tout aussi bien changer la résolution de ton écran, mais tu seras déçu <img data-src=" /> <img data-src=" /> (si celui le permet)





Justement là le but serait de donner le choix au joueur souhaitant sacrifier les graphisme à la fluidité de pouvoir le faire.









2show7 a écrit :



Pour un nouvel écran ? <img data-src=" />







Erreur de typo (et non lapsus ^^‘).



Mais clair que mis à part l’encombrement (et son poids ^^) , j’ai passé du temps pour voir si je pouvais le réparer <img data-src=" />









Jean_Peuplus a écrit :



<img data-src=" />



Des livres dont vous êtes le héros, pour garder l’aspect ludique <img data-src=" />





Aller en 581

581 - Vous êtes mort.



Merde je retourne à 762 et je change de choix!









Zyami a écrit :



Purée, j’aimerais bien voire Dwarff Fortress sur une X1 ou PS4 car c’est le seul jeu qui fait réellement ramer mon ordi (et c’est pas à cause des shader) <img data-src=" />





Moi c’est openRA.

En 1080p ça doit donner. <img data-src=" />









x689thanatos a écrit :



Erreur de typo (et non lapsus ^^‘).



Mais clair que mis à part l’encombrement (et son poids ^^) , j’ai passé du temps pour voir si je pouvais le réparer <img data-src=" />







Et en trouver un d’occase pas cher ?









FunnyD a écrit :



D’ailleurs, j’aimerais remettre au goût du jour le mot hui, qui est plus agréable à l’oreille qu’aujourd’hui,





Déjà que certains prononcent 1 hein, d’autres font des choses du même genre, si on doit aussi différencier oui de hui on est pas sortis de l’auberge. <img data-src=" />









Winderly a écrit :



Déjà que certains prononcent 1 hein, d’autres font des choses du même genre, si on doit aussi différencier oui de hui on est pas sortis de l’auberge. <img data-src=" />





T’as dis quoi hui, oui ou huis? <img data-src=" />



Mais plus sérieusement, c’est plus agréable à l’oreille qu’aujourd’hui









mononokehime a écrit :



on a tous des écrans full HD en 1080p, on veut donc jouer en full HD 1080p, ça me parait tout aussi logique.





Non, tout le monde n’a pas des écrans full HD, même en 2014.

Mon bon vieux MX14 (Alienware) ne l’a pas (par contre, si je le connecte à un écran FHD, il le reconnaît, mais c’est la misère niveau FPS dans les MMORPG – trop vieux, carte graphique obsolète).

Même avec mon Vaio Duo (pourtant en full HD), je privilégie la fluidité au rendu (et pourtant, une simple HD4000, sur le Sony, permet déjà d’avoir un graphisme assez sympa – et d’ailleurs plus, ça ne sert à rien, vu qu’on bouge tout le temps, qu’on ne s’aperçoit pas des paysages proposés, etc.).

c’est un peu comme mon séjour au Japon actuellement, tu as beau me proposer les meilleures images qui soient, vu que je bouge beaucoup (entre 8 et 9 heures de marche par jour), ce ne sera jamais que ce que j’ai vu, pas autre chose ^^;

Tant que le rendu plaise, peu importe la définition, que ce soit en jeu ou IRL.









Zyami a écrit :



50hz en principe c’est suffisant pour la fluidité, l’oeil humain ne voyant que 24 image seconde (c’est ce que projette les films), c’est tout bon.

Les 50hz, il faut quand même les diviser par 2, il faut afficher une image pour l’effacer pour la suivante.





source ?









FunnyD a écrit :



Mais plus sérieusement, c’est plus agréable à l’oreille qu’aujourd’hui







Qu’en sera-t-il demain ? <img data-src=" />









tazvld a écrit :



Et moi je préfère baisser les effets d’ombre, de lumière et de reflet qui eux détruise énormément le framerate sans apporté grand chose au gameplay (voir à l’ambiance). Mais je garde mon filtre anti-aliasing à au moins “x2”.

En effet, avec les écran LCD, être dans une autre résolution que la résolution native (ou un multiple) c’est horrible, c’est flou moche. Sur le HUD ça fait tache comme c’est pas permis. Or nos télé sont en 1080x1920. Donc à moins de descendre à 540*960 ou jouer en panoramique ou en 43, ça sera moche.





Sur console, tu n’as pas trop le choix. <img data-src=" />

Mais c’est clair que certains effets graphiques sont dispensables (mais là encore, sur console…)









2show7 a écrit :



Qu’en sera-t-il demain ? <img data-src=" />





hui sera mieux que le hier de demain. <img data-src=" />



Comprenne qui boira









Zergy a écrit :



« Dammage controle service bonjour… Ne quittez pas M Phil, un opérateur va prendre votre appel. »





+1, si je ne me trompe pas les machines de Sony et MS ont un hardware relativement similaire niveau GPU/CPU donc logiquement des capacités techniques théoriques assez proches.



Du coup si Sony arrive à faire cracher du 108060 à sa console alors que MS n’y arrive pas c’est qu’il y a clairement un gros soucis d’optimisation, ou de conception, sur leur machine et c’est pas en faisant de la comm à 2 balles comme ça qu’ils arriveront à arranger ça.





M’enfin pour moi tout ça n’a que peu d’intérêt au final, ces 2 consoles n’auront pas la durée de vie de leurs devancières, des 2 cotés ça a été le rush pour arriver à sortir sa console avant le concurrent pour arriver à accaparer le plus de parts de marché possible et du coup ils ont bâclés vite fit mal fait des trucs forcément un peu boiteux.



Même avec toute l’immensité de la bêtise d’une équipe de marketeux au grand complet <img data-src=" /> Sony et MS ne peuvent pas sérieusement s’imaginer que ces 2 machines vont pouvoir faire illusion bien longtemps (comme disent certains des consoles pseudos nextgen incapables de supporter la résolution native des écrans d’aujourd’hui, et ne parlons même pas du 4k de peut être demain, c’est juste une mauvaise blague)



Perso je suis quasi certain qu’en arrière plan les “vraies nextgen” sont toujours en cours de préparation, les actuelles PS3.5 et X0.5 n’étant que des machines de transition pour faire patienter les joueurs et faire rentrer du cash.









Jiyuu_Hashi a écrit :



320×200 (pour le CGA 4 couleurs), mystique et mythique à la fois ^^;

Mais le 256×192 du ZX81 me manque (il fallait bidouiller pour l’avoir ou utiliser le bon logiciel pour ça ^^;)





C’est plus maléfique là.



J’ai déjà dû jouer dans une telle résolution, mais les jeux étaient du pur « kusoge » (jeu de merde), une difficulté adhérente. Genre, j’ai jamais réussi à passer le 3e écran d’un jeu de plate-forme. J’en ai pas trop un bon souvenir. <img data-src=" />









Yugo87 a écrit :



Perso je suis d’accord avec Toniob, Nintendo en fait pas des caisse, mais les jeux (en solo) tournent en 1080 / 60.





C’est faux. Seuls quelques uns parmi eux (et ce n’est pas la majorité, loin de là) tournent en 1080p.







Yugo87 a écrit :



Pi Mario Kart, quand ta TV est divisé en 4, 1080 / 60 ou pas, tu te marre bien quand même !!





Et justement Mario Kart n’est pas l’un d’entre eux. Il tourne à une résolution native de 720p, même en jouant seul.

http://www.eurogamer.net/articles/digitalfoundry-2014-vs-mario-kart-8







Pochi a écrit :



Le joueur PC joue sur Ecran PC donc 60 HZ (certains passent même à 120 Hz mais le peu que j’ai vu en écran 120 Hz, une TV pour le coup, ne me plait pas, je vois vraiment la différence, le film semble trop rapide mais je ne sais pas ce que ça rend pour un jeux vidéo).





Ce n’est pas du tout comparable. Les télés 120Hz sortent le signal en 120Hz mais en entrée c’est que du 60Hz. En d’autres termes tu as 60 images/seconde qui arrive à la télé puis la télé créée par algorithme d’interpolation une image supplémentaire entre chacune des images de départ.

L’écran PC 120Hz, lui, reçoit le signal directement en 120Hz (et donc potentiellement 120 images/seconde).







titi-henry a écrit :



Il ya quelques mois j’avais lu un article sur Polygon et le l’auteur de l’article testait CoD ghost sur xbox one (720p) et ps4 (1080p) et le résultat était sans appel on ne voit aucune différence entre les 2.

Comme quoi la définition ne fait pas tout



http://www.polygon.com/2013/11/5/5052646/call-of-duty-ghosts-review





Sauf que la comparaison ne vaut pas tripette pour une raison simple : la version PS4 n’était pas en 1080p au moment de cet article. L’auteur de l’article ne voyait donc aucune différence de résolution entre les deux parce qu’il n’y en avait aucune !

Le jeu devait sortir en 1080p mais il y a eu une erreur et le 1080p n’a été rajouté que dans un patch le jour du lancement (l’article de Polygon date de 10 jours plus tôt).

http://www.eurogamer.net/articles/digitalfoundry-whats-fixed-and-whats-not-in-th…









fraoch a écrit :



De plus, et corriges moi si je me trompe, que les 24 images par secondes pour le cinema , a été instauré de facons empiriques et/ou lié a la limitation technique.



mais moi perso, le taux de rafraichissement de ma tv, quand je le change, je le percois et d’ailleurs, en passant a 100 hz ou plus, il y a un petit effet camescope qui derange les gens (moi non, je trouve ca plus nette comme image)







Les 24 images secondes ça a, surement, été instauré pour faire le minimum de dépenses ( pellicules tout ça ) tout en ayant un film parfaitement fluide dans toutes les situations car la technique l’autorisait ( flou de mouvement ) rapport à ce que la biologie nous permet ( effet phi ).



Pour le 100 hz ou 50 hz je pense que l’habitude joue pour beaucoup … et surtout le composant dans ta télé enfin l’algo mis en oeuvre …



Moi perso j’ai pour habitude de désactiver tous les traitements internes de la télé quand je le peux …



En plus ça ajoute de l’input lag, les traitements de ce type enfin surtout pour cette raison j’enlève tout car même en comparant avec/sans une option je suis pas sûr de mon ressenti du genre “ là c’est indéniablement meilleur qu’avant ” ou l’inverse.









Guinnness a écrit :



+1, si je ne me trompe pas les machines de Sony et MS ont un hardware relativement similaire niveau GPU/CPU donc logiquement des capacités techniques théoriques assez proches.



Du coup si Sony arrive à faire cracher du 108060 à sa console alors que MS n’y arrive pas c’est qu’il y a clairement un gros soucis d’optimisation, ou de conception, sur leur machine et c’est pas en faisant de la comm à 2 balles comme ça qu’ils arriveront à arranger ça.





M’enfin pour moi tout ça n’a que peu d’intérêt au final, ces 2 consoles n’auront pas la durée de vie de leurs devancières, des 2 cotés ça a été le rush pour arriver à sortir sa console avant le concurrent pour arriver à accaparer le plus de parts de marché possible et du coup ils ont bâclés vite fit mal fait des trucs forcément un peu boiteux.



Même avec toute l’immensité de la bêtise d’une équipe de marketeux au grand complet <img data-src=" /> Sony et MS ne peuvent pas sérieusement s’imaginer que ces 2 machines vont pouvoir faire illusion bien longtemps (comme disent certains des consoles pseudos nextgen incapables de supporter la résolution native des écrans d’aujourd’hui, et ne parlons même pas du 4k de peut être demain, c’est juste une mauvaise blague)



Perso je suis quasi certain qu’en arrière plan les “vraies nextgen” sont toujours en cours de préparation, les actuelles PS3.5 et X0.5 n’étant que des machines de transition pour faire patienter les joueurs et faire rentrer du cash.







N’y aurait-il pas un brevet sous roche ? <img data-src=" />









Guinnness a écrit :



+1, si je ne me trompe pas les machines de Sony et MS ont un hardware relativement similaire niveau GPU/CPU donc logiquement des capacités techniques théoriques assez proches.







similaire mais pas identique… la mémoire n’est pas la même, le GPU non plus, l’OS on n’en parle pas (3 OS sur la Xbone)…









Ideal a écrit :



Les 24 images secondes ça a, surement, été instauré pour faire le minimum de dépenses ( pellicules tout ça ) tout en ayant un film parfaitement fluide dans toutes les situations car la technique l’autorisait ( flou de mouvement ) rapport à ce que la biologie nous permet ( effet phi ).



Pour le 100 hz ou 50 hz je pense que l’habitude joue pour beaucoup … et surtout le composant dans ta télé enfin l’algo mis en oeuvre …



Moi perso j’ai pour habitude de désactiver tous les traitements internes de la télé quand je le peux …



En plus ça ajoute de l’input lag, les traitements de ce type enfin surtout pour cette raison j’enlève tout car même en comparant avec/sans une option je suis pas sûr de mon ressenti du genre “ là c’est indéniablement meilleur qu’avant ” ou l’inverse.







sur ma TV, tu le vois le traitement c’est indéniable

mais dire que c’est mieux, oui effectivement ca depend des gens.

Ma femme n’aime pas, par exemple, et d’autres personnes non plus d’ailleurs… moi j’aime bien, mais je crois bien etre le seul lol



par contre, ton histoire de input lag m’interesse. Tu parles de l’input lag des controlleurs d’une console ? Au moment ou on appuis sur le bouton, la radio transmet a la console, qui transmet l’affichage a la TV ? et que du coup, l’algo, de fait de “rajouter” de la tram, entraine une augmentation de lag ?









FRANCKYIV a écrit :



En fait, je voulais parler d’avancées techniques sur les cartes graphiques.



Du genre :






Faudrait arrêter avec ce terme de “consoleux”….



J’ai deux PC, une 360 et une Wii U, je suis quoi ? PCiste ou consoleux ?








FunnyD a écrit :



Aller en 581

581 - Vous êtes mort.



Merde je retourne à 762 et je change de choix!







comme quoi la sauvegarde rapide existait déjà <img data-src=" />









fraoch a écrit :



sur ma TV, tu le vois le traitement c’est indéniable

mais dire que c’est mieux, oui effectivement ca depend des gens.

Ma femme n’aime pas, par exemple, et d’autres personnes non plus d’ailleurs… moi j’aime bien, mais je crois bien etre le seul lol



par contre, ton histoire de input lag m’interesse. Tu parles de l’input lag des controlleurs d’une console ? Au moment ou on appuis sur le bouton, la radio transmet a la console, qui transmet l’affichage a la TV ? et que du coup, l’algo, de fait de “rajouter” de la tram, entraine une augmentation de lag ?







l’input lag : c’est le retard entre ton action et son affichage à l’écran. Par ex, au début pour les écrans de PC on se basait que sur la réminiscence (plus elle est faible et moins tu as de traînée ou d’images fantômes) et on s’est aperçu par la suite qu’il fallait prendre en compte l’input lag : i.e. ton moniteur reçoit l’ordre d’afficher une image, combien de temps il met pour l’afficher : et là ça a été le drame (au départ, maintenant, les LCD sont ok) , en mettant un tube cathodique et un LCD l’un à côté de l’autre sur la même CG : sur un FPS par ex, tu avais un ennemi qui vient vers toi qui faisait genre 0,5cm sur le LCD (en gros, il est encore loin) et sur le cathodique 3cm (en fait, il est beaucoup plus proche de toi que tu ne le vois sur le LCD et en fait, tu es mort dans la milliseconde qui va suivre).



Ca c’est pour l’écran, mais comme tu le dis, y a aussi le lag de ta manette (souris) sans fil (avec fil c’est vraiment négligeable)









ActionFighter a écrit :



Faudrait arrêter avec ce terme de “consoleux”….



J’ai deux PC, une 360 et une Wii U, je suis quoi ? PCiste ou consoleux ?









T’es ….











































































… un gros bourg … <img data-src=" />



Tout le monde à cité le mec qui parle de 50 Hz pour les télés mais euh…



Déjà que sur les dernière cathodique ce n’était plus le cas (du moins, elles prenaient en charge le 60 Hz sur ma dreamcast)…



Alors avec les Tv HDready/FullHD <img data-src=" />



Ou alors il est resté bloqué dans les années 80… Ou il joue à une X1/PS4 sur une vieille tv cathodique 36 cm <img data-src=" />








doom_Oo7 a écrit :



Je m’inquiéterais pour tes yeux si tu n’y arrivais pas.http://30vs60.com/





J’ai pas clairement vu la différence (peut être un souci avec mon pc) mais le lien en bas de page m’a paru évident.









ActionFighter a écrit :



Faudrait arrêter avec ce terme de “consoleux”….



J’ai deux PC, une 360 et une Wii U, je suis quoi ? PCiste ou consoleux ?







T’es un hybride :) du coup tu es rejeté par la société, c’est triste <img data-src=" />









ActionFighter a écrit :



Faudrait arrêter avec ce terme de “consoleux”….



J’ai deux PC, une 360 et une Wii U, je suis quoi ? PCiste ou consoleux ?





Tu es un consoleux, car effectivement pour être un PCiste il te faut avoir qu’une seule console… hé ouais <img data-src=" />









ActionFighter a écrit :



Faudrait arrêter avec ce terme de “consoleux”….



J’ai deux PC, une 360 et une Wii U, je suis quoi ? PCiste ou consoleux ?





et accessoirement un gars qui dépense trop en jeux vidéo <img data-src=" />









mononokehime a écrit :



on a tous des écrans full HD en 1080p, on veut donc jouer en full HD 1080p, ça me parait tout aussi logique.



Le 720p était acceptable en 2005, pas en 2014 ou les consoles sont sensées avoir énormément évolué, or c’est loin d’être si flagrant que ça.





non <img data-src=" />

Mes écrans font du 1680*1050@60 Hz et ça suffit largement (je veux dire que mon appart’ est petit).









FRANCKYIV a écrit :



T’es ….



… un gros bourg … <img data-src=" />





Salaud de pauvre jaloux <img data-src=" />







NonMais a écrit :



T’es un hybride :) du coup tu es rejeté par la société, c’est triste <img data-src=" />





Les êtres supérieurs sont toujours rejetés <img data-src=" />







NonMais a écrit :



et accessoirement un gars qui dépense trop en jeux vidéo <img data-src=" />



Au vu du nombre de jeux commencés et jamais finis voir jamais lancés, c’est pas faux <img data-src=" />







Danytime a écrit :



Tu es un consoleux, car effectivement pour être un PCiste il te faut avoir qu’une seule console… hé ouais <img data-src=" />





Tu peux en avoir plusieurs sous le manchot <img data-src=" />



Mais là, t’es plus PCiste, mais juste un barbu…









ActionFighter a écrit :



Faudrait arrêter avec ce terme de “consoleux”….



J’ai deux PC, une 360 et une Wii U, je suis quoi ? PCiste ou consoleux ?





+1 (enfin sans 360 et sans wii U mais avec une PS3, et 4 PC)



bon bref, la question est pertinente…









ActionFighter a écrit :



Faudrait arrêter avec ce terme de “consoleux”….



J’ai deux PC, une 360 et une Wii U, je suis quoi ? PCiste ou consoleux ?





Riche. <img data-src=" />







Jean_Peuplus a écrit :



comme quoi la sauvegarde rapide existait déjà <img data-src=" />





Et je l’utilisais souvent <img data-src=" />









FRANCKYIV a écrit :



T’es ….











































































… un gros bourg … <img data-src=" />





<img data-src=" />









FunnyD a écrit :



Riche. <img data-src=" />





Ça me fait penser qu’en fait j’ai deux 360. Une flashée et une autre normale <img data-src=" />







FunnyD a écrit :



Et je l’utilisais souvent <img data-src=" />





Pareil



“Oh un combat… la flemme… c’était quoi la page avant ?” <img data-src=" />



C’est ridicule cette histoire de 1080 progressif et 60 i/s…



Et pis cette nouvelle lubie du 4k… <img data-src=" />








FunnyD a écrit :



T’as dis quoi hui, oui ou huis? <img data-src=" />



Mais plus sérieusement, c’est plus agréable à l’oreille qu’aujourd’hui





hein oui clos, c’est pourtant pas compliqué <img data-src=" />





FunnyD a écrit :



hui sera mieux que le hier de demain. <img data-src=" />



Comprenne qui boira





J’ai mal à la tête…





zefling a écrit :



J’ai déjà dû jouer dans une telle résolution, mais les jeux étaient du pur « kusoge » (jeu de merde), une difficulté adhérente. Genre, j’ai jamais réussi à passer le 3e écran d’un jeu de plate-forme. J’en ai pas trop un bon souvenir. <img data-src=" />







  • 1

    Les difficultés collantes, c’est merdique.









fraoch a écrit :



+1 (enfin sans 360 et sans wii U mais avec une PS3, et 4 PC)



bon bref, la question est pertinente…





Si t’as une ps3, alors là, c’est consoleux par contre <img data-src=" />



<img data-src=" />



Puis même à l’époque des consoles 8bits/16bits la différence 50/60Hz faisait du mal à certains jeux…



https://www.youtube.com/watch?v=nSSYo0npMhA








ActionFighter a écrit :



Si t’as une ps3, alors là, c’est consoleux par contre <img data-src=" />



<img data-src=" />





<img data-src=" />









ActionFighter a écrit :



Ça me fait penser qu’en fait j’ai deux 360. Une flashée et une autre normale <img data-src=" />







A 360, normal de se faire flasher. <img data-src=" />



Pareil



“Oh un combat… la flemme… c’était quoi la page avant ?” <img data-src=" />



Technique secréte, je laissais mes doigts sur les deux derners numéros utilisés. <img data-src=" />





Winderly a écrit :



hein oui clos, c’est pourtant pas compliqué <img data-src=" />









J’ai mal à la tête…

J’avais prévenu, faut pas être Agen <img data-src=" />







  • 1

    Les difficultés collantes, c’est merdique.



    <img data-src=" /> Depuis quand difficultés est synonymes de selles?









XaMou a écrit :



Puis même à l’époque des consoles 8bits/16bits la différence 50/60Hz faisait du mal à certains jeux…



https://www.youtube.com/watch?v=nSSYo0npMhA







Faut aussi dire que les systèmes de conversion à l’époque, était particulièrement destructeurs.



L’Europe n’avait pas la même importance qu’aujourd’hui…









ActionFighter a écrit :



Faudrait arrêter avec ce terme de “consoleux”….



J’ai deux PC, une 360 et une Wii U, je suis quoi ? PCiste ou consoleux ?







Inconsolable <img data-src=" />



Tant qu’un écran sera long de 1920 pixels et haut de 1080 pixels, le 1080p sera LA bonne résolution.








FunnyD a écrit :



Technique secréte, je laissais mes doigts sur les deux derners numéros utilisés. <img data-src=" />





La même avec des marques-pages <img data-src=" />







2show7 a écrit :



Inconsolable <img data-src=" />





pas mal <img data-src=" />









ActionFighter a écrit :



Faudrait arrêter avec ce terme de “consoleux”….



J’ai deux PC, une 360 et une Wii U, je suis quoi ? PCiste ou consoleux ?







T’es un mec qui est 2 fois nolife, une fois un vendu à M$ et l’ultralibéralisme et en prime un adulte qui vit encore dans un monde d’enfant !!!



Alors heureux? <img data-src=" /> <img data-src=" /> je suis sûr que 2 fois par an t’es un intello-bourg qui sort son trivial pursuit pour se la péter.









ActionFighter a écrit :



pas mal <img data-src=" />







j’ai loupé celui-ci INconsolable <img data-src=" />









XaMou a écrit :



Puis même à l’époque des consoles 8bits/16bits la différence 50/60Hz faisait du mal à certains jeux…



https://www.youtube.com/watch?v=nSSYo0npMhA





Essayer de montre ce genre de différence sur youtube et son framerate de merde, je suis pas vraiment convaincu.





FunnyD a écrit :



A 360, normal de se faire flasher. <img data-src=" />



Technique secréte, je laissais mes doigts sur les deux derners numéros utilisés. <img data-src=" />





J’avais prévenu, faut pas être Agen <img data-src=" />





<img data-src=" /> Depuis quand difficultés est synonymes de selles?





<img data-src=" />

J’arrête là je suis à court d’idées et j’ai des courses à faire.



Pour le coup, ses propos sont justes. Il faudrait peut être arrêter de faire un cas dès qu’un responsable de chez MS dit quelque chose.



De toutes façon, c’est histoire de chiffre vont disparaître dès que les licences auront repris le dessus sur ces inquiétudes à la noix.








Glasofruix a écrit :



Tant qu’un écran sera long de 1920 pixels et haut de 1080 pixels, le 1080p sera LA bonne résolution.





Le pixel est une unité de longeur?<img data-src=" />



ActionFighter a écrit :



La même avec des marques-pages <img data-src=" />





Trop cher pour moi <img data-src=" />





FunnyD



Depuis quand difficultés est synonymes de selles?





Selles à ouate <img data-src=" />




tout ne doit pas se jouer que sur les chiffres, parce que le 1080p n’est pas une définition mythique ou parfaite. La fluidité est pour moi significativement plus importante dans l’expérience de jeu que la définition





Non mais c’est savoureux ce retournement de veste bien grossier. Depuis la 1ère XBox Microsoft tente de jouer à qui à la plus grosse et là ils se font prendre la main dans le sac et change leur discours… bravo c’est très heu… respectueux comme façon de faire…








after_burner a écrit :



Pour le coup, ses propos sont justes. Il faudrait peut être arrêter de faire un cas dès qu’un responsable de chez MS dit quelque chose.



De toutes façon, c’est histoire de chiffre vont disparaître dès que les licences auront repris le dessus sur ces inquiétudes à la noix.





c’est pas tant qu’il ait tort, mais ca serait l’inverse ils seraient les premiers a le crier sur tous les toits qu’ils font le full hd a 60fps tout le temps

la on a l’impression qu’il cherche juste a minimiser









Glasofruix a écrit :



Tant qu’un écran sera long de 1920 pixels et haut de 1080 pixels, le 1080p sera LA bonne résolution.







1080 pixels et 1080p c’est la même chose, non ? Ou alors je ne comprends pas. Je pense que tu voulais parler de ratio plutôt que de parler en pixel ?









Ideal a écrit :



T’es un mec qui est 2 fois nolife, une fois un vendu à M$ et l’ultralibéralisme et en prime un adulte qui vit encore dans un monde d’enfant !!!



T’aurais juste dit “un con,” tu gagnais pas mal de caractères <img data-src=" />







Ideal a écrit :



Alors heureux? <img data-src=" /> <img data-src=" /> je suis sûr que 2 fois par an t’es un intello-bourg qui sort son trivial pursuit pour se la péter.





Non, je joue plus au trivial poursuit, c’est fatiguant de toujours gagner <img data-src=" />



c’est à peu près aussi con que de dire que les fichiers audio lossless et/ou en 2496 ne servent à rien et le mp3 128k suffit à tout le monde. Alors oui, certains vont pas faire la différence, et vaut mieux mettre de grosses basses pour les satisfaire, et “fous ta cagoule” en 2496 ça n’a pas trop d’intérêt. Mais si le produit est ciblé pour un public exigeant, il doit répondre à ces exigences.



c’est un retour de flammes, le jeu sur consoles c’est fait complètement bouffer par le FPS. Les FPS c’est gourmand en ressources… et si on met pas le paquet comment vendre une nouvelle console? ça risque de se voir si c’est pour remettre le prix de tous les jeux à 69,90€…








2show7 a écrit :



Selles à ouate <img data-src=" />





Si c’est ce que tu préfère libre à toi de t’essuyedr le séant avec de la ouate YOLO









FunnyD a écrit :



Trop cher pour moi <img data-src=" />





Je peux te faire un tuto pour faire un marque-page avec juste une feuille de papier si ça t’intéresses <img data-src=" />









FunnyD a écrit :



Si c’est ce que tu préfère libre à toi de t’essuyedr le séant avec de la ouate YOLO







Je me focalisé plus sur celle du cheval (à cause des hémorroïdes)<img data-src=" />









ActionFighter a écrit :



Non, je joue plus au trivial poursuit, c’est fatiguant de toujours gagner <img data-src=" />





sans tricher ?<img data-src=" />









fraoch a écrit :



sans tricher ?<img data-src=" />







Tricher au trivial… Tu sais ou tu sais pas… ^^”









Malesendou a écrit :



Tricher au trivial… Tu sais ou tu sais pas… ^^”







si si , je te dis qu’on peut ^^









fraoch a écrit :



sans tricher ?<img data-src=" />





J’ai dis ça pour le lulz <img data-src=" />



En vrai, j’ai du y jouer 3 fois dans ma vie <img data-src=" />









metaphore54 a écrit :



1080 pixels et 1080p c’est la même chose, non ? Ou alors je ne comprends pas. Je pense que tu voulais parler de ratio plutôt que de parler en pixel ?







Y a un truc qu’on appelle la résolution native de l’écran, sur les écrans non cathodiques c’est comme qui dirait important pour pas se retrouver avec une image floue.









ActionFighter a écrit :



Je peux te faire un tuto pour faire un marque-page avec juste une feuille de papier si ça t’intéresses <img data-src=" />





jve bi1, mé fé s1ple stp







2show7 a écrit :



Je me focalisé plus sur celle du cheval (à cause des hémorroïdes)<img data-src=" />





Pour les hémorroïdes, j’ai un remède Miracle, le remède miracle du Docteur D, à seulement 99€ le flacon, c’est une affaire j’vous dit!







Malesendou a écrit :



Tricher au trivial… Tu sais ou tu sais pas… ^^”





Moi je sais.<img data-src=" />





Sauf pour les questions people.<img data-src=" />









XalG a écrit :



PC master race <img data-src=" />







Praise GabeN, may our framerate be high, and our temperatures low <img data-src=" />





Comme dit plusieurs pages avant, inquiétez-vous pour vos yeux si vous ne voyez pas de différences entre 30 et 60 fps hein!



<img data-src=" /> Tout ce qui sauve les consoles c’est une fanbase de gamins et des exclus arrachées à coup de chéquier (oui Square Enix c’est toi que je regarde à propos de Tomb Raider)









Winderly a écrit :





  • 1

    Les difficultés collantes, c’est merdique.







    *aberrante (erreur de correction) <img data-src=" />









GutsCrush3R a écrit :



Ce n’est pas du tout comparable. Les télés 120Hz sortent le signal en 120Hz mais en entrée c’est que du 60Hz. En d’autres termes tu as 60 images/seconde qui arrive à la télé puis la télé créée par algorithme d’interpolation une image supplémentaire entre chacune des images de départ.

L’écran PC 120Hz, lui, reçoit le signal directement en 120Hz (et donc potentiellement 120 images/seconde).







Ah tiens, ceci explique peut-être que je trouve les images des TV 120 Hz dégeux.









Jiyuu_Hashi a écrit :



Non, tout le monde n’a pas des écrans full HD, même en 2014.

Mon bon vieux MX14 (Alienware) ne l’a pas (par contre, si je le connecte à un écran FHD, il le reconnaît, mais c’est la misère niveau FPS dans les MMORPG – trop vieux, carte graphique obsolète).

Même avec mon Vaio Duo (pourtant en full HD), je privilégie la fluidité au rendu (et pourtant, une simple HD4000, sur le Sony, permet déjà d’avoir un graphisme assez sympa – et d’ailleurs plus, ça ne sert à rien, vu qu’on bouge tout le temps, qu’on ne s’aperçoit pas des paysages proposés, etc.).

c’est un peu comme mon séjour au Japon actuellement, tu as beau me proposer les meilleures images qui soient, vu que je bouge beaucoup (entre 8 et 9 heures de marche par jour), ce ne sera jamais que ce que j’ai vu, pas autre chose ^^;

Tant que le rendu plaise, peu importe la définition, que ce soit en jeu ou IRL.







J’aurais du préciser, écran de télévision, meme si je suis sur certain sont encore en HD ready, puisqu’on parle de console de jeu ça me paraissait évident de ne pas le préciser.









ActionFighter a écrit :



Faudrait arrêter avec ce terme de “consoleux”….



J’ai deux PC, une 360 et une Wii U, je suis quoi ? PCiste ou consoleux ?







Pour être certifié “PC MASTER RACE” tu dois abandonner tes possessions impures, je peux t’aider à reprendre le droit chemin.







Espèce de consoleux.

<img data-src=" />









ActionFighter a écrit :



J’ai dis ça pour le lulz <img data-src=" />



En vrai, j’ai du y jouer 3 fois dans ma vie <img data-src=" />







Pourtant une bonne partie de trivial pourcuite c’est toujours un plaisir



(édition enfant)









XalG a écrit :



Pour être certifié “PC MASTER RACE” tu dois abandonner tes possessions impures, je peux t’aider à reprendre le droit chemin.



Espèce de consoleux.

<img data-src=" />





Jamais sans ma Wii U <img data-src=" />







XalG a écrit :



Pourtant une bonne partie de trivial pourcuite c’est toujours un plaisir



(édition enfant)





Je préfère les échecs <img data-src=" />



Que 60 fps étaient mieux que 30 pour les jeux, c’était déjà connu depuis au moins 15 ans (me souvient plus si c’était avec John C l’article, ah la guerre entre quake 3 et UT). Mais naturellement faut un gros pingouin PR de chez Gro$oft qui n’a jamais touché aux jeux vidéos de sa vie pour pondre des conneries pareilles.



Go PC <img data-src=" />


Xbox One



Cpu 8 coeurs, 8Go de Ram, GPU proche d’une 7790 AMD et incapable de faire tourner du 1080p?????



<img data-src=" /> <img data-src=" /> <img data-src=" />








mononokehime a écrit :



J’aurais du préciser, écran de télévision, meme si je suis sur certain sont encore en HD ready, puisqu’on parle de console de jeu ça me paraissait évident de ne pas le préciser.





Rhoo, parler d’écran de télévision (soumis à la redevance), alors que tous les NXInpactiens jurent ne pas en avoir, c’est risqué ^^;

Bon, je taquine ^^;









Glasofruix a écrit :



Y a un truc qu’on appelle la résolution native de l’écran, sur les écrans non cathodiques c’est comme qui dirait important pour pas se retrouver avec une image floue.







A l’époque ou j’avais ma 360, j’avais aussi un écran HD ready, de plus la console était en YUV, elle me sortait une résolution de 1080i, vers mon écran qui faisait donc la conversion dans un simili 720p (1368x je sais plus quoi), la majorité des jeux était en 720p, convertie en 1080p en sortie par la console pour ensuite passer en 1080i. De plus ma télé faisait une conversion en HD ready pour correspondre a sa résolution native.



La console faisait suffisamment bien son travail pour que les jeux ne paraissent pas flou. Et je rappelle que ça se comprenait a l’époque, car le 1080p n’était pas la norme et les consoles n’avait pas non plus la meme puissance. Maintenant qu’on est en 2014, Microsoft ou Sony ne peuvent pas nous faire croire qu’il est bien pour le joueur que le jeu ne soit pas en 1080p/60fps mais la plupart du temps en 720p/30fps pour rajouter 3 effets de lumière.



d’un autre coté, les consoles sortie en 2014 on été vraisemblablement conçu en 2010 avec du hardware de 2010, surtout pour le GPU, et comme il fallait vendre une console complète moins de 500€/\(, des choix ont été fait pour offrir de bonne performance sans que ça ne coute trop cher en fabrication, car une console a 500\) en prix de vente, c’est environ 100$ en cout de fabrication.



Sans compter que l’on a absolument aucune rétro-compatibilité avec les anciennes consoles pour les jeux du fait des changements hardware.



Pourtant, ils aurait peut être été plus facile pour les 2 constructeurs, de sortir une console amélioré du point de vue GPU et CPU en gardant la meme structure (peut être impossible pour la PS3 a cause du Cell) mais en l’améliorant en tout point pour correspondre aux critères graphique actuelle.





Bref quand les loi du marketing défient les lois de la logique, on voit ce que ça donne…









Jiyuu_Hashi a écrit :



Rhoo, parler d’écran de télévision (soumis à la redevance), alors que tous les NXInpactiens jurent ne pas en avoir, c’est risqué ^^;

Bon, je taquine ^^;







il est vrai que l’écran de télé actuelle n’est pas vraiment fait pour jouer, surtout quand l’inputlag monte en flèche.









zefling a écrit :



C’est plus maléfique là.



J’ai déjà dû jouer dans une telle résolution, mais les jeux étaient du pur « kusoge » (jeu de merde), une difficulté adhérente. Genre, j’ai jamais réussi à passer le 3e écran d’un jeu de plate-forme. J’en ai pas trop un bon souvenir. <img data-src=" />





C’est pourtant toute ma jeunesse en jeu vidéo ^^;

Un simulateur de vol avec un ZX81, tout un bonheur pour moi (j’ai gagné du fric contre mon oncle, qui pariait sur le décollage et l’atterrissage ^^;)

J’avais fait décollage, vol et atterrissage, alors que je n’avais jamais touché à un ordinateur ^^;

Par contre, il fallait être patient dans le jeu, et surtout, bien lire toutes les indications du tableau de bord (seule chose, dans mes souvenirs, qui était affichée).

Et pour la difficulté, c’est le genre de truc que je regrette actuellement.

On avait au moins des jeux qui permettaient, sans cheat code, de passer des heures à essayer de trouver le meilleur chemin pour passer les niveaux, pas comme maintenant ^^;









Jiyuu_Hashi a écrit :



Rhoo, parler d’écran de télévision (soumis à la redevance), alors que tous les NXInpactiens jurent ne pas en avoir, c’est risqué ^^;

Bon, je taquine ^^;







des TV sans tuner monsieur !<img data-src=" />









mononokehime a écrit :



A l’époque ou j’avais ma 360, j’avais aussi un écran HD ready, de plus la console était en YUV, elle me sortait une résolution de 1080i, vers mon écran qui faisait donc la conversion dans un simili 720p (1368x je sais plus quoi), la majorité des jeux était en 720p, convertie en 1080p en sortie par la console pour ensuite passer en 1080i. De plus ma télé faisait une conversion en HD ready pour correspondre a sa résolution native.



La console faisait suffisamment bien son travail pour que les jeux ne paraissent pas flou. Et je rappelle que ça se comprenait a l’époque, car le 1080p n’était pas la norme et les consoles n’avait pas non plus la meme puissance. Maintenant qu’on est en 2014, Microsoft ou Sony ne peuvent pas nous faire croire qu’il est bien pour le joueur que le jeu ne soit pas en 1080p/60fps mais la plupart du temps en 720p/30fps pour rajouter 3 effets de lumière.



d’un autre coté, les consoles sortie en 2014 on été vraisemblablement conçu en 2010 avec du hardware de 2010, surtout pour le GPU, et comme il fallait vendre une console complète moins de 500€/\(, des choix ont été fait pour offrir de bonne performance sans que ça ne coute trop cher en fabrication, car une console a 500\) en prix de vente, c’est environ 100$ en cout de fabrication.



Sans compter que l’on a absolument aucune rétro-compatibilité avec les anciennes consoles pour les jeux du fait des changements hardware.



Pourtant, ils aurait peut être été plus facile pour les 2 constructeurs, de sortir une console amélioré du point de vue GPU et CPU en gardant la meme structure (peut être impossible pour la PS3 a cause du Cell) mais en l’améliorant en tout point pour correspondre aux critères graphique actuelle.





Bref quand les loi du marketing défient les lois de la logique, on voit ce que ça donne…







ou bien attendre 1 an de plus, prendre un matos un poil plus évoluer pour garantir le 1080p 60fps….



bref… je me demande combien de temps va durer cette generation…

edit: c’est pas Sony qui avait dit que la PS3 devait durer 10 ans ? …..









fraoch a écrit :



edit: c’est pas Sony qui avait dit que la PS3 devait durer 10 ans ? …..







Oui et ils n’avaient pas tout à fait tort. Elle est sortie fin 2006 et encore pas mal de jeux sont prévus pour 2015, et probablement quelques uns pour 2016.



Pour la PS4 ça va déjà être très difficile de tenir jusqu’en 2020.



Pas une définition mythique, mais la définition de la quasi-totalité des téléviseurs, et on sait les problèmes que rencontrent les dalles LCD pour afficher autre chose que de la résolution native, même avec upscaling. S’il y a quelque chose à regretter des tubes cathodiques, c’est bien cette capacité formidable.



Il est là le problème coco.



Vos machines sont sorties trop tôt pour voir une vraie évolution par rapport à la génération précédente, voilà tout.








fraoch a écrit :



edit: c’est pas Sony qui avait dit que la PS3 devait durer 10 ans ? …..





Si, et ils sont dans les clous. Elle aura 8 ans au mois de novembre, et elle sera bien présente sur le marché pendant encore deux ans, le temps que la base de PS4 s’installe.



Le fait qu’une nouvelle console sorte n’eclipse pas tout de suite la précédente. La PS2 s’est vendue pendant 13 ans.



[Je suis HS et c’est mon petit avis qui ne vaut rien et je m’en tape]



Effectivement le 1080p c’est pas ça.

Où sont donc passés les écrans qui servent à bosser (16/10è) au milieu de tous ces écrans format loisir (16/9è)?



[/HS]








Ellierys a écrit :



Si, et ils sont dans les clous. Elle aura 8 ans au mois de novembre, et elle sera bien présente sur le marché pendant encore deux ans, le temps que la base de PS4 s’installe.



Le fait qu’une nouvelle console sorte n’eclipse pas tout de suite la précédente. La PS2 s’est vendue pendant 13 ans.









Demyos a écrit :



Oui et ils n’avaient pas tout à fait tort. Elle est sortie fin 2006 et encore pas mal de jeux sont prévus pour 2015, et probablement quelques uns pour 2016.



Pour la PS4 ça va déjà être très difficile de tenir jusqu’en 2020.







c’est vrai, mais je me suis surement fait avoir par le discours idyllique

pour moi, ca devait durer 10 ans en restant au top …. je l ‘avais compris comme cela…



Oui du 780p en 60fps ils devraient ce cantonner a ça !



Et attention aux abus de langage 60Hz c’est le taux de rafraichissement !



Tu peux être synchronisé en 400Hz et avec 30fps ça va quand même te donné la gerbe <img data-src=" />








fraoch a écrit :



Pour moi, ça devait durer 10 ans en restant au top …. je l’avais compris comme cela…







C’est virtuellement impossible de rester au top de la technologie pendant 10 ans sans rien changer, surtout dans le domaine de l’electronique/informatique. Si on revient 10 ans en arrière, les disques durs faisaient 80 Go, côté CPU on se trainait des Pentium 4 (qui accélèrent internet) et avec un ADSL 512k t’étais le roi du pétrole <img data-src=" />









Ellierys a écrit :



C’est virtuellement impossible de rester au top de la technologie pendant 10 ans sans rien changer, surtout dans le domaine de l’electronique/informatique. Si on revient 10 ans en arrière, les disques durs faisaient 80 Go, côté CPU on se trainait des Pentium 4 (qui accélèrent internet) et avec un ADSL 512k t’étais le roi du pétrole <img data-src=" />







bah oui, c’est pour ca que j’en faisais allusion…. je trouvais ca gonflé a l’époque de dire ca. ou bien c’était parcequ’ils avaient incroyablement confiance dans le CELL qui se devait etre une révolution technologique…. mais pas









Ellierys a écrit :



des Pentium 4 (qui accélèrent internet)







Athlon s’il vous plait, ca c’etait un vrai proc capable de rechauffer une piece a lui tout seul !



déja dit et désolé phil… mais la résolution native d’un écran donne la certitude que le rendu est le meilleur possible.








lateo a écrit :



[Je suis HS et c’est mon petit avis qui ne vaut rien et je m’en tape]



Effectivement le 1080p c’est pas ça.

Où sont donc passés les écrans qui servent à bosser (16/10è) au milieu de tous ces écrans format loisir (16/9è)?



[/HS]





Le 169 fonctionne très bien si l’écran et la résolution sont assez grand, genre 27” 2560x1440. <img data-src=" />









ActionFighter a écrit :



Je préfère les échecs <img data-src=" />







Cette version est amusante, car quand tu n’as plus que la moitié de pièce, paf ! elles se dédoublent.



Bouarf, ils n’ont qu’à faire du 1080/2p et faire une petite interpolation des pixels ni vu ni connu. Ils diront que le léger effet de flou est un filtre d’ambiance, ou une immersion supplémentaire étant donné que le personnage principal est myope.








fraoch a écrit :



c’est pas tant qu’il ait tort, mais ca serait l’inverse ils seraient les premiers a le crier sur tous les toits qu’ils font le full hd a 60fps tout le temps

la on a l’impression qu’il cherche juste a minimiser







Je sais bien, ça n’empêche que sur ce qu’il dit c’est le bon sens.



Pour une fois qu’ils ne peuvent pas jouer à qui qu’à la plus grosse dans leur discours marketing, on ne va pas non plus s’en plaindre… <img data-src=" />



Et pendant ce temps la Wii U, avec son matériel antédiluvien, parvient malgré tout à afficher du 1080p avec 60fps. Bien sûr la “claque graphique” n’y est pas, mais au niveau purement technique ça tient la route. C’est bien la preuve que la PS4/XO sont des consoles de kikoolol et la Wii U une console de vrai gamers <img data-src=" />


bel aveu d’impuissance…


Ça montre surtout que pour avoir la puissance que beaucoup demande aurait été hors de prix pour beaucoup de joueurs et qu’ils ont essayé de trouver un compromis.


Si on ne l’a pas fait, c’est que vous n’en avez pas besoin.

Si on l’a fait, c’est parce que vous en aviez besoin.



Microsoft.



Nous, on sait ce qu’il vous faut.



<img data-src=" />








127.0.0.1 a écrit :



Si on ne l’a pas fait, c’est que vous n’en avez pas besoin.

Si on l’a fait, c’est parce que vous en aviez besoin.







Microsoft. Apple repris par microsoft



Nous, on sait ce qu’il vous faut.



<img data-src=" />





<img data-src=" />









fraoch a écrit :



bah oui, c’est pour ca que j’en faisais allusion…. je trouvais ca gonflé a l’époque de dire ca. ou bien c’était parcequ’ils avaient incroyablement confiance dans le CELL qui se devait etre une révolution technologique…. mais pas





C’est plus que t’es sûr d’avoir du suivi pendant 10 ans. Ce qui n’est pas un mal.









SuperBaobab a écrit :



La Playstation 2, sortie il y a plus de 14 ans, était capable de faire du 1080i sur certain jeux.







C’était tout sauf du vrai 1080i. Si je me souviens bien du fonctionnement du bousin : le jeu est rendu en interne en 480p (ce qu’on sait faire depuis 1998 et les débuts de la Dreamcast), puis upscalé en 540p, puis l’image est coupée en deux demi-images pour donner du 1080i (60 demi-images à 540 pixels de haut, soit 30 images à 1080 pixels de haut).









Pochi a écrit :



Ah tiens, ceci explique peut-être que je trouve les images des TV 120 Hz dégeux.







Je me fais la même réflexion, à chaque fois que je branche mon PC sur une télé LCD ou Plasma, je trouve que la qualité est mauvaise, comme si le signal manquait de puissance, ce qui fait que les contrastes sont mauvais, et que l’image est pas du tout fine <img data-src=" />

Alors qu’avec un écran de pc, jamais eu de soucis de ce type …









127.0.0.1 a écrit :



Si on ne l’a pas fait, c’est que vous n’en avez pas besoin.

Si on l’a fait, c’est parce que vous en aviez besoin.



Microsoft.



Nous, on sait ce qu’il vous faut.



<img data-src=" />







Ce n’est pas ça non plus qui a fait exploser la vente de lecteur BlueRay, surtout avec des BR digne d’un DVD <img data-src=" />









Jiyuu_Hashi a écrit :



320×200 (pour le CGA 4 couleurs), mystique et mythique à la fois ^^;

Mais le 256×192 du ZX81 me manque (il fallait bidouiller pour l’avoir ou utiliser le bon logiciel pour ça ^^;)









Jiyuu_Hashi a écrit :



320×200 (pour le CGA 4 couleurs), mystique et mythique à la fois ^^;

Mais le 256×192 du ZX81 me manque (il fallait bidouiller pour l’avoir ou utiliser le bon logiciel pour ça ^^;)







Mon premier ordinateur, un Tandy trs80, avait un mode semigraphique en 128x48 monochrome. Sur son moniteur vert dédié.

On pouvait faire des choses sympa. <img data-src=" />









2show7 a écrit :



Et en trouver un d’occase pas cher ?







J’en avais trouvé :(

Mais l’image était juste immonde (impossible d’avoir quelque chose de parfaitement net). Pourtant ils étaient bien plus récents, mais je suppose que c’était l’opposé en terme de gamme.



Du coup après deux déplacements et faire perdre du temps aux gens pour rien j’ai lâché l’affaire.



Allez, on va foutre un peu sa merde:

Il y a une course depuis disons 15 ans à l’augmentation de la def des images de synthèse. Pourtant ces images, à mon regard de photographe, sont toujours à chier: Vous aurez beau passer en 4000 x 8000 en 500 images par seconde, on aura toujours l’impression d’un machin pourri, irregardable. Je dirai comme Jiyuu_Hashi que ce n’est pas la fidelité de la ressemblance qui fait la qualité de l’image, sauf dans les 30 premières secondes. Au delà, vous êtes dans un autre monde, un monde de conventions, de symboles, vous êtes dans le rêve. Et le rêve, on lui a jamais demandé d’être réaliste. La course à la def, la course au fps, c’est du pipeau, c’est juste un virus que vous inculque les fabricants pour que vous achetiez plus, encore, pour que vous fassiez avancer le bouzin.

je suis persuadé que si vous prenez un film d’action en blu ray, et que vous faites passer progressivement en 15 mn la def à du 720x576 25i personne n’y verra que du feu , car ce que vous regardez, c’est pas du 108060, c’est une histoire. Ne vous trompez pas de combat, on est dans le gag de la lune et du doigt.


Mouais, ça va, il n’a pas non plus tort, la fluidité devrait primer sur le touchage de nouille du 1080p <img data-src=" />









fraoch a écrit :



c’est vrai, mais je me suis surement fait avoir par le discours idyllique

pour moi, ca devait durer 10 ans en restant au top …. je l ‘avais compris comme cela…







C’est ce qui était sous-entendu et c’était évidemment du gros bullshit.







barben360 a écrit :



Bouarf, ils n’ont qu’à faire du 1080/2p et faire une petite interpolation des pixels ni vu ni connu. Ils diront que le léger effet de flou est un filtre d’ambiance, ou une immersion supplémentaire étant donné que le personnage principal est myope.







Sony a tenté le coup sur le multi de Killzone mais à force de marteler “le 1080p, c’est trop kikoo”, des gens ont remarqué le flou et paf, class action pour pub mensongère aux USA <img data-src=" />







Kevin Hottot



Journaliste, fan des Sims 4, grand adepte de My Little Poney, Kévin oublie tout le temps d’aller chez le photographe. Du coup, il est puni.





Priceless











ActionFighter a écrit :



Faudrait arrêter avec ce terme de “consoleux”….



J’ai deux PC, une 360 et une Wii U, je suis quoi ? PCiste ou consoleux ?







Tu remarqueras que personne ne t’as pour l’instant traité de gamer ! Ouf !

De nos jours être un joueur c’est sale !!

On est soit consoleux (ie gamin, pauvre, noob, etc…), soit pc master race (ie mature, riche, roxxor, etc…). Comme si l’on avait pas suffisamment de fascismes comme ça…!!



Et dire qu’à une certaine époque j’avais, une gameboy, une game gear, une lynx, une megadrive et que mon graal c’était d’avoir une 32X…



Aujourd’hui comme toi, j’ai une 360, une wii, un PC portable et… Une Nexus 7 maintenant…!!! Wii mise à part (car prêtée), je joue sur chacun de ces supports quasi quotidiennement… En d’autre temps je me serais appelé gamer, mais là je sais plus !



Sony et Microsoft ont été cons de s’acharner sur leurs 1080p @60fps. Maintenant ça se retournent contre eux.








Cara62 a écrit :



Sony et Microsoft ont été cons de s’acharner sur leurs 1080p @60fps. Maintenant ça se retournent contre eux.





Je pense surtout c’est que leur avait promis amd, et une fois en test il était trop tard pour reculer.









metaphore54 a écrit :



Je pense surtout c’est que leur avait promis amd, et une fois en test il était trop tard pour reculer.







Oui, mais ils en ont fait des tests (les kits de devs étaient dispo bien en avance quand même), et pourtant on a bouffé du NEXT GEN 1080P 60FPS à toutes les sauces avant la sortie de ces dites consoles.



Ils ont quand même fail leurs marketing. <img data-src=" />









metaphore54 a écrit :



Ça montre surtout que pour avoir la puissance que beaucoup demande aurait été hors de prix pour beaucoup de joueurs et qu’ils ont essayé de trouver un compromis.







Pas nécessairement hors de prix pour les consommateur… Mais très certainement beaucoup moins rentable pour les constructeurs..

Il suffisait pour Microsoft & Sony de faire comme dans les précédentes générations et de “vendre fortement à perte” (j’aime pas trop ce terme) XO et PS4. A 600$/€ comme on pouvait le lire ici et là avant leurs sorties, ces consoles auraient de toute façon massivement bidé quelque soient leurs specs, (bref même si elles avaient intégré des Geforce 780 Ti à l’intérieure c’eut été trop cher pour beaucoup trop de foyers).



Mais bon, même sans taper dans des cartes très haut de gamme, le choix d’un GPU dédié (genre au pif 760 ou équivalent radeon) en lieu et place d’un APU n’était peut-être pas non plus très à propos en terme d’ équipement TV et consommation d’énergie…



Chez mes parents par exemple (en matière de technologie on ne fait pas plus lambda qu’eux) on a toujours un LCD Toshiba de 32 pouces en 768p qui a 6 ans et tant qu’il fonctionne ils ne voient pas vraiment l’intérêt d’en changer… Même si aujourd’hui s’ils devaient en changer, ils auraient l’embarras du choix en 1080p 100 Hz à moins de 500€, mais je pense que comme eux, beaucoup de foyers qui ne mettent pas la TV au centre de leur divertissement doivent encore être équipés de dalles 1024/1366x768 datant de 5 ans ou plus…



Sans compter le fait qu’une PS4 consomme déjà 130W… De plus en plus de foyers responsables font attention à la consommation d’énergie de leurs équipement (c’est l’une des raisons du remplacement des unités centrales par des PC portable). A 300W c’était déjà peut-être s’aliéner inutilement une part non négligeable de leur clientèle…



Du coup le choix du 720p/60 Hz n’est pas “forcément” idiot, voir en fait tout à fait compréhensible ! Encore aurait-il fallu pour Microsoft & Sony (surtout Sony) d’avoir pas communiqué comme des porcs sur le 1080p, et d’avoir privilégié le jeu vidéo et communiqué de préférence, massivement, sur la sortie de nouvelles licences (Et là Microsoft est certainement plus à blâmer)…









metaphore54 a écrit :



Je pense surtout c’est que leur avait promis amd, et une fois en test il était trop tard pour reculer.







N’importe quoi…



Sérieusement les ingénieurs de Microsoft et Sony d’après toi, en mettant un APU @ 1,4 GHz de moins de 100W au cœur de leurs consoles s’imaginaient vraiment pouvoir faire jeu égal avec des couples quadcores @ 3 GHz + GPU dédiés de 200W et au delà qu’on trouve dans les PC cores gamers qui font du 1080p/60 Hz ?



Ce que font les APU des XO et PS4 c’est déjà une pu <img data-src=" /> de performance !!!









Tirr Mohma a écrit :



Et une horreur pour les oreilles



http://parler-francais.eklablog.com/au-jour-d-aujourd-hui-a5227461







Excellent, on n’en apprends tous les jours ! <img data-src=" />



Pour revenir à l’actualité, je dirais tout simplement <img data-src=" /> de <img data-src=" /> !



Si MS embauche des comiques, autant prendre des professionnels et le rire serait moins jaune. <img data-src=" />



s’te blague <img data-src=" />



Quand ton hardware fait pas faut bien trouver quelque chose <img data-src=" />


A part avec la Wii-U, je joue en 1920x1200 (minimum !!!). <img data-src=" />



Ce que je trouve dégueulasse, c’est de nous imposer des écrans 1920x1080 à tout va et nous faire payer à prix fort des 1920x1200 ! <img data-src=" />


Moué… ils peuvent dire ce qu’ils veulent : on est en 2014, il y a un standard reconnu depuis déjà quelques années dans le monde du jeu vidéo : 1080p à 60 ips. Ils peuvent tortiller tous les arguments du monde dans tous les sens : ils ont raté le virage technologique de cette génération.



Point barre.


à tout ceux qui disent qu’il bullshit : je vous conseil de regarder la vidéo d’un drop dans la mare, sur les choix esthétiques fait sur console …



https://www.youtube.com/watch?v=NHM-UG7V23Y








kamuisuki a écrit :



Enfin même en 720p ils font pas non plus du 60fps donc bon..





Effectivement, et faut aussi ajouter qu’une machine correcte de 3 ans d’age arrive à être aussi performante …





Pour les deux consoles (oui, la PS4 aussi), il faut admettre qu’elles n’ont que le nom de “nextgen” car en pratique … Vu la taille très réduite des boitiers des consoles et la chauffe réelle des composants à l’intérieur, ils sont obligés (tant Sony que Microsoft) de brider leur matériel pour éviter des pannes …









Lyzz a écrit :



Canard PC FTW <img data-src=" /> <img data-src=" />





HFR et TheTartuffeBay FTW <img data-src=" />.









Zerfougnou a écrit :



à tout ceux qui disent qu’il bullshit : je vous conseil de regarder la vidéo d’un drop dans la mare, sur les choix esthétiques fait sur console …



https://www.youtube.com/watch?v=NHM-UG7V23Y





Déjà vu et je l’ai trouvé assez réaliste, équilibré et bien argumenté.









Gilbert_Gosseyn a écrit :



HFR et TheTartuffeBay FTW <img data-src=" />.









<img data-src=" /> pas Achat PC M. Prieur fait toujours autant de fautes dans son rédactionnel <img data-src=" />



[quote name=“”]le 1080p n’est pas une définition mythique ou parfaite[/quote]



Effectivement, c’est juste la résolution native de l’écrasante majorité des écrans actuels.

Une fois qu’on sait ça, en tant que constructeur on fait l’effort de tailler du hardware capable de fournir des performances suffisantes pour avoir un rendu optimal dans cette résolution.

La plupart des joueurs sur consoles de la génération précédente (360, PS3) ont déjà bouffé du downscale en 1024x576 à tout va, ce n’est pas pour avoir le même désagrément sur la génération suivante.