La définition d'Assassin's Creed Unity sur PS4 et Xbox One fait débat

La définition d’Assassin’s Creed Unity sur PS4 et Xbox One fait débat

Same player shoot again

Avatar de l'auteur
Kevin Hottot

Publié dans

Société numérique

07/10/2014 5 minutes
166

La définition d'Assassin's Creed Unity sur PS4 et Xbox One fait débat

Depuis le lancement des consoles de nouvelle génération le débat fait rage au sujet de leurs capacités techniques, que certains ne résument qu'à la définition native et au taux de rafraichissement qui sont utilisés pour tel ou tel jeu. De son côté, Ubisoft a voulu mettre la PS4 et la Xbox One sur un pied d'égalité avec Assassin's Creed Unity, mais tout ne s'est pas passé comme prévu.

Dans une entrevue avec nos confrères de Videogamer, Vincent Pontbriand, producteur senior chez Ubisoft, a fait une déclaration étonnante : Assassin's Creed Unity fonctionnera avec une définition native de 1600 x 900 pixels et un taux de rafraichissement de 30 images par seconde sur PlayStation 4 et Xbox One, alors que l'opus précédent avait droit à du 1080p, mais seulement sur PS4. Plus surprenant encore, le motif invoqué pour justifier ce choix : « Nous avons décidé de les verrouiller avec les mêmes caractéristiques techniques afin d'éviter tous les débats et ce genre de trucs ».

La partie CPU des consoles serait déjà à la limite

Avant de rentrer dans les détails, il est important de rappeler quel matériel on retrouve dans les PS4 et Xbox One (voir notre dossier). Toutes deux disposent en effet d'un SoC concu par AMD qui exploite une même base, mais n'est pas identique. Toutes deux disposent ainsi de huit cœurs basés sur l'architecture Jaguar, dont seule la fréquence varie entre les deux modèles : 1,6 GHz sur la PS4, et 1,75 GHz sur la Xbox One. Côté GPU, les deux puces partagent la même architecture (GCN) mais ne disposent pas du même nombre d'unités de traitement : 1152 à 800 MHz dans un cas, 768 à 853 MHz dans l'autre.

 

Si instinctivement on peut penser que c'est la partie chargée des calculs graphiques qui limite le plus souvent le niveau de détail affiché à l'écran, d'après Ubisoft c'est plutôt côté CPU que se trouve le problème. « Techniquement, nous sommes limités par le processeur. Les puces graphiques sont vraiment puissantes, et évidemment les graphismes sont plutôt réussis, mais c'est au CPU de gérer l'intelligence artificielle, le nombre de personnages que l'on voit à l'écran, et tout ça fonctionne en parallèle », explique le responsable.

 

« Nous avons été rapidement limités par ça et c'est un peu frustrant » poursuit-il. « Nous pensions que l'on pourrait décupler les possibilités de l'intelligence artificielle, avant de réaliser que cela allait être plutôt compliqué. Ce n'est pas le nombre de polygones qui influe sur la fluidité. On pourrait faire fonctionner le jeu à 100 images par seconde s'il n'était question que de graphismes, mais à cause de l'IA, nous sommes limités à 30 ». C'est donc surtout pour cela que les deux consoles auraient droit au même traitement, l'éditeur n'ayant pas non plus cherché plus loin pour éviter les guerres de fans.

 

Au vu des réactions des joueurs suite à cette entrevue, Ubisoft a d'abord précisé qu'aucune limitation n'a été instaurée dans le but de mettre les deux consoles sur un pied d'égalité. L'éditeur a ensuite précisé à nos confrères d'Eurogamer que « les caractéristiques finales d'Assassin's Creed Unity ne sont pas encore gravées dans le marbre ». Il n'est donc pas à exclure que l'une ou l'autre version du jeu pourra sauter le pas vers le 1080p si cela s'avère finalement possible. On se souviendra d'ailleurs qu'Assassin's Creed IV : Black Flag était passé à cette définition via un patch sur PS4.

Le sacro-saint 1080p est-il vraiment l'élément important ?

Mais est-ce vraiment si important que cela qu’un jeu fonctionne en 1080p à tout prix ? Microsoft a de son côté déjà pris position à ce sujet en expliquant que « le 1080p n’est pas une définition mythique ou parfaite » et que « La fluidité est significativement plus importante dans l'expérience de jeu que la définition ». Une déclaration qui est apparue comme étant plus que controversée dans la mesure où quelques jours plus tard on apprendra que le constructeur a fait le forcing auprès de Blizzard pour que Diablo III ne se contente pas d'une définition de type 900p sur sa console.

 

Les joueurs, eux, ne l’entendent pas de cette oreille. Pendant plusieurs mois, on leur a expliqué à grand renfort de conférences lors des différents salons que les nouvelles consoles seront capables de rivaliser avec les PC, et de proposer des jeux en Full HD avec une qualité d'image époustouflante. Près d'un an après leur lancement, force est de constater que c’est encore loin d’être le cas, alors que côté PC, on parle de 4K sur un, deux voire trois écrans. On peut donc comprendre leur déception, les constructeurs ayant martelé cet argument marketing pendant de longs mois pour au final ne pas tenir cette promesse, devant composer avec un SoC aux capacités limitées. D'autant plus que le 1080p est désormais la définition native d'une majorité de TV et de moniteurs.

 

Graphiquement parlant, une telle définition n'est pour autant pas un gage de qualité suffisant. On peut très bien faire fonctionner Pac Man en 1080p, cela ne le rendra pas aussi beau qu'un Crysis 3 en 900p avec les détails au maximum. Pourtant, c'est ce que les constructeurs ont vendu aux joueurs et c'est ce qu'ils attendent d'une console de nouvelle génération. Aux studios donc de s'adapter à cette situation, et faire en sorte de limiter la définition d'un jeu à du 900p ne permettra jamais « d'éviter tous les débats et ce genre de trucs ».

Écrit par Kevin Hottot

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

La partie CPU des consoles serait déjà à la limite

Le sacro-saint 1080p est-il vraiment l'élément important ?

Fermer

Commentaires (166)


Je relance parfois Soul Reaver 1 sur Phone branche au LCD. Je le fais pas pour me bousiller la vue, mais par le plaisir que j’ai à y jouer.


C’est une honte ! Moi qui joue à 10cm de mon écran 50 pouces, je verrais que c’est du 900p tout cracra <img data-src=" />


“que les nouvelles consoles seront capables de rivaliser avec les PC” Ah ah sérieusement ? Les joueurs sur console sont aussi naïfs ?


ha ouais elle sont bien ces consoles nextgen qui ne font pas mieux que les anciennes








DEATH a écrit :



“que les nouvelles consoles seront capables de rivaliser avec les PC” Ah ah sérieusement ? Les joueurs sur console sont aussi naïfs ?






On leur a pas précisé le prix du PC ...&nbsp; à 400€ ça rivalise surement non ?&nbsp; ...&nbsp;     











darkbeast a écrit :



ha ouais elle sont bien ces consoles nextgen qui ne font pas mieux que les anciennes






Elles font mieux ... C'est juste que la résolution n'ait pas fondamentale ...








arno53 a écrit :



On leur a pas préciser le prix du PC …&nbsp; à 400€ ça rivalise surement non ?&nbsp; …&nbsp;





ça dépend, la vente à perte de la machine se rattrape sur les jeux et les accessoires ? <img data-src=" />&nbsp;



Comment ne pas troller sérieux.

Les consoles et tout l’écosystème autour me donne la gastro.


D’après ce que je lis, la Ps4 serait moins rapide que la XOne mais cette première serait plus apte à faire du 1080p !

Bon sans rire, vous y aviez cru à ce que raconte les constructeurs ??

C’est une simple évolution de la génération précédente, rien de plus…



Alors oui c’est un peu plus jolis, il n’y a presque plus d’aliasing mais ce n’est pas ça qui va faire que demain, les consoles nous feront du 4K 60ips…








David_L a écrit :



ça dépend, la vente à perte de la machine se rattrape sur les jeux et les accessoires ? <img data-src=" />&nbsp;





Et un multi à abonnement pour les jeux. <img data-src=" />



Si je comprends bien les deux consoles sont pareilles et ne sont pas assez puissantes?

&nbsp;


“La partie CPU des consoles serait déjà&nbsp;à la limite”

&nbsp;

Elle est loin quand meme l’époque où&nbsp;Jason Rubin annonçait que la PS2 etait “tellement puissante” qui savaient pas comment ils allaient pouvoir l’exploiter… :p




Pendant plusieurs mois, on leur a expliqué à grand renfort de

conférences lors des différents salons que les nouvelles consoles seront

capables de rivaliser avec les PC, et de proposer des jeux en Full HD

avec une qualité d’image époustouflante. Près d’un an après leur

lancement, force est de constater que c’est encore loin d’être le cas,

alors que côté PC, on parle de 4K sur un, deux voire trois écrans. On

peut donc comprendre leur déception, les constructeurs ayant martelé cet

argument marketing pendant de longs mois pour au finalement ne pas

tenir cette promesse



&nbsp;Un Peu gonfle la je trouve … faut etre un peu con quand meme pour y croire a ce genre de discour … mais le plus con restant de comparer des configs a 400€ d’un cote pour les consoles et des configs 4k triplay de l’autre a quoi ? 2500€ ???



Je sais pas si c’est l’ateur de l’article ou si ce sont des propos cites mais ca me parait tres intelligent comme comparaison








shadowfox a écrit :



Et un multi à abonnement pour les jeux. <img data-src=" />





Faut pas l’dire, y parait que c’est normal. <img data-src=" />



franchement le gap visuel entre une pS3 et une ps4 ( ou xbox 360 vs one) n’est pas aussi grand que le passage de la PS2 vers la PS3 ( ou xbox vs 360)








Aces a écrit :



D’après ce que je lis, la Ps4 serait moins rapide que la XOne mais cette première serait plus apte à faire du 1080p !

Bon sans rire, vous y aviez cru à ce que raconte les constructeurs ??

C’est une simple évolution de la génération précédente, rien de plus…



Alors oui c’est un peu plus jolis, il n’y a presque plus d’aliasing mais ce n’est pas ça qui va faire que demain, les consoles nous feront du 4K 60ips…





Au contraire, le CPU (et GPU aussi) de la PS4 est légèrement plus rapide et voit sa fréquence augmentée par rapport à celui de la XOne. De plus le GPU de la PS4 a plus d’unités de traitement que celui de la XOne.



(bon, perso je joue sur un PC mieux doté)



“Graphiquement parlant, une telle définition n’est pour autant pas un

gage de qualité suffisant. On peut très bien faire fonctionner Pac Man en 1080p, cela ne le rendra pas aussi beau qu’un Crysis 3 en 900p&nbsp;avec les détails au maximum.”



Par contre, entre un crysis en 1080p et le même en 900p, sur une tv full hd, on la sent bien la différence, et c’est de celle la dont il est question.




Pourtant, c’est ce que les constructeurs ont vendu aux joueurs(…)



Bien aidés par la presse ( je ne parle pas de vous)…


Citation de l’article : “Au vu des réactions des joueurs suite à cette entrevue, Ubisoft a d’abord précisé qu’aucune limitation n’a été instaurée dans le but de mettre les deux consoles sur un pied d’égalité. “&nbsp;&nbsp;Totalement pipo, ils passent les deux consoles en version 900p grâce à l’opération marketing de microsoft tout simplement. Tout comme il y avait la bouteille de parfum Destiny Xbox. Ubisoft est un éditeur multiplateforme, un peu d’argent pour “tout mettre à niveau”.








Lafisk a écrit :



&nbsp;Un Peu gonfle la je trouve … faut etre un peu con quand meme pour y croire a ce genre de discour … mais le plus con restant de comparer des configs a 400€ d’un cote pour les consoles et des configs 4k triplay de l’autre a quoi ? 2500€ ???



Je sais pas si c’est l’ateur de l’article ou si ce sont des propos cites mais ca me parait tres intelligent comme comparaison





Ce sont les constructeurs qui ont dit ça, Kevin ne fait que redire ce qui a été dit.

Après, il évident que je ne vais pas comparé une Ps4 et mon futur MSI à 2500€.



pour l’instant je me contente de ma 360<img data-src=" />



le temps qu’ils maitrisent la next gen.

et puis si ca se trouve il y aura direct x12 sur ces consoles et avec un peu de chance ils sauront faire des jeux en 1920x1080 à 60fps constants.








Aces a écrit :



Ce sont les constructeurs qui ont dit ça, Kevin ne fait que redire ce qui a été dit.

Après, il évident que je ne vais pas comparé une Ps4 et mon futur MSI à 2500€.





Cela me parait une evidence meme c’est pour cela que le discours me parait ahurrissant ici meme et je n’etais pas sur de qui faisait la comparaison. car de ce que je lis les constructeurs parle de Pc en general, cela ne veut rien dire en soit. Au final les xbox one est ps4 sont aussi bonne qu’un PC, sauf que c’est un pc a 400€ allez 500€ max … le triplay et 4K me semble ajoute par kevin, mais je peux me tromper&nbsp;<img data-src=" />



Tant que le marketeux ne precise pas la config de reference, il ne ment pas vraiment en fait … mais suggérer qu’ils parlent d’equivalence a de la 4k tripla … c’est limite comme procede journalistique









djshotam a écrit :



pour l’instant je me contente de ma 360<img data-src=" />



le temps qu’ils maitrisent la next gen.

et puis si ca se trouve il y aura direct x12 sur ces consoles et avec un peu de chance ils sauront faire des jeux en 1920x1080 à 60fps constants.





DirectX sur PS4 ?



Aller ce qu’on leur avait déjà promis pour la PS3/X360 on leur donnera à la PS5/X?, le temps que sur PC ils soient bien tous en 4K <img data-src=" />








Gilbert_Gosseyn a écrit :



Au contraire, le CPU (et GPU aussi) de la PS4 est légèrement plus rapide et voit sa fréquence augmentée par rapport à celui de la XOne. De plus le GPU de la PS4 a plus d’unités de traitement que celui de la XOne.



(bon, perso je joue sur un PC mieux doté)









La rédaction a écrit :



&nbsp;Toutes deux&nbsp;disposent ainsi de huit cœurs basés sur l’architecture Jaguar, dont seule la fréquence varie entre les deux modèles : 1,6 GHz sur la PS4, et 1,75 GHz sur la Xbox One.

Côté GPU, les deux puces partagent la même architecture (GCN) mais ne

disposent pas du même nombre d’unités de traitement : 1152 à 800 MHz

dans un cas, 768 à 853 MHz dans l’autre.





Si on lit ça, on comprends l’inverse.



Eh oui c’est ca de concevoir des consoles avec une archi PC pas du tout adaptée à ce mode jeu. Une console c’est un système proprio c’est la base du concept de la console de jeu. C’est pas un système basé sur un standard c’est l’éxact oposé du standard… mais bon quand les dev prennent le pouvoir ca donne ce que l’on a aujourd’hui. (bon je troll mais à peine…)



&nbsp;le 1080p n’est pas une définition mythique ou parfaite&nbsp;» et que « La fluidité est significativement plus importante dans l’expérience de jeu que la définition ».



C’est marant Nintendo tebnanit les mêmes propos… il y a 10 ans de cela… pendant que MS je la jouait à qui a la plus grosse avec la 1ère XBox… le monde du JV j’vous jure….








Lafisk a écrit :



Tant que le marketeux ne precise pas la config de reference, il ne ment pas vraiment en fait … mais suggérer qu’ils parlent d’equivalence a de la 4k tripla … c’est limite comme procede journalistique





Procédé journalistique qu’on a pas employé hein ? Je ne fais que citer ce qui a été rabâché pendant toutes les confs en 2013 pour montrer que c’est du pipeau <img data-src=" />&nbsp;









Soltek a écrit :



Aller ce qu’on leur avait déjà promis pour la PS3/X360 on leur donnera à la PS5/X?, le temps que sur PC ils soient bien tous en 4K <img data-src=" />





+1 <img data-src=" />









Lafisk a écrit :



Cela me parait une evidence meme c’est pour cela que le discours me parait ahurrissant ici meme et je n’etais pas sur de qui faisait la comparaison. car de ce que je lis les constructeurs parle de Pc en general, cela ne veut rien dire en soit. Au final les xbox one est ps4 sont aussi bonne qu’un PC, sauf que c’est un pc a 400€ allez 500€ max … le triplay et 4K me semble ajoute par kevin, mais je peux me tromper&nbsp;<img data-src=" />



Tant que le marketeux ne precise pas la config de reference, il ne ment pas vraiment en fait … mais suggérer qu’ils parlent d’equivalence a de la 4k tripla … c’est limite comme procede journalistique





On est d’accord ! <img data-src=" />



On peut très bien faire fonctionner Pac Man en 1080p

et c’est jouable pour un Tetris ou un Lotus Esprit Challenge <img data-src=" />


Le 1080p c’est pas mythique ni parfait mais ça remplit comme qui dirait tous les pixels de la grande majorité d’écrans et évité l’immonde flou du à l’upscaling.








killer63 a écrit :



franchement le gap visuel entre une pS3 et une ps4 ( ou xbox 360 vs one) n’est pas aussi grand que le passage de la PS2 vers la PS3 ( ou xbox vs 360)





C’est liée à des phénomènes comme celui ci … La puissance va de plus en plus dans des détails qu’on ne remarque pas forcement.



On oublie totalement le gain de confort et de qualité d’image apporté par le fait d’utiliser la résolution native de l’écran. Si ils veulent faire des jeux en&nbsp;1600 x 900, qu’ils vendent des télés 1600 x 900




&nbsp;C'est vrai que cette génération de console a une puissance totalement ridicule. &nbsp;Non seulement elle dispose de beaucoup moins de puissance que les PC, mais en plus elle sont&nbsp;obligées&nbsp;d'utiliser une partie de&nbsp;leur ressource pour les replay ...&nbsp;       






 &nbsp;Faire un jeux qui ne tourne pas en 1920*1080 n'est pas la fin du monde, que c'est pas le seul critère de qualité.&nbsp;Mais vendre une console qui ne soit pas capable de faire fonctionner les jeux en 1920*1080 en 2013, c'est totalement débile et risible.

Cela ressemble plus à un jeu mal optimisé qu’à des consoles “pas au niveau techniquement” … Je sais que les consoles auront toujours un temps de retard face au PC mais on ne va pas me faire croire qu’elles sont déjà exploitées à fond .








trash54 a écrit :



On peut très bien faire fonctionner Pac Man en 1080p

et c’est jouable pour un Tetris ou un Lotus Esprit Challenge <img data-src=" />





Mais non ! PONG en 4K ! Ça ! Ça doit claquer sa maman !!!









Tkop a écrit :



&nbsp;C’est vrai que faire un jeux qui ne tourne pas en 19201080 n’est pas la fin du monde, que c’est pas le seul critère de qualité.&nbsp;Mais vendre une console qui ne soit pas capable de faire fonctionner les jeux en 19201080 en 2013, c’est totalement débile et risible.



En fait c’est développer un jeu en 900p pour mettre à niveau d’une autre console qui est débile et risible. C’est encore un nivellement vers le bas dans l’industrie du jeu vidéo.

&nbsp;

Après les exclusivité temporaire à coup de dollars, voici les bad-version pour tous à coup de dollars. Et il ne faudra rien attendre de plus de la version PC, Ubisoft oblige.









Ellierys a écrit :



Procédé journalistique qu’on a pas employé hein ? Je ne fais que citer ce qui a été rabâché pendant toutes les confs en 2013 pour montrer que c’est du pipeau <img data-src=" />&nbsp;





Je n’ai pas lu d’article de jeu video depuis un bail mais je doute qu’ils aient dit qu’ils allaient offrir la meme experience sur console a 400€ que sur un pc triplay 4K a 2500€. Si oui, excuses moi et je pense qu’un marketeux devrait ce faire virer avec des coup de pied au fesse, sinon, peux etre as tu exagerer quelque peu.



Apres, je veux bien croire qu’un marketeux ait pondu une connerie du genre “on va vous offrir la meme experience que sur pc” ce qui est ne pas ce mouille tant que tu ne precise pas la config exact du pc.



Je peux t’en faire plein comme ca:

“la xbox one est plus puissante qu’un&nbsp; PC” … de 1995

“Faite mordre la poussiere a une lamborghini avec votre clio”&nbsp; Lamborghini C 603

etc…









Danytime a écrit :



En fait c’est développer un jeu en 900p pour mettre à niveau d’une autre console qui est débile et risible. C’est encore un nivellement vers le bas dans l’industrie du jeu vidéo.

&nbsp;

Après les exclusivité temporaire à coup de dollars, voici les bad-version pour tous à coup de dollars. Et il ne faudra rien attendre de plus de la version PC, Ubisoft oblige.







Aussi, mais je trouve que c’est de loin beaucoup ridicule de sortir une console “”““next gen”“”” avec une carte graphique qui n’est pas plus puissante que le milieux de gamme PC vieux de deux ans (je pense à la HD7870 1280 coeurs 1Ghz)

L’optimisation c’est bien, mais ça fait pas non plus des miracles sur une architecture utilisée depuis plusieurs années&nbsp;









feuille_de_lune a écrit :



Mais non ! PONG en 4K ! Ça ! Ça doit claquer sa maman !!!





De la petite bière à côté de pacMan en 4K ! <img data-src=" />



Ah ouais keu même, dans le genre foutage de gueule ils font fort, ils devraient faire de la politique chez ubisoft&nbsp;<img data-src=" />








Tkop a écrit :



Aussi, mais je trouve que c’est de loin beaucoup ridicule de sortir une console “”““next gen”“”” avec une carte graphique qui n’est pas plus puissante que le milieux de gamme PC vieux de deux ans (je pense à la HD7870 1280 coeurs 1Ghz)

L’optimisation c’est bien, mais ça fait pas non plus des miracles sur une architecture utilisée depuis plusieurs années&nbsp;





c’est à la ramasse à ce point?



Tout d’abord, la résolution, sur un LCD, il faut que ce soit la résolution native de l’écran ou un multiple, sinon c’est assez dégueulasse à l’écran, les pixels “bavent”. Ce n’est pas sur l’explosion ou l’effet de lumière que l’on va voir ça, ça a même tendance à cacher le crenelage. c’est surtout visible au niveau de l’UI où les traits et les caractères sont tout flous/baveux.&nbsp; Alors donc un 9001600 sur un écran 10801920, j’ai du mal.



Je trouve aberrant que pour une histoire de complexité de calcule d’IA, ceci doit être répercuter sur la fréquence. Autant sur les vieux jeux sur console 8 et 16bit, ou le jeu était calculé frame par frame et où rien n’était parallélisé, c’est logique. Mais putain, maintenant je pense que l’affichage d’une scène et son précalcule est séparé, c’est ce qui permet d’avoir des taux variables de FPS lorsque la CG galère un peu sans que le jeu ralentisse pour autant. Si l’IA a decidé à un instant t d’avancer de 5m (à vitesse constante) pendant la prochaine seconde, on sais qu’au bout de 0.2s, l’IA a avancé de 1m.

&nbsp;

Sinon, pour ceux qui essaye de comparer une console à un ordi à 400€, je leur demande, avec quoi ils viennent de commenter, avec leur WiiU ? Il faudrait plutôt comparer un console à leur ordi actuel+400€.



&nbsp;








Aces a écrit :



De la petite bière à côté de pacMan en 4K ! <img data-src=" />





Je penche pour la Kriek mort subite&nbsp;<img data-src=" />









brawndo a écrit :



c’est à la ramasse à ce point?





hélas



Si le CPU est déjà le facteur limitant, Microsoft n’a peux être pas fait un si mauvais choix en y allant avec un CPU à 1.75 GHz au lieu de 1.6.



Mais peu importe, on parle d’une architecture avec un IPC moyen-faible basse consommation (ça au moins ça évite les surchauffes vu comment certain traitent leur console…). Certes, ils y ont mis 8 cores, mais ça demeure très faible comme CPU tout de même pour du jeu vidéo.



Mais bon, la résolution aide, mais comme dit dans le vidéo posté plus tôt dans les commentaires, plusieurs truc joue sur la qualité des graphismes.



Quake en 4K est + moche que Crysis 3 en 720p par exemple. La qualité des textures, la qualité du filtrages, la qualité de l’éclairage, la qualité des animations, la qualité des effets sont probablement plus important que la résolution seul. Perso, j’aime bien les jeu avec un univers artistique cohérent et pas nécessairement photo-réaliste.



&nbsp;Certes c’est dommage pour les consoles qu’elle ne soient pas aussi puissante que promis, mais à mon avis c’est un détail. On dit je veux une console pour ne pas me casser la tête et simplement jouer.



Et bien les consoles next gen le font. Si le choix de la résolution, la puissances des différents éléments est réellement un critère d’achat, aussi bien prendre un PC.



&nbsp;

&nbsp;


Tout le monde s’astique joyeusement sur la résolution et la puissance console…



Sauf si c’est un gros mensonge de marketeux, ce que je retiens de l’article, c’est que la gestion de IA à l’air de prendre de plus en plus de ressources.

Soit leur IA est pas optimisée. (mais bon vu le nb de personnes sur le jeu ca m’étonnerais)



D’un point de vue gameplay je trouve l’IA largement plus importante que quelques pixels, sans vouloir tacler votre débat stérile.



j’ai l’impression d’être le seul.




On pourrait faire fonctionner le jeu à 100 images par seconde s’il n’était question que de graphismes, mais à cause de l’IA, nous sommes limités à 30.





Quel est le rapport entre l’IA (gérée par le CPU) et le frame rate (géré par le GPU) ?

Ce n’est pas parce qu’il y a plus d’images par seconde qu’il faut que les ennemis réagissent plus vite, non ?



Sinon, comme dit par d’autres,&nbsp;générer des images à la&nbsp;même résolution que l’écran, c’est mieux. Après, c’est sûr que la qualité graphique dépend aussi de celle des textures et du nombre de polygones, et je veux bien comprendre qu’il puisse y avoir un compromis à trouver.

&nbsp;








feuille_de_lune a écrit :



Je penche pour la Kriek mort subite&nbsp;<img data-src=" />





<img data-src=" />









Jonathan Livingston a écrit :



Quel est le rapport entre l’IA (gérée par le CPU) et le frame rate (géré par le GPU) ?

Ce n’est pas parce qu’il y a plus d’images par seconde qu’il faut que les ennemis réagissent plus vite, non ?



Sinon, comme dit par d’autres,&nbsp;générer des images à la&nbsp;même résolution que l’écran, c’est mieux. Après, c’est sûr que la qualité graphique dépend aussi de celle des textures et du nombre de polygones, et je veux bien comprendre qu’il puisse y avoir un compromis à trouver.

&nbsp;





Chaque frame avant d’etre calculée par le GPU est calculé par le CPU. Donc si le CPU débite du 30 IPS t’as beau avoir trois titans, tu sera toujours à 30 ips









Punkenjoy a écrit :



&nbsp;Certes c’est dommage pour les consoles qu’elle ne soient pas aussi puissante que promis, mais à mon avis c’est un détail. On dit je veux une console pour ne pas me casser la tête et simplement jouer.



Et bien les consoles next gen le font. Si le choix de la résolution, la puissances des différents éléments est réellement un critère d’achat, aussi bien prendre un PC.



&nbsp;

&nbsp;



Pas mal de personnes achètent aussi une console parce qu’il y a dessus pas mal d’exclu, et payer les jeux chers pour avoir un truc pas mieux qu’un PC, ça le fait mal…









Dr.Wily a écrit :



Eh

oui c’est ca de concevoir des consoles avec une archi PC pas du tout

adaptée à ce mode jeu. Une console c’est un système proprio c’est la

base du concept de la console de jeu. C’est pas un système basé sur un

standard c’est l’éxact oposé du standard… mais bon quand les dev

prennent le pouvoir ca donne ce que l’on a aujourd’hui. (bon je troll

mais à peine…)



&nbsp;le 1080p n’est pas une définition mythique

ou parfaite&nbsp;» et que « La fluidité est significativement plus importante

dans l’expérience de jeu que la définition ».



C’est marant

Nintendo tebnanit les mêmes propos… il y a 10 ans de cela… pendant

que MS je la jouait à qui a la plus grosse avec la 1ère XBox… le monde

du JV j’vous jure….



… et c’est pas joli à voir la situation dans laquelle Nintendo est.









Tkop a écrit :



On oublie totalement le gain de confort et de qualité d’image apporté par le fait d’utiliser la résolution native de l’écran. Si ils veulent faire des jeux en&nbsp;1600 x 900, qu’ils vendent des télés 1600 x 900



Tout à fait <img data-src=" />

Bien qu’ils aient fait des progrès de ce coté-là, ça reste un upscaling <img data-src=" />



&nbsp;



Tkop a écrit :



&nbsp;Faire un jeux qui ne tourne pas en 19201080 n’est pas la fin du monde, que c’est pas le seul critère de qualité.&nbsp;Mais vendre une console qui ne soit pas capable de faire fonctionner les jeux en 19201080 en 2013, c’est totalement débile et risible.



Surtout qu’en 2013, s’amorçait déjà la démocratisation progressive du 4K sur les TV <img data-src=" />









caesar a écrit :



Tout le monde s’astique joyeusement sur la résolution et la puissance console…



Sauf si c’est un gros mensonge de marketeux, ce que je retiens de l’article, c’est que la gestion de IA à l’air de prendre de plus en plus de ressources.

Soit leur IA est pas optimisée. (mais bon vu le nb de personnes sur le jeu ca m’étonnerais)



D’un point de vue gameplay je trouve l’IA largement plus importante que quelques pixels, sans vouloir tacler votre débat stérile.



j’ai l’impression d’être le seul.





Ca dépend de ce que fait l’IA, si c’est pour calculer le comportement des PNJ oui, si c’est pour coder le mouvement des mèches de cheveux suivant le vent, hum…









tazvld a écrit :



Tout d’abord, la résolution, sur un LCD, il faut que ce soit la résolution native de l’écran ou un multiple, sinon c’est assez dégueulasse à l’écran, les pixels “bavent”. Ce n’est pas sur l’explosion ou l’effet de lumière que l’on va voir ça, ça a même tendance à cacher le crenelage. c’est surtout visible au niveau de l’UI où les traits et les caractères sont tout flous/baveux.&nbsp; Alors donc un 9001600 sur un écran 10801920, j’ai du mal.




 Je trouve aberrant que pour une histoire de complexité de calcule d'IA, ceci doit être répercuter sur la fréquence. Autant sur les vieux jeux sur console 8 et 16bit, ou le jeu était calculé frame par frame et où rien n'était parallélisé, c'est logique. Mais putain, maintenant je pense que l'affichage d'une scène et son précalcule est séparé, c'est ce qui permet d'avoir des taux variables de FPS lorsque la CG galère un peu sans que le jeu ralentisse pour autant. Si l'IA a decidé à un instant t d'avancer de 5m (à vitesse constante) pendant la prochaine seconde, on sais qu'au bout de 0.2s, l'IA a avancé de 1m.       

&nbsp;

Sinon, pour ceux qui essaye de comparer une console à un ordi à 400€, je leur demande, avec quoi ils viennent de commenter, avec leur WiiU ? Il faudrait plutôt comparer un console à leur ordi actuel+400€.






 &nbsp;








Oui mais tant que l'ia n'a pas fini sa boucle décisionnelle ... tu fais quoi ? Tu te touches avec les polygones ? Les perso controlés par l'IA s'arrêtent le temps de finir de réfléchir pendant que tu les butes voir ils se font une petite pause paté/saucisson.      

Le jeu c'est pas un film y a du graphique et du calcul. C'est la combinaison synchronisée des deux.



Et tu ne peux pas faire l’impasse sur l’IA vu qu’elle influe directement sur le gameplay.









brawndo a écrit :



c’est à la ramasse à ce point?



Matériellement, on est quand même plus proche d’un PC portable que d’un PC bureau. Il ne faut donc pas s’attendre à un miracle. On peut imaginer que les 2 entreprises, avec leur poids on pu obtenir pour 400€ (à pour Nintendo, les consoles sont généralement vendu à perte les premières années) ce que toi tu aurais pu obtenir pour 700-800€. Donc en gros, regarde ce que tu peux t’offrir en PC portable pour 900€, convertie ça en PC de bureau, tu comprends le retard des machines.









Tkop a écrit :



Chaque frame avant d’etre calculée par le GPU est calculé par le CPU. Donc si le CPU débite du 30 IPS t’as beau avoir trois titans, tu sera toujours à 30 ips



&nbsp;



L’IA doit décider par exemple si le PNJ fait un pas à droite ou un pas à gauche. Et recommencer une seconde plus tard si ce pas a pris une seconde. Ensuite, le GPU doit générer 30 ou 100 images pendant cette seconde. Quel est le&nbsp;lien ?



J’ouvre une parenthèse. Un jeu ne se résume pas seulement à ses graphismes. C’est pour cela d’ailleurs que je ne suis pas vraiment regardant sur les moteurs graphiques qui sont utilisés dans les jeux vidéos. Mais j’en ai rien à battre que des développeurs utilisent un moteur graphique “ancestral”, du moment qu’ils se rattrapent sur le reste !&nbsp;



Je suis un PCiste, et, franchement, les utilisateurs qui pètent plus haut que le cul en demandant des graphismes à mettre à terre leur configurations à 1500 -2000 euros, quand ce n’est pas plus, commencent sérieusement à me les briser. Je ferme la parenthèse.



Qu’est-ce qu’on s’en branle de la définition d’un jeu, lol ! Du moment qu’on se fait plaisir à y jouer… Je ne dit pas qu’il faut jouer en 800x600 non plus ! Mais là, on débat sur la différence entre du 1600x900 et du 1080p. L’un ou l’autre, c’est vrai que cela va changer la donne….&nbsp;








killer63 a écrit :



franchement le gap visuel entre une pS3 et une ps4 ( ou xbox 360 vs one) n’est pas aussi grand que le passage de la PS2 vers la PS3 ( ou xbox vs 360)





Tout comme le gap visuel entre un jeu PC de 2012 et de 2014 n’est pas aussi grand qu’entre des jeux de 2005 et 2007…

On est arrivé à un niveau assez élevé tout de même.









Tilliou a écrit :



Par contre, entre un crysis en 1080p et le même en 900p, sur une tv full hd, on la sent bien la différence, et c’est de celle la dont il est question.



Et encore, l’upscaling sur console est en général prévu par les jeux et est moins dégueu que sur PC…une chance!





&nbsp;



Dr.Wily a écrit :



Eh oui c’est ca de concevoir des consoles avec une archi PC pas du tout adaptée à ce mode jeu. Une console c’est un système proprio c’est la base du concept de la console de jeu. C’est pas un système basé sur un standard c’est l’éxact oposé du standard… mais bon quand les dev prennent le pouvoir ca donne ce que l’on a aujourd’hui. (bon je troll mais à peine…)



D’après MS et Sony, le x86 était une demande des devs hein! <img data-src=" />

Ca se comprend aisément : le PC possède la même microachitecture depuis plus de 20ans, alors les outils et les compétences sont là. Les optimisation pour x86 sont connues et finalement seront un passage obligatoire pour sortir les jeux sur PC. Du coup c’est beaucoup plus rentable, tant financièrement que qualitativement d’avoir une architecture commune : on ne perd pas son temps à apprivoiser une archi différente tous les 5-7 ans, à en gérer 23 en même temps pour chaque jeu.

Il vaut mieux utiliser quelque chose dont tu pourra tirer parti à 100% plutôt que d’en utiliser une autre, plus performante sur papier, mais que tu aura du mal à apprivoiser.

Enfin les consoles de cette génération ont tout de même quelques différences, notamment au niveau de la mémoire vive, unifiée entre CPU et GPU et offrant une bande passante plus élevée que sur PC (qui peut représenter un goulot d’étranglement sur ce dernier).



&nbsp;





Glasofruix a écrit :



Le

1080p c’est pas mythique ni parfait mais ça remplit comme qui dirait

tous les pixels de la grande majorité d’écrans et évité l’immonde flou

du à l’upscaling.



+1, c’est la définition qui s’est imposée comme standard pour les télévision (au standard Full HD justement).

Vu que la console est prévue pour être reliée à une TV Full HD, c’est un peu gros comme argument, après nous avoir vendu “l’expérience full HD” pendant des années.

&nbsp;



Lafisk a écrit :



&nbsp; Un Peu gonfle la je trouve … faut etre un peu con quand meme pour y croire a ce genre de discour … mais le plus con restant de comparer des configs a 400€ d’un cote pour les consoles et des configs 4k triplay de l’autre a quoi ? 2500€ ???



“Il ne faut pas prendre les gens pour des cons, mais il ne faut pas oublier qu’ils le sont”. Les Inconnus étaient plutôt dans le vrai. T’as pas idées du nombre de personnes qui se laissent influencer par les discours marketing.

D’un autre côté on ne peut pas leur en vouloir, un tel produit est assez complexe, et pour une personne qui veut simplement lancer un jeu vidéo pour se détendre après le boulot n’a pas forcement vocation à connaitre ce qu’est une archi CPU/GPU etc.

Après pour ce type de personnes, est-ce qu’elle est vraiment capable de faire la différence entre un jeu avec et sans Anti-Aliasing?&nbsp; Entre de l’upscalé et du natif? Bref pour 400€ ils auront une expérience finalement pas si éloigné de ce qu’ils auraient eu sur PC, la simplicité d’emploi en plus.

&nbsp;

&nbsp;









Obelixator a écrit :



Tout à fait <img data-src=" />

Bien qu’ils aient fait des progrès de ce coté-là, ça reste un upscaling <img data-src=" />



&nbsp; Surtout qu’en 2013, s’amorçait déjà la démocratisation progressive du 4K sur les TV <img data-src=" />





On a pas la meme definition de democratisation&nbsp;<img data-src=" /> <img data-src=" />



&nbsp;



caesar a écrit :



Oui mais tant que l’ia n’a pas fini sa boucle décisionnelle … tu fais quoi ? Tu te touches avec les polygones ? Les perso controlés par l’IA s’arrêtent le temps de finir de réfléchir pendant que tu les butes voir ils se font une petite pause paté/saucisson.



 Le jeu c'est pas un film y a du graphique et du calcul. C'est la combinaison synchronisée des deux.    



Et tu ne peux pas faire l’impasse sur l’IA vu qu’elle influe directement sur le gameplay.





Ouai enfin l’affichage n’est qu’une projection de l’etat du jeu a un instant T … donc cela me surprends de voir que IA et graphisme son lies ce qui parait surprenant en l’etat. Perso j’ai fait un jeu de strategie temps reel en master pour un projet (bon c’etait graphiquement proche du 8 bit mais l’affichage etait independant de la decision.



Il n’y a pas a attendre que le personnage ait fini de realiser une action poru continuer les tours de decision … puis c’est pas comme si chaque PNJ avait une IA propre … tout les PNJ sont dirige par une seule et meme IA donc parralelise le tout est conceptuellement bine plus malin …









Charly32 a écrit :



D’un autre côté on ne peut pas leur en vouloir, un tel produit est assez complexe, et pour une personne qui veut simplement lancer un jeu vidéo pour se détendre après le boulot n’a pas forcement vocation à connaitre ce qu’est une archi CPU/GPU etc.

Après pour ce type de personnes, est-ce qu’elle est vraiment capable de faire la différence entre un jeu avec et sans Anti-Aliasing?&nbsp; Entre de l’upscalé et du natif? Bref pour 400€ ils auront une expérience finalement pas si éloigné de ce qu’ils auraient eu sur PC, la simplicité d’emploi en plus.

&nbsp;

&nbsp;





Je chipote surtout sur le fait qu’on precise bien 4k tri ecran etc… je doute qu’un marketeux ait sorti une anerie pareil.



Apres, le discour marketeux en general et les gens aui y croit derriere, c’est normal









fullsun a écrit :



… et c’est pas joli à voir la situation dans laquelle Nintendo est.





Leur console est à part au niveau architecture, eux au moins ils sont resté honnêtes avec leur racines et n’ont pas cédés aux sirènes de la dictature du full software (quand même la PS4 et la One partage le même framework !). Après ils sont boudé par les dev… mais ça ne veux pas dire qu’ils ont tord sur ce point. Après la Wii U en a beaucoup dans le ventre, bien au delà de ce que laisse croire la concurrence.



Mais il faut mettre les mains dans le cambouis… travailler un peu le métal, à l’ancienne quoi. Et ça c’est dur pour les p’tit jeunes élevés à l’abstraction tout azimut.









Jonathan Livingston a écrit :



&nbsp;



L’IA doit décider par exemple si le PNJ fait un pas à droite ou un pas à gauche. Et recommencer une seconde plus tard si ce pas a pris une seconde. Ensuite, le GPU doit générer 30 ou 100 images pendant cette seconde. Quel est le&nbsp;lien ?





Le CPU ne calcule pas que l’ia, il calcule aussi la nouvelle position de tous les objets, la collision entre les objet, la physique … Tout ca prend tu temps et entre en concurrence avec l’ia pour accéder à la ressource CPU.

Si tu veux que ton CPU passe plus de temps sur l’ia, il prendra plus de temps pour faire tous les calculs précédant et donc l’IPS à la sortie du CPU sera plus faible et l’IPS à la sortie du CPU limite l’IPS à la sortie du GPU.









Lafisk a écrit :



On a pas la meme definition de democratisation&nbsp;<img data-src=" /> <img data-src=" />



&nbsp;

Ouai enfin l’affichage n’est qu’une projection de l’etat du jeu a un instant T … donc cela me surprends de voir que IA et graphisme son lies ce qui parait surprenant en l’etat. Perso j’ai fait un jeu de strategie temps reel en master pour un projet (bon c’etait graphiquement proche du 8 bit mais l’affichage etait independant de la decision.



Il n’y a pas a attendre que le personnage ait fini de realiser une action poru continuer les tours de decision … puis c’est pas comme si chaque PNJ avait une IA propre … tout les PNJ sont dirige par une seule et meme IA donc parralelise le tout est conceptuellement bine plus malin …





Il disent IA pour faire simple, mais c’est probablement plutôt au niveau des commandes de rendus que ça coince vu qu’ils parle de limitation du nombre de personnage (des personnages qui foutre rien (figurant), ça ne bouffe pas d’IA, mais ça prend du temps en commande de rendus.&nbsp;



La carte graphique calcul l’image final, mais chaque image est dabord généré par le CPU, c’est lui qui définit à chaque image quel élément est à quel endroit. De plus, beaucoup d’algorythme de détection de polygones (pour les rendent ou non) sont basé sur le CPU.



Ce qui fait qu’à chaque image, le CPU doit se tapper un gros paquet de tache tout de même. Et, comme le calcul des polygones visibles ou pas peuvent être basé sur la résolution, la baissé peut réduire la charge.



Mais bon, il y a la puissance CPU, le fillrate du GPU, la puissance de filtrage du GPU, la puissance de calcul du GPU, la bande passante mémoire, etc. C’est plus compliquer que simplement dire c’est limité par le GPU ou CPU.

&nbsp;









Romaindu83 a écrit :



Qu’est-ce qu’on s’en branle de la définition d’un jeu, lol ! Du moment qu’on se fait plaisir à y jouer… Je ne dit pas qu’il faut jouer en 800x600 non plus ! Mais là, on débat sur la différence entre du 1600x900 et du 1080p. L’un ou l’autre, c’est vrai que cela va changer la donne….&nbsp;



Sauf quand l’un est la résolution standard de tous les écran et pas l’autre et que un écran ne peut pas afficher des pixel et demis par pixel physique



Mouais, rien d’étonnant au fait qu’un APU Jaguar soit largué, surtout pour une console…

Ceci dit, ça fait 1 année qu’on se tape des la comm sur ces résolutions, et je crois qu’on va encore s’en taper pendant les 5 prochaines années… ça va être long!








Lafisk a écrit :



On a pas la meme definition de democratisation&nbsp;<img data-src=" /> <img data-src=" />



Je pense que si <img data-src=" />

T’as dû zapper les mots “amorcer” et “progressive” dans ma phrase <img data-src=" />

Surtout que, si mes souvenirs sont bons, on partait du tout premier modèle 4K à ~100K€ en 2009 <img data-src=" />









caesar a écrit :



Oui mais tant que l’ia n’a pas fini sa boucle décisionnelle … tu

fais quoi ? Tu te touches avec les polygones ? Les perso controlés par

l’IA s’arrêtent le temps de finir de réfléchir pendant que tu les butes

voir ils se font une petite pause paté/saucisson.



Le jeu c'est pas un film y a du graphique et du décisionnel. C'est la combinaison synchronisée des deux.







En gros tu me dis qu’a l’heure actuelle, les IA font “Pause! Une seconde, je réfléchis là ! Tu peux fermer les yeux s’il te plaît ?”, n’est ce pas finalement du lag d’affichage que tu génère là. Mais que l’IA réfléchisse ou pas, tu peux toujours générer la scène 3D où de toutes façon, rien ne se passe. Que tu ne produise pas d’image pendant la boucle décisionnelle ou que tu en produise, la seul différence c’est la sensation de fluidité.



Je ne vois pas le problème si tu gères ça dans 2 boucles indépendantes asynchrone ? Les IA n’ont pas besoin des graphismes pour vivre leurs vie. Les graphismes, eux, ont juste besoin de connaître l’état des IA à un moment donné. Il n’y a même pas besoin que ce moment soit extrêmement précis, il faut qu’ils soit juste un laps de temps pour suffisamment petit pour que ce soit imperceptible.

La seul limitation de cette façon de faire, c’est géré les locks sur les variables. La boucle d’affichage, pour eviter tout bug (problème de lecture et d’écriture simultanée), doit locker une IA lorsqu’il est en train de lire son état (il peux juste en faire une copie pour le locker le moins longtemps possible)









Lafisk a écrit :



Ouai enfin l’affichage n’est qu’une projection de l’etat du jeu a un instant T … donc cela me surprends de voir que IA et graphisme son lies ce qui parait surprenant en l’etat. Perso j’ai fait un jeu de strategie temps reel en master pour un projet (bon c’etait graphiquement proche du 8 bit mais l’affichage etait independant de la decision.



Il n’y a pas a attendre que le personnage ait fini de realiser une action poru continuer les tours de decision … puis c’est pas comme si chaque PNJ avait une IA propre … tout les PNJ sont dirige par une seule et meme IA donc parralelise le tout est conceptuellement bine plus malin …





Ils parallélisent probablement le tout, mais le CPU n’est pas utilisé que pour l’IA, il faut en garder pour tout ce qu’il y a derrière (physique, audio, animations, etc.).

En plus de cela, chacun de ces systèmes sont plus ou moins dépendants, donc oui, l’affichage se fait en parallèle de la phase de calcul (le CPU et le GPU travaille bien en parallèle), mais malgré tout, ton moteur doit bien envoyé à un moment donné et régulièrement de quoi faire travailler le GPU, et cette fréquence là est dépendante des tâches réalisées pendant la boucle de calcul.

Le tout c’est d’avoir quelque chose de cohérent à envoyer à ton GPU, et cela se produit une fois que tout tes systèmes ont terminé leur calcul et sont en attente de la prochaine boucle.

Le problème est que si tu mets plus de temps pour atteindre cet état stable que ton GPU qui a déjà terminé de calculer de qu’on lui a donné à la boucle précédente, tu te retrouves avec une limitation CPU, ce qu’a l’air de décrire ici Ubisoft.



Ca évite de se reprendre les pieds dans le tapis des 1080 non supportés par la X1 le prochain stade sera sans doute la SD car p’tre qu’il y a des joueurs qui ont encore des veilles téloches, au bout du compte on parlera pas plus des propriétés intrinsèques du titre de toute façon Ubichiotte&nbsp; …. <img data-src=" />








Lafisk a écrit :



&nbsp;Un Peu gonfle la je trouve … faut etre un peu con quand meme pour y croire a ce genre de discour … mais le plus con restant de comparer des configs a 400€ d’un cote pour les consoles et des configs 4k triplay de l’autre a quoi ? 2500€ ???




Je sais pas si c'est l'ateur de l'article ou si ce sont des propos cites mais ca me parait tres intelligent comme comparaison








Non, le propos c'était : on nous a promis des consoles au niveau des PC actuels, alors qu'une console galère déjà avec du 900p pas top, que les PC peuvent gérer ça les doigts dans le pif et peuvent même déjà gérer du 4K ou du 3x 4K. Après oui le tarif n'est pas le même, mais c'était surtout pour évoquer que de vouloir indiquer que les consoles étaient d'un point de vue technique au niveau des PC était une ânerie, ce qui se vérifie dans la pratique, et bien que le tarif des consoles soit minoré par la pratique commerciale du secteur.     



&nbsp;



Tilliou a écrit :



“Graphiquement parlant, une telle définition n’est pour autant pas un



gage de qualité suffisant. On peut très bien faire fonctionner Pac Man en 1080p, cela ne le rendra pas aussi beau qu'un Crysis 3 en 900p&nbsp;avec les détails au maximum."      






Par contre, entre un crysis en 1080p et le même en 900p, sur une tv full hd, on la sent bien la différence, et c'est de celle la dont il est question.








Oui, mais ce n'est pas parce que tu peux sortir un jeu dans une qualité d'image en 900p que tu peux assurer la même qualité d'image en 1080p. C'est ça le fond du problème. La question in fine c'est : est-ce qu'il faut minorer la qualité ou la définition ? Mais oui, il semble logique que si l'on peut améliorer la qualité et la définition, autant le faire :)








Tkop a écrit :



milieux de gamme PC vieux de deux ans (je pense à la HD7870 1280 coeurs 1Ghz)





C’est une HDG d’il y a deux ans <img data-src=" />









athlon64 a écrit :



C’est une HDG d’il y a deux ans <img data-src=" />





La HD7870 est sorti en décembre 2011, soit 2ans avant la X1 et la PS4, on pouvait alors la trouver pour moins de 250€

Il y a deux ans on pouvais la trouver pour 200€ environ

&nbsp;

Aprés ca dépend ou tu met la barre dans le prix entre le haut de gamme et le moyen de gamme.

&nbsp;



On parle tous de consoles limitées techniquement pour des “next-gen” mais les jeux d’aujourd’hui sont-ils aussi bien optimisés qu’il y a quelques années.

Je n’y connais rien en développement mais quand je vois un certains GTA V sur PS3/360 qui tourne plus qu’honorablement à la vue de son ambition technique…

En parallèle de cela, certains jeux soi-disant “next-gen” (je ne parle pas d’AC:U) avec des aires de jeux de la taille d’un cagibi et des scripts à tout bout de champs qui disent peiner à atteindre le 1810p.



Après c’est un débat plus vaste que j’ouvre ici, impliquant qu’avec de la puissance grandissante à portée de main des développeurs, il font moins d’effort sur l’optimisation.

Peut-être également arrive-t-on à un niveau où le rapport “puissance requise”/“amélioration visuel” augmente de manière exponentiel.


Je pense que bientôt on aura des cartes accélératrice pour l’ia comme on a eu pour le sont puis pour les graphisme et en fin la physique.&nbsp;








killer63 a écrit :



franchement le gap visuel entre une pS3 et une ps4 ( ou xbox 360 vs one) n’est pas aussi grand que le passage de la PS2 vers la PS3 ( ou xbox vs 360)





D’un autre coté sur PC le gap entre Crysis 3 et crysis n’est pas aussi grand que le passage de far cry à crysis. La dernière génération de console est très puissante par rapport à la précédente mais les joueurs console ont peut être du mal à comprendre que la gourmandise en calcul devient exponentielle pour des effets graphiques ou physiques qui sont de moins en moins visibles.&nbsp;&nbsp;Il aurait peut être été possible de faire des consoles plus puissantes pour une centaine de dollars en plus mais cela aurait été trop cher ou trop dificile à refroidir.



je lis vos commentaires et la xb4 et la PSone, ca fait vraiment pas rever. limite je trouve que les anciennes générations de consoles sont autrement plus intéressantes (la wiiU mise à part). j’ai l’impression que la grande majorité de l’industrie du JV console part dans la course à la résolution, à l’assistanat du joueur, et aux jeux vendus en kit, en améliorant les memes licenses daubiques à l’infini d’année en année sur un air de “viens chez nous, on a les memes jeux qu’en face, mais ici on a de la moquette murale”.



par contre si ca peut nous faire des portages PC enfin optimisés dispos sur steam a 10€ un an plus tard, tant mieux ! je suis pour&nbsp;<img data-src=" />



&nbsp;








knos a écrit :



Je pense que bientôt on aura des cartes accélératrice pour l’ia comme on a eu pour le sont puis pour les graphisme et en fin la physique.&nbsp;





Sur PC&nbsp;un bon processeur suffit largement, sur console&nbsp;on a&nbsp;8 coeurs de … netbook donc c’est limite.&nbsp;









calimero1 a écrit :



Sur PC&nbsp;un bon processeur suffit largement, sur console&nbsp;on a&nbsp;8 coeurs de … netbook donc c’est limite.&nbsp;





Oui mais L’ia est a mon avis le prochain gros axe d’amélioration des jeux. Et comme pour les graphiques et la physique dont le moteur sont mutualisé entre les jeux je pense que l’ia bénéficiera de la même chose. Et si l’on veux une ia humaine il va falloir un peu plus de puissance que maintenant.&nbsp;









CrowTown a écrit :



Bah il suffit d’attendre&nbsp;que DirectX 12 sorte bientôt sur la Xbox One, et le problème de l’insuffisance du CPU sera vite réglé <img data-src=" />&nbsp;



Par contre Est-ce que cette pauvre PS4 va pas jouer le rôle de boulet et provoquer un nivellement par le bas du développement des jeux??… Faudra&nbsp;attendre de voir ce que Sony, qui n’est plus connu pour être un chantre de l’innovation, aura à proposer pour combler le retard… <img data-src=" />





Comment MS va mettre dx12 sur sa x1. Il vont flasher la carte graphique?&nbsp;









knos a écrit :



Oui mais L’ia est a mon avis le prochain gros axe d’amélioration des jeux. Et comme pour les graphiques et la physique dont le moteur sont mutualisé entre les jeux je pense que l’ia bénéficiera de la même chose. Et si l’on veux une ia humaine il va falloir un peu plus de puissance que maintenant.&nbsp;





Ahhh la promesse d’une IA plus performante, Je me souviens à la sortie de la Xbox on nous prometait une révolution IA, puis celle des Xbox 360- PS3 on devait être époustouflé.



La vérité est, l’AI par exemple dans un FPS n’a pas changé depuis Halo 1.









CrowTown a écrit :



C’est pour cela que la PS4 se vend bien alors qu’il n’y a pas une exclue dessus



Don’t feed the troll.









knos a écrit :



Oui mais L’ia est a mon avis le prochain gros axe d’amélioration des jeux. Et comme pour les graphiques et la physique dont le moteur sont mutualisé entre les jeux je pense que l’ia bénéficiera de la même chose. Et si l’on veux une ia humaine il va falloir un peu plus de puissance que maintenant.&nbsp;





J’ai lu un article (je ne sais plus où) où on expliquait clairement que la puissance brute ne limitait plus l’IA car c’est au niveau de la programmation même de l’IA que ça coince. Il n’y a qu’à voir les puces embarquées dans certains robot: elles ne sont pas puissantes malgrés des comportements réalistes. &nbsp;Après il y a le cas particulier des jeux comme AC ou GTA ou on essaye de faire vivre des dizaine de PNJ en même temps&nbsp; et dans ce cas la puissance de calcul et directement liée à la densité de la foule virtuelle.



Conclusion : plus ton AI est forte et plus tes graphismes sont pourris et inversement. Comme une blonde en fait.



<img data-src=" />








knos a écrit :



Comment MS va mettre dx12 sur sa x1. Il vont flasher la carte graphique?&nbsp;





Pas besoin niveau hardware ca supporte déjà. Simple MAJ console et implantation dans les jeux.



Le plus important c’est le 60 fps.

1600x900 ou 1920x1080 peu importe.

Mais il faut 60 fps minimun !


Mdr oui oui directx 12 va combler le manque d’unités de calculs….. Si ca se trouve grace a directx 12 la x1 affichera du 4k et pulverisera le pc……..&nbsp;


ayé reparti pour le débat 1080p @60fps, GG \(ony et M\) pour cette connerie marketing…&nbsp;


<img data-src=" />



Tout ça pour rien.



HS : J’adore la nouvelle interface !! Mais need de nouveaux émoticones !!








van25fr a écrit :



Le plus important c’est le 60 fps.

1600x900 ou 1920x1080 peu importe.

Mais il faut 60 fps minimun !





Ça dépend des gout, perso je règle toujours mes jeux pour avoir au moins du 1080P, quitte à sacrifier de l’IPS.



&nbsp;



fraoch a écrit :



Mdr oui oui directx 12 va combler le manque d’unités de calculs….. Si ca se trouve grace a directx 12 la x1 affichera du 4k et pulverisera le pc……..&nbsp;





Non, mais c’est tout de même prometteur :&nbsphttp://www.pcgamer.com/intel-show-off-the-directx-12-performance-advantage/









Lafisk a écrit :



&nbsp;Un Peu gonfle la je trouve … faut etre un peu con quand meme pour y croire a ce genre de discour … mais le plus con restant de comparer des configs a 400€ d’un cote pour les consoles et des configs 4k triplay de l’autre a quoi ? 2500€ ???



Je sais pas si c’est l’ateur de l’article ou si ce sont des propos cites mais ca me parait tres intelligent comme comparaison





Ce qu’il y a en 2012 après l’E3, les devs se cachèrent &nbsp;derrière la fameuse next-gen qui était annoncé soit disant si puissant que l’on verrait la différence. Puis&nbsp;le trailer de Watch dogs &nbsp;apparut pendant la conférence de Sony en janvier 2013 avec un discours du genre voila ce que l’on pourra faire sur next-gen en mieux.



Quelque mois plus tard Microsoft annonça&nbsp;la&nbsp;Xbox one avec sa :http://cdn2.sbnation.com/uploads/chorus_image/image/13447169/xbox_event_0285.0_cinema_640.0.jpg&nbsp;

Du coup la machine était en route, un processeur a 8 cœurs, 8go de ram, etc… a partir de là et des différentes déclarations des éditeurs, la next gen était annoncé avec que des jeux en full hd sans que la console soit exploité a fond.

&nbsp;Puis a l’annonce des specs en précisions lors de l’e3, la communauté commença a déchanté, avec des rumeurs comme un processeur caché ou encore la gddr5 largement supérieur a la ddr3 que les gens comprenaient comme ddr5 plus puissant que ddr3 alors que la ddr5 n’est pas encore commercialisé ( la magie des chiffres ).&nbsp;

Et les journalistes amplifièrent le phénomène a coup de rumeur douteux.

&nbsp;

Puis vient les pcistes, qui devant&nbsp;sa, commencèrent a se moquer de la résolution merdique des jeux “next-gen”.

&nbsp;A tout cela tu ajoutes les éditeurs qui sous prétexte de développer leur jeux sur 5 plateforme, il n’arrive pas a faire des jeux “optimisés” et là maintenant que certains jeux ne sortent que sur&nbsp;la “next-gen” et sur pc, on voit que la promesse faite il y a plus de 2 ans et les excuses qui ne peuvent plus fonctionner tombe les éditeurs le récupèrent a coup de commentaire haineux.&nbsp;









fraoch a écrit :



Mdr oui oui directx 12 va combler le manque d’unités de calculs….. Si ca se trouve grace a directx 12 la x1 affichera du 4k et pulverisera le pc……..&nbsp;



&nbsp;Et la console sera étanche, non?









von-block a écrit :



Non, mais c’est tout de même prometteur :&nbsp;http://www.pcgamer.com/intel-show-off-the-directx-12-performance-advantage/





&nbsp;

Ça c’est du bullshit marketing by Intel pour faire parler de leur puce graphique portable. Concernant la xbox one, DX12 ne sera qu’une légère optimisation côté développeurs et n’apportera pas grand chose dans les jeux. Déjà dit et redit par les devs, dont ceux de Witcher 3 :&nbsp;

-&nbsp;Directx 12 ne corrigera pas le problème du 1080p sur xbox one.&nbsp;-&nbsp;DirectX 12 ne sera pas un grand changement pour la xbox one.









Danytime a écrit :



&nbsp;

Ça c’est du bullshit marketing by Intel pour faire parler de leur puce graphique portable. Concernant la xbox one, DX12 ne sera qu’une légère optimisation côté développeurs et n’apportera pas grand chose dans les jeux. Déjà dit et redit par les devs, dont ceux de Witcher 3 :&nbsp;

-&nbsp;Directx 12 ne corrigera pas le problème du 1080p sur xbox one.&nbsp;-&nbsp;DirectX 12 ne sera pas un grand changement pour la xbox one.





Bien sûr que ça ne changera pas les problèmes de faiblesse GPU comme la résolution ce n’est pas l’objectif de ce Directx 12, mais par exemple dans le cas de AC Unity ou le CPU est en cause, il est fort possible qu’il y ait une augmentation des performances puisque plusieurs calculs seront relégués au GPU.





&nbsp;



Je ne suis pas expert mais je crois que DX12 optimisera les echanges entre le CPU et le GPU. Dans le cas des consoles avec leur memoire centrale je ne suis pas sûr qu’il y ait un gain significatif.








calimero1 a écrit :



Je ne suis pas expert mais je crois que DX12 optimisera les echanges entre le CPU et le GPU. Dans le cas des consoles avec leur memoire centrale je ne suis pas sûr qu’il y ait un gain significatif.





A voir, mais c’est clair que ça en fera pas des chevaux de courses.

Peut être réequilibrer le match one vs ps4 là par contre probablement.&nbsp;









von-block a écrit :



Bien sûr que ça ne changera pas les problèmes de faiblesse GPU comme la résolution ce n’est pas l’objectif de ce Directx 12, mais par exemple dans le cas de AC Unity ou le CPU est en cause, il est fort possible qu’il y ait une augmentation des performances puisque plusieurs calculs seront relégués au GPU. &nbsp;





L’exemple avec Assassin’s Creed est déjà caduc, car comme le précise le rédacteur dans la news, ASC 4 a bénéficié d’un patch 1080p pour la PS4 quelques semaines plus tard. Il en sera de même pour cette version, Ubisoft doit juste honoré son deal marketing avec Microsoft pour le lancement du jeu.









Jonathan Livingston a écrit :



Quel est le rapport entre l’IA (gérée par le CPU) et le frame rate (géré par le GPU) ?

Ce n’est pas parce qu’il y a plus d’images par seconde qu’il faut que les ennemis réagissent plus vite, non ?



Sinon, comme dit par d’autres,&nbsp;générer des images à la&nbsp;même résolution que l’écran, c’est mieux. Après, c’est sûr que la qualité graphique dépend aussi de celle des textures et du nombre de polygones, et je veux bien comprendre qu’il puisse y avoir un compromis à trouver.

&nbsp;





Le rapport est la mémoire unifiée. Toute bande passante prise par le CPU n’est plus accessible par le GPU.



Moi je n’ai pas tellement les moyens.

je remercie SONY et MS de lancer de nouvelles consoles.

&nbsp;

je vais acquérir la XBOX 360 avec 6 jeux,presque neuve,250Go,pour 125€.

Il faut aussi penser aux pauvres lorsque l’on lance une nouvelle machine.

Parce que du coup le secteur du jeu d’occasion reprend de l’essor.



A ce titre,je pense que le plus inquiétant sont les restrictions faites sur la revente des jeux,le prêt,la rétro compatibilité.

&nbsp;

parce que personnellement j’ai une TV 82cm qui ne fait pas le 4K,et que du coup la limitation a 1080P ou 1900 me vont bien.&nbsp;








Cara62 a écrit :



ayé reparti pour le débat 1080p @60fps, GG \(ony et M\) pour cette connerie marketing…&nbsp;





Je ne vois pas où c’est une connerie marketing.

Les gens ne demandent pas du 4k.

Juste du 1080 à 60 fps.

Ça ne me paraît pas délirant vu que c’est devenu la norme des téléviseurs.

Et pourtant je suis loin d’être technologie à fond.

J’ai encore un gsm et je ne change de moniteur/tv que quand c’est mort…

&nbsp;









DEATH a écrit :



“que les nouvelles consoles seront capables de rivaliser avec les PC” Ah ah sérieusement ? Les joueurs sur console sont aussi naïfs ?





Ce qu’ils n’ont pas lu, c’était la petite étoile: Rivaliser, pour la semaine de sortie, passé ce délai, les PC l’ont déjà rattrapé.



L’IA ou le 1080 à 60 i/s il faut choisir. On dirait une pub pour la prévention routière.



Il faudra peut être un jour que ces boites arrêtent d’être à la limite de la vérité pour vanter des choses qui ne seront pas possible dans les faits.

&nbsp;


comme dit précédemment aussi là on est partie sur des architectures généralistes donc comme un pc classique, c’est pas parce qu’on a de la ram unifié que ça va changer ça.

Du coup une wiiU qui a encore des unités de calculs spécifiques pour &nbsp;certaines tâches pourrait être bien meilleure que ses concurrentes sur ces tâches là.

Avec cette nouvelle gen les consoles ont perdu leurs avantages d’avoir des unités très efficaces mais spécialisées et du coup bah on se retrouve avec des pc bof bof niveau puissance brutes qui n’arrivent pas à afficher le “sacro saint” 1080p@60fps








Thoscellen a écrit :



DirectX sur PS4 ?





ça je sait pas … mais sur xbox one je pense que ça sera une possibilité









legurt a écrit :



&nbsp;

je vais acquérir la XBOX 360 avec 6 jeux,presque neuve,250Go,pour 125€.

Il faut aussi penser aux pauvres lorsque l’on lance une nouvelle machine.

Parce que du coup le secteur du jeu d’occasion reprend de l’essor.



pour 35€ par an tu peut t’abonner Gold, et tout les mois 2 jeux sont offerts.

j’ai ainsi étoffé ma bibliothèque de jeux depuis une quinzaine de mois en ayant récupéré plus de 30 titres.

sur la 360 même si l’abonnement gold est expiré, les titres que tu as récupéré tu pourra toujours y jouer en local









Avygeil a écrit :



Ca dépend de ce que fait l’IA, si c’est pour calculer le comportement des PNJ oui, si c’est pour coder le mouvement des mèches de cheveux suivant le vent, hum…







L’IA dans AC, c’est quoi ? parce que sauter, courir, mission, sauter, courir, mission….. en boucle pendant 4 heures…

&nbsp;:-(

&nbsp;



Faut arrêter de chialer c’était obvious que le nombre de titre en 1080p à 60 ims serait de plus en plus anecdotique … à part les trolls ps4 je vois pas qui d’autres ça peut réellement atteindre dans l’ensemble peu de personnes feront la différence entre du 900p et du 1080p sans qu’on leur montre le pixel flou …

Et bon du 30 ips les gens qui jouent sur console sont habitués et pour le coup spécialement ceux qui étaient sur ps3 alors stop le faux débat ….


L’image avec la tour Eiffel, elle vient de chez Ubi ?


/me lit la news

/me se rue goulûment sur la même news chez jv.com



Les commentaires sont conformes à mes attentes <img data-src=" />&nbsp;<img data-src=" />&nbsp;<img data-src=" />








Takoon a écrit :



L’IA dans AC, c’est quoi ? parce que sauter, courir, mission, sauter, courir, mission….. en boucle pendant 4 heures…

&nbsp;:-(

&nbsp;





je suis curieux de savoir si ton IA à toi ne serait capable juste de compter le nombre de PNJ différents autour de ton personnage dans AC … la console ou une IA, elle le peut :)



L’IA dans un jeu de type open world sand box c’est pas la finesse des actions, somme toute il est vrai un peu limité, que peut réaliser UN perso mais plutôt la masse des différents persos qui CHACUN peuvent réaliser à tout moment un panel d’action conséquent vu le nombre de PNJ…



Question idiote à la place du CPU de la One et de la ps4 on aurait mis le CPU (cell) de la ps3, vu ca puissance il pourrais mieu gérer la physique non?








Snark a écrit :



Ce qu’ils n’ont pas lu, c’était la petite étoile: Rivaliser, pour la semaine de sortie, passé ce délai, les PC l’ont déjà rattrapé.





Tu rigoles la ? des leurs announces, les&nbsp;deux consoles etaient deja&nbsp;depassees depuis des annees deja par les pcs …&nbsp;









kurgan187 a écrit :



Question idiote à la place du CPU de la One et de la ps4 on aurait mis le CPU (cell) de la ps3, vu ca puissance il pourrais mieu gérer la physique non?





Les computes units du GPU peuvent faire tout ce que les SPE font tourner en plus rapide/efficace et ils sont plus flexibles. Aucun intérêt.



Il manque de puissance sur un CPU généraliste ici.









DEATH a écrit :



“que les nouvelles consoles seront capables de rivaliser avec les PC” Ah ah sérieusement ? Les joueurs sur console sont aussi naïfs ?





Ils ont pas dit de quelle année les pc!<img data-src=" />



J’attendais pas mieux des commentaires de la par de PCistes … oui oui je l’emploi de manière totalement péjorative.&nbsp;



Que Ubisoft se cache derrière l’excuse de la limitation de puissance du CPU pour justifier et faire passer la pilule de la parité des consoles me débecte.



Faut t’il rappeler que la résolution d’un jeu n’a aucun impacte négatifs sur les drawcalls et qu’il peut y avoir un up de la résolution pris en charge par le GPU sans surcoût pour le &nbsp;CPU. Faut il rappeler à Ubisoft que la mémoire est unifier et que le GPU est capable de prendre en charge des calcules dédier au CPU (le GPGPU).



Ils ne veulent tout simplement pas se prendre la tête et Microsoft ayant l’exclusivité marketing du jeu, à fait pression auprès d’Ubisoft pour qu’il n’y ai pas de différences entre les deux versions.



Que cela soit en 900P ou en 1080P dans le fond je m’en cogne, mais que pour des raisons marketing cela impacte sur le jeu et que cela empêche de pleinement utiliser les capacités de la PS4 comme ca été le cas sur Watch Dogs.&nbsp;








Ideal a écrit :



Faut arrêter de chialer c’était obvious que le nombre de titre en 1080p à 60 ims serait de plus en plus anecdotique … à part les trolls ps4 je vois pas qui d’autres ça peut réellement atteindre dans l’ensemble peu de personnes feront la différence entre du 900p et du 1080p sans qu’on leur montre le pixel flou …

Et bon du 30 ips les gens qui jouent sur console sont habitués et pour le coup spécialement ceux qui étaient sur ps3 alors stop le faux débat ….





Oui et … non: d’un coté le 900p ou 30ips n’est pas un drame d’autant que les consoles font un upscalling de qualité et que les TV n’ont pas la même latence que les moniteurs. De plus tout le monde ne joue pas en fullHD@60fps sur PC (je n’ai qu’une GTX 660).

Dans la pratique une fois en jeu tout cela n’est pas dramatique.

D’un autre coté une bonne partie des joueurs PS3 ayant gouté à wipeout HD (1080p@60fps) ont vu une différence sur de bons ecrans et ceux là en redemandent.

C’est comme les joueurs PS2 qui ne juraient que par les versions import en 60 hz. En caricaturant Faut pas croire que le public console n’est qu’un ramassis d’aveugle ou que tous les joueurs PC sont omnibulés par le dernier cri en qualité d’image. Donc la promesse du full HD pour cette gen les met un peu sur les crocs.









&nbsp;legurt a écrit :





La marché de l’occasion, ils ne demandent que ça de l’anéantir et de le faire disparaître.&nbsp;



Une console ou un jeu d’occasion, c’est des royalties qu’ils ne touchent pas.&nbsp;



Les gens gueulent parcequ’ils n’ont pas du 1080p / 60 ips mais ils sont prêt à jouer à des jeux indie débiles avec des graphismes hideux. Dans l’histoire, ils&nbsp;oublient vite que le jeu vidéo et ça que ce soit sur PC/console/tablette/… ça reste un jeu et que le principal c’est de se faire plaisir sans avoir à insulter les consoleux ou les PCistes.


Oui la résolution 1080P est importante car les constructeurs, ET les éditeurs ont vendu aux joueurs le “ten eighty P, sixty FPS” avant même la sortie des consoles.



On est en 2014, là où les moniteurs commencent à démocratiser le QHD et UHD, les consoles n’arriveraient même pas à tenir un malheureux HD ?



Qui plus est, 900P, à 30 FPS ? Donc le mec justifie le cut de la résolution pour une fluidité accrue, mais vend du 30 fps ?



Et beh …








David_L a écrit :



ça dépend, la vente à perte de la machine se rattrape sur les jeux et les accessoires ? <img data-src=" />&nbsp;





La vente à perte est interdit en France (et très certainement à l’échelle de l’europe également) ;)

Moi je dis qu’il suffit de voir seulement la taille d’une carte graphique sur PC et de comprendre qu’une console ne sera JAMAIS aussi puissant&nbsp;

<img data-src=" />



Juste une question purement Microsoft. On parlait de ‘cloud’ afin d’alléger les charges de calcul sur le CPU (si je ne me trompe pas), mais les fabricants de jeux n’en parlent pas (sauf Forza).

Il me semblait que c’était un peu leur point fort chez Xbox, Ubisoft ne veut pas utiliser ce potentiel?


Je vois tres bien la difference sur ma télé 40 pouces entre un jeu 720p, 900p et 1080p… ca va de soi qu’en 1080p, t’aura une certaine finesse et piqué de l’image.



En plus sur console, t’ajoute le limite du rendu: clipping,&nbsp;anticrénelage limité, fov limité, textures limité… bon c’est sur qu’apres une console new gen sera forcement meilleur que la current gen, cela dit, c’est dommage faire une mise a jours pour 400e toujours en ayant autant de limites&nbsp;<img data-src=" />


Ce genre d’argument était acceptable du temps de la PS3 ou de la 360 qui entrait a peine dans la HD, pourtant sony promettait déja du 120fps, 6 ans plus tard les jeux sont un peu plus beau, mais toujours pas de 1080p en 60fps, ce qui devrait etre la norme pour n’importe quel machine du moment ou l’on joue sur des écran FullHD.








kirire a écrit :



La vente à perte est interdit en France (et très certainement à l’échelle de l’europe également) ;)

Moi je dis qu’il suffit de voir seulement la taille d’une carte graphique sur PC et de comprendre qu’une console ne sera JAMAIS aussi puissant&nbsp;

<img data-src=" />





C’est assez faux, puisque l’on parle ici de politique commerciale entre entreprises. Toi tu fais référence à l’interdiction de la vente à perte du revendeur vers le consommateur ;)



Perso j’ai acheté une xbox one mais pas du tout pour remplacer mon pc (où je dois changer la GC d’ailleurs)… Mais pour en faire ma machine multimédia ultime sous la tv : du jeux avec des potes en coop (comme ACu), de la tv et du lecteur de Blu-ray pour le petit, du kinect pour la grande avec Dance Central, de la lecture en streaming pour netfix… Mais j’ai jamais pensé que cela aller remplacer mon pc en terme de jeu (ou de machine central)



Après il est évident qu’un jeu comme The Witcher qui doit déchirer la rétine, ça sera sur pc (faut pas déconner)


En fait, les fabricant de console ont opté pour une architecture hardware similaire au pc. Du coup la comparaison se fait très rapidement.

Mais surtout, on vois que sur PC, avec la surenchère hardware permanente les développeurs de JV sont peu sensibilisé à l’optimisation.

Du coup, les jeux portés sur console seront chaque année bien plus éloigné de leur version pc en terme de performance.

Au final on peut espérer que tout cela profite au PC avec des jeux optimisés pour une architecture console qui vieillira très vite.








kirire a écrit :



La vente à perte est interdit en France (et très certainement à l’échelle de l’europe également) ;)

Moi je dis qu’il suffit de voir seulement la taille d’une carte graphique sur PC et de comprendre qu’une console ne sera JAMAIS aussi puissant&nbsp;

<img data-src=" />





Oui, mais là on ne parle pas de vente à perte comme tu l’entends. La revente a perte sans transformation du produit est bel et bien interdite. En revanche la vente d’un produit à un prix X dont tous ses composants t’ont couté Y (avec Y &gt; X) est autorisée dans la mesure où il est impossible de prouver que tu as baissé X de façon à obtenir un monopole (concurrence déloyale).









Gilbert_Gosseyn a écrit :



Au contraire, le CPU (et GPU aussi) de la PS4 est légèrement plus rapide et voit sa fréquence augmentée par rapport à celui de la XOne. De plus le GPU de la PS4 a plus d’unités de traitement que celui de la XOne.



(bon, perso je joue sur un PC mieux doté)





Heureusement que j’ai passé en revu tous les commentaires, &nbsp;tout est dis !<img data-src=" />&nbsp;









kirire a écrit :



La vente à perte est interdit en France (et très certainement à l’échelle de l’europe également) ;)

Moi je dis qu’il suffit de voir seulement la taille d’une carte graphique sur PC et de comprendre qu’une console ne sera JAMAIS aussi puissant&nbsp;

<img data-src=" />





Dans le cas d’un fabricant de console, ils peuvent vendre le matériel moins cher que ce que ça leur coûte. C’est la revente à perte de celle ci qui est interdite.









Spermix a écrit :



Je ne vois pas où c’est une connerie marketing.



 Les gens ne demandent pas du 4k.       

Juste du 1080 à 60 fps.

Ça ne me paraît pas délirant vu que c'est devenu la norme des téléviseurs.

Et pourtant je suis loin d'être technologie à fond.

J'ai encore un gsm et je ne change de moniteur/tv que quand c'est mort...

&nbsp;








Non les &nbsp;"gens" ne demandent pas ça, afin ceux qui achètent des consoles, c'est un truc de PCiste ça. Si c'est 2 constructeurs n'avaient pas basés leurs marketing sur ça on en reparlerai plus maintenant. &nbsp;C'est clairement une erreur marketing des deux.&nbsp;    



Maintenant pour chaque jeu c’est : OLOL il tourne à 30fps, OLOL il est pas en 1080p etc….&nbsp;

Personnellement j’en ai rien à secouer, surtout qu’à 30fps STABLE c’est PARFAITEMENT fluide, faut arrêter la mauvaise foi. C’est juste plus agréable à 60fps certes, mais vaut mieux du 30fps stable que du 60fps qui fait yoyo.&nbsp;

&nbsp;Après pour la résolution pourquoi pas, mais bon quand c’est pas en 1080p natif c’est assez proche.&nbsp;



Cordialement, un joueur PC qui n’a pas de next gen (Ah si une Wii U <img data-src=" /> )









Tkop a écrit :



La HD7870 est sorti en décembre 2011, soit 2ans avant la X1 et la PS4, on pouvait alors la trouver pour moins de 250€

Il y a deux ans on pouvais la trouver pour 200€ environ

&nbsp;

Aprés ca dépend ou tu met la barre dans le prix entre le haut de gamme et le moyen de gamme.

&nbsp;





Si on regarde son numero c’est une HDG, et elle valait le milieu de gamme de la gen d’après (7950). <img data-src=" />









Cara62 a écrit :



Non les &nbsp;“gens” ne demandent pas ça, afin ceux qui achètent des consoles, c’est un truc de PCiste ça. Si c’est 2 constructeurs n’avaient pas basés leurs marketing sur ça on en reparlerai plus maintenant. &nbsp;C’est clairement une erreur marketing des deux.&nbsp;



Maintenant pour chaque jeu c'est : OLOL il tourne à 30fps, OLOL il est pas en 1080p etc....&nbsp;      

Personnellement j'en ai rien à secouer, surtout qu'à 30fps STABLE c'est PARFAITEMENT fluide, faut arrêter la mauvaise foi. C'est juste plus agréable à 60fps certes, mais vaut mieux du 30fps stable que du 60fps qui fait yoyo.&nbsp;



&nbsp;Après pour la résolution pourquoi pas, mais bon quand c’est pas en 1080p natif c’est assez proche.&nbsp;




Cordialement, un joueur PC qui n'a pas de next gen (Ah si une Wii U <img data-src="> )









30 fps maîtrisé != 30 fps standard



Le fameux 30 fps consoles, c’est du 30 fps de film, avec l’effet de flou etc pour donner un effet réaliste. Sur PC quand c’est limité à 30 fps par les devs ça utilise les mêmes méthodes.



Amuse toi avec çahttps://frames-per-second.appspot.com/ <img data-src=" />









RinSa a écrit :



30 fps maîtrisé != 30 fps standard



Le fameux 30 fps consoles, c’est du 30 fps de film, avec l’effet de flou etc pour donner un effet réaliste. Sur PC quand c’est limité à 30 fps par les devs ça utilise les mêmes méthodes.



Amuse toi avec çahttps://frames-per-second.appspot.com/ <img data-src=" />





Merci mais je connais, et je répète, les gens s’en foutent. La preuve ça empêche pas d’en vendre des next gen, et les jeux avec.&nbsp;



PS : Bien sûr que si on pouvait avoir du 1080p @60fps pour tous les jeux sur next gen ça serait génial, j’en serai le premier contant. Mais comme j’ai dit, si on prend la population consoleux, ils en ont rien à faire, de toute façons ils sauront pas faire la différence. <img data-src=" />









Aces a écrit :



Ce sont les constructeurs qui ont dit ça, Kevin ne fait que redire ce qui a été dit.

Après, il évident que je ne vais pas comparé une Ps4 et mon futur MSI à 2500€.





Dans la mesure où une machine à 450€ fait mieux que les PS4 et Xbox One …&nbsp;









fraoch a écrit :



Mdr oui oui directx 12 va combler le manque d’unités de calculs….. Si ca se trouve grace a directx 12 la x1 affichera du 4k et pulverisera le pc……..&nbsp;





Non &nbsp;en effet mais ça permet de réduire le &nbsp;CPU bottleneck quand celui ci est un peu faiblard.&nbsp;

Pas de magie mais tu pourras au moins être sur que ce n’ai pas le CPU qui limite.&nbsp;

Ou sinon ça sera la même merde car les dev en profiterons pour codé des IA encore moins opti.



vinceff a écrit :



A voir, mais c’est clair que ça en fera pas des chevaux de courses.

Peut être réequilibrer le match one vs ps4 là par contre probablement.&nbsp;





Ça c’est bcp plus probable mais je pense ( car il y aura tj plus d’unité de calcul GPU du coté de la PS4) que l’on aura:




  • PS4 plus de détails graphiques mais moins de “vie”

    -XbO moins de détail graphique mais plus de “vie”

    Vie: IA, nombre PNJ, nombre de joueur en multi, mouvement végetation ect…&nbsp;



    &nbsp;A chacun de voir, quoi qu’il en soit, d’un coté comme de l’autre, la promesse de E3 2012 n’est pas tenu de toute façon.

    &nbsp;









Cara62 a écrit :



Merci mais je connais, et je répète, les gens s’en foutent. La preuve ça empêche pas d’en vendre des next gen, et les jeux avec.&nbsp;



PS : Bien sûr que si on pouvait avoir du 1080p @60fps pour tous les jeux sur next gen ça serait génial, j’en serai le premier contant. Mais comme j’ai dit, si on prend la population consoleux, ils en ont rien à faire, de toute façons ils sauront pas faire la différence. <img data-src=" />





Oui, je soutiens ce que tu dis, si c’est du 30fps maîtrisé, c’est pas la mort et les gens ne font quasi pas de différence. Quand on m’a dit que la beta de The Crew sur PC était bridée à 30 fps j’étais choqué, je n’avais pas trouvé ça désagréable du tout.









calimero1 a écrit :



Oui et … non: d’un coté le 900p ou 30ips n’est pas un drame d’autant que les consoles font un upscalling de qualité et que les TV n’ont pas la même latence que les moniteurs. De plus tout le monde ne joue pas en fullHD@60fps sur PC (je n’ai qu’une GTX 660).

Dans la pratique une fois en jeu tout cela n’est pas dramatique.

D’un autre coté une bonne partie des joueurs PS3 ayant gouté à wipeout HD (1080p@60fps) ont vu une différence sur de bons ecrans et ceux là en redemandent.

C’est comme les joueurs PS2 qui ne juraient que par les versions import en 60 hz. En caricaturant Faut pas croire que le public console n’est qu’un ramassis d’aveugle ou que tous les joueurs PC sont omnibulés par le dernier cri en qualité d’image. Donc la promesse du full HD pour cette gen les met un peu sur les crocs.





Le seul truc qui ne va pas dans ce que tu dis c’est qu’une GT^^) est capable de faire du fullHD 60ips … j’ai une GTX570 et elle le fait … je n’ai aucun probleme a jouer a des jeux comme bf3/4 en fullhd avec un bon framerate









RinSa a écrit :



Oui, je soutiens ce que tu dis, si c’est du 30fps maîtrisé, c’est pas la mort et les gens ne font quasi pas de différence. Quand on m’a dit que la beta de The Crew sur PC était bridée à 30 fps j’étais choqué, je n’avais pas trouvé ça désagréable du tout.





C’est ça le problème je comprends pas pourquoi \(ony et M\) ont basé leurs comm la dessus, &nbsp;maintenant à chaque fois on a le droit à une news d’un éditeur pour nous dire qu’ils peuvent pas faire du 1080p 60fps etc…. Même si les gens ne savent pas la vraie différence, ils vont quand même répéter comme des moutons que sur telle console c’est mieux blabla… Pour moi ça reste une erreur marketing…&nbsp;









David_L a écrit :



Non, le propos c’était : on nous a promis des consoles au niveau des PC actuels, alors qu’une console galère déjà avec du 900p pas top, que les PC peuvent gérer ça les doigts dans le pif et peuvent même déjà gérer du 4K ou du 3x 4K. Après oui le tarif n’est pas le même, mais c’était surtout pour évoquer que de vouloir indiquer que les consoles étaient d’un point de vue technique au niveau des PC était une ânerie, ce qui se vérifie dans la pratique, et bien que le tarif des consoles soit minoré par la pratique commerciale du secteur.





Mais comme j’ai dit, la notion de pc actuel ne veut rien dire, meme si il est vrai qu’un pc de milieu d gamme a 6-700€ va facilement te faire de la fullhd a 30+ips mais la encore, budget different mais et surtout, tu n’as pas de tri ecran et encore moins de 4k … donc je vois pas l’interet de parler de cela a moins qu’ils aient expressement promis de faire aussi bien que la 4k …



c’est juste vouloir faire du sensationnel sur un discours de marketeux … oui c’est une connerie de faire la comparaison, mais, excuses moi, je trouve que c’est aussi une belle connerie que de vouloir amener la 4k sur 3 ecrans dans la conversation au vu des differences evidentes …









Gilbert_Gosseyn a écrit :



Au contraire, le CPU (et GPU aussi) de la PS4 est légèrement plus rapide et voit sa fréquence augmentée par rapport à celui de la XOne. De plus le GPU de la PS4 a plus d’unités de traitement que celui de la XOne.





Heu… non. Le CPU de la One est plus puissant. Cadence élevé (1.75 vs 1.6, de mémoire). Et la One a un certain nombre de DSPs spécifiques pour décharger encore plus le CPU (pour l’audio et l’upscaling notamment). Auparavant un partie du temps CPU était réservé au traitement vidéo pour Kinect, mais la maj de cet été à fait sauter cette barrière et les jeux n’utilisant pas kinect peuvent utiliser cette réserve.



Par contre, oui, le GPU de la PS4 à nettement l’avantage.









Charly32 a écrit :



&nbsp;D’après MS et Sony, le x86 était une demande des devs hein! <img data-src=" />



Ca se comprend aisément : le PC possède la même microachitecture depuis

plus de 20ans, alors les outils et les compétences sont là. Les

optimisation pour x86 sont connues et finalement seront un passage

obligatoire pour sortir les jeux sur PC. Du coup c’est beaucoup plus

rentable, tant financièrement que qualitativement d’avoir une

architecture commune : on ne perd pas son temps à apprivoiser une archi

différente tous les 5-7 ans, à en gérer 23 en même temps pour chaque

jeu.

Il vaut mieux utiliser quelque chose dont tu pourra tirer

parti à 100% plutôt que d’en utiliser une autre, plus performante sur

papier, mais que tu aura du mal à apprivoiser.

Enfin les consoles

de cette génération ont tout de même quelques différences, notamment au

niveau de la mémoire vive, unifiée entre CPU et GPU et offrant une bande

passante plus élevée que sur PC (qui peut représenter un goulot

d’étranglement sur ce dernier).





&nbsp;Oui je suis tout a fait d’accord avec ça. Mais ce choix n’est pas directement lié à l’expérience qu’ont les dev sur le x86, tout du moins pas directement. C’est d’abord et avant tout un choix de conception facile et à court terme. Quasiment depuis le début le JV les consoles se démarquent par leurs capacités spécifiques à générer des éléments que les autres machines (entendre le PC) ne font pas. En contrepartie c’est au détriment de l’accès “facile” au développement. Ça les dev l’ont toujours accepté et c’était même un défis pour certains de connaitre les entailles de la bête.



Or le contexte actuel c’est pas de créer une plateforme c’est de faire au plus simple quitte à uniformiser le rendu, la façon de développer et au final faire en sorte que la plateforme disparaisse. Quand MS a commercialisé sa 1ere XBox il a choisi une archi X86 pour aller au plus vite et pénétrer le marché en ayant le support de dev déjà expérimenté sur DirectX. Puis, arès avoir investit le terrain, avec la 360 ils sont passé à quelque chose de plus “console” plus spécifique mais aussi baucoup plus efficace dans le temps. Et on le voit bien aujourd’hui.



Les consoles actuelles sont un patch à l’incapacité de MS et Sony d’offrir un hard compétitif en terme de puissance et de pérennité. Il suffit de constater que la PS3 et la 360 sont encore bien en forme et encore activement supporté, chose totalement exceptionnelle dans le monde des console. Même la PS2 avec ses ventes colossales n’a pas été supportée aussi bien lorsque la PS3 est apparue sur le marché.



MS et Sony sont en train de scier la branche sur laquelle ils sont assit, à savoir que les consoles doivent avoir une identité technique pour fonctionner auprès du public. En uniformisant le marché ils risquent (c’est peu être voulu) de faire disparaitre ce concept de machine dédié au jeu vidéo et/ou a un type de jeu vidéo (comme l’était l’Arcade par exemple). Ironie du sort, dans tout ça Nintendo est le seul à continuer comme avant et se casse les dents face aux studio qui n’ont plus envie d’investir du temps dans le “domptage” d’une console étant donné que&nbsp; chez la concurrence ils ont l’expérience de dev clef en main. Et ce, juste a cause du choix des 2 autres qui savaient très bien qu’en jouant la carte de l’uniformité ils mettraient des battons dans les roues du vieux japonais.









Dr.Wily a écrit :



MS et Sony sont en train de scier la branche sur laquelle ils sont assit, à savoir que les consoles doivent avoir une identité technique pour fonctionner auprès du public. En uniformisant le marché ils risquent (c’est peu être voulu) de faire disparaitre ce concept de machine dédié au jeu vidéo et/ou a un type de jeu vidéo (comme l’était l’Arcade par exemple). Ironie du sort, dans tout ça Nintendo est le seul à continuer comme avant et se casse les dents face aux studio qui n’ont plus envie d’investir du temps dans le “domptage” d’une console étant donné que&nbsp; chez la concurrence ils ont l’expérience de dev clef en main. Et ce, juste a cause du choix des 2 autres qui savaient très bien qu’en jouant la carte de l’uniformité ils mettraient des battons dans les roues du vieux japonais.





Au contraire, ils ne scient rien du temps ils s’assurent du support des studios et cela fonctionne vu que justement nintendo est laisse de cote de plus en plus … la console ne va surement pas disparaitre … les projet comme les steams machines sont plutot l’avenir au final car il y aura toujours des gens qui ne voudront pas ce prendre la tete et voudront une config toute prete pour jouer.



Au final une console ne sera vraiment plus qu’un pc avec un os specifique et quelque specificite, c’est d’ailleurs deja le cas …



L’intelligence artificielle limitée par le CPU, haha ça doit être pour ça que cette série a les combats les plus ennuyeux possible <img data-src=" />








Lafisk a écrit :



Mais comme j’ai dit, la notion de pc actuel ne veut rien dire, meme si il est vrai qu’un pc de milieu d gamme a 6-700€ va facilement te faire de la fullhd a 30+ips mais la encore, budget different mais et surtout, tu n’as pas de tri ecran et encore moins de 4k … donc je vois pas l’interet de parler de cela a moins qu’ils aient expressement promis de faire aussi bien que la 4k …



c’est juste vouloir faire du sensationnel sur un discours de marketeux … oui c’est une connerie de faire la comparaison, mais, excuses moi, je trouve que c’est aussi une belle connerie que de vouloir amener la 4k sur 3 ecrans dans la conversation au vu des differences evidentes …





Pour moi, ça reste du mensonge par omission. En se contentant de dire “plus puissant qu’un PC actuel”, dans la tête des gens, ça va sonner comme “plus puissant que n’importe quel PC actuel”. Alors oui en réfléchissant un peu on sait tout de suite que ça ne peut pas être le cas et que c’est évident.



&nbsp;Reste que l’argument marketing est énoncé comme tel, et qu’on y croit ou pas, le fait de l’énoncer comme ça reste une exagération (par manque de précision du contexte) volontaire, parce que bon faut être honnête “Notre console a 400 euros peut faire aussi bien que n’importe quel PC à 400 euros”. Ouais, super, qui achète un PC à 400 euros pour faire autre chose que du Word ?&nbsp;<img data-src=" />









feuille_de_lune a écrit :



Mais non ! PONG en 4K ! Ça ! Ça doit claquer sa maman !!!



Ça dépend, si c’est PONG, PONG HD ou PONG 4K.









Cartmaninpact a écrit :



L’intelligence artificielle limitée par le CPU, haha ça doit être pour ça que cette série a les combats les plus ennuyeux possible <img data-src=" />





Sans aller jusqu’à parler des combats, Assassin’s Creed brille pas vraiment par son IA, quand on voit les réactions des gardes qui sont incapables de se rendre compte qu’il y a un problème quand un mec tombe raide mort en pleine rue et qui l’oublient au bout de 5 secondes s’ils ne voient pas un mec s’enfuir en courant en agitant une lame à deux mains mais qui alertent toute la ville si tu as le malheur de les bousculer…









Lafisk a écrit :



&nbsp; la console ne va surement pas disparaitre … les projet comme les steams machines sont plutot l’avenir au final car il y aura toujours des gens qui ne voudront pas ce prendre la tete et voudront une config toute prete pour jouer.




 Au final une console ne sera vraiment plus qu'un pc avec un os specifique et quelque specificite, c'est d'ailleurs deja le cas ...








Ce ne sont donc plus des consoles. La console de jeu par définition est un matos dédié au jeu. Avec des capacités très spécifiques concernant la gestion d'un jeu vidéo. Capacité a la fois uniques et pas cher (les 2 étant souvent liés). Ce qui fait la spécificité du marché du jeu vidéo c'est la course à "l'unique".       






"J'ai un hard que tu n'as pas et donc la capacité à produire quelque chose d'unique que la concurrence ne peut reproduire"      






Exemple simple de l'époque MD/SNES avec les capacités spécifiques de zoom et scaling de la SNES face à la MD. Mais on peut prendre un exemple plus "récent". La Gamecube machine compacte, pas cher capable de gérer les nurb ou 8 sources lumineuses dynamique (en 2001 quand même).&nbsp; A coté une XBox 1 avec des shaders et plus de transistors, mais bien incapable de reproduire le rendu d'un Gamecube.      






Là, MS et Sony jouent avec le feu. En jouant la carte du multisupport facile ils risquent à un moment de perdre leur public. En tant qu'acheteur quel est l’intérêt de choisir une PS4 avec plus d’unités de traitement alors que ses jeux seront identique sur One ? En gros quel est l’intérêt de choisir une marque plus qu'une autre quand les jeux sont identiques sur les 2 supports ? Au bout d'un moment le joueur se sentira floué.     











Baldr a écrit :



Sans aller jusqu’à parler des combats, Assassin’s Creed brille pas vraiment par son IA,






Assassin's  Creed ca brille pas tout court. Cette série c'est le vide intersidérale enrobé d'un verni historico-racaille-esbrouffe-technique.








Dr.Wily a écrit :



Ce ne sont donc plus des consoles. La console de jeu par définition est un matos dédié au jeu. Avec des capacités très spécifiques concernant la gestion d’un jeu vidéo. Capacité a la fois uniques et pas cher (les 2 étant souvent liés). Ce qui fait la spécificité du marché du jeu vidéo c’est la course à “l’unique”.




 "J'ai un hard que tu n'as pas et donc la capacité à produire quelque chose d'unique que la concurrence ne peut reproduire"       






 Exemple simple de l'époque MD/SNES avec les capacités spécifiques de zoom et scaling de la SNES face à la MD. Mais on peut prendre un exemple plus "récent". La Gamecube machine compacte, pas cher capable de gérer les nurb ou 8 sources lumineuses dynamique (en 2001 quand même).&nbsp; A coté une XBox 1 avec des shaders et plus de transistors, mais bien incapable de reproduire le rendu d'un Gamecube.       






 Là, MS et Sony jouent avec le feu. En jouant la carte du multisupport facile ils risquent à un moment de perdre leur public. En tant qu'acheteur quel est l’intérêt de choisir une PS4 avec plus d’unités de traitement alors que ses jeux seront identique sur One ? En gros quel est l’intérêt de choisir une marque plus qu'une autre quand les jeux sont identiques sur les 2 supports ? Au bout d'un moment le joueur se sentira floué.







Je sais pas d’ou tu sors ta definition, une console est une equipement qui te permet de jouer a des jeux videos … c’est tout.



Les consoles actuelles sont des pcs modifies pour ne faire que du jeu, cela en fait bien des consoles .. sur le principe les anciennes consoles sont aussi toute des pcs avec une archi speciale …



La course a l’unique, c’etait avant, aujourd’hui les studios ne voient plus l’interet de depenser de l’argent pour avoir leur jeux sur toute les plateforme si il faut adapter son projet pour chaque plateforme, et c’est tout a fait logique, c’est de l’argent gaspille pour pas grand chose au final …



Tu prends l’exemple de la gamecube et encore une fois c’est un mauvais exemple car aussi bien la 64 que la gamecube ont eu des succes plutot mitige, y’a de tres bons jeux dessus mais le succes de ces 2 consoles reste bien inferieur a la concurrence (sony pour l’epoque la xbox 1 ayant eu un succes tres mitige aussi)



Autant j’aime bine les consoles et les jeux de nintendo, qu’actuellement la strategie vouee a l’echec c’est bien celle de nintendo … les producteurs de contenu reclame du standard et c’est eux qui dirigent le marche pas les contructeurs, contrairement a avant…



Pourquoi choisir une marque plus qu’une autre ? Tu as deja une generation de retard, les portages etaient deja legende sur ps360, le catalogue est en grande partie similaire tout de meme et a l’avenir il le sera de plus en plus … seul les exclus font la difference, et encore.



Avoir des fonctionnalites unique c’est bien mais ce ne sont plus les constructeurs qui dirigent le marche et c’est bien cela qui fait mal a nintendo. Avant les studios etaient dependant des consoles maintenant c’est plutot l’inverse vu que la plupart des jeux sont multiplateformes donc tu t’adaptes et effectivement on arrivera a n;avoir qu’un seul acteur sur le marche des constructeurs peut etre. Apres y’a des trucs style stam machines, tu pourrais tres bien voir 23 configs type debarquee a different prix/specs et on appellera ca des consoles car dediee au jeu.



Pfiouuu… y’en a des commentaires pour pas grand chose ( le mien y compris ;) )



IMO tout cela n’est qu’un buzz pour faire parler du jeu.

Je joue (et j’ai joué) sur “à peu près” toutes les supports depuis ma console Radiola de 1979;

il y a toujours eu une gue-guerre entre fans de tel ou tel support. Les éditeurs ont compris depuis longtemps comment utiliser cela pour vendre plus.

&nbsp;

Pour les détracteurs des “PC-qui-coûtent-deux-fois-plus-cher-que-les-consoles-Next-Gen”: regardez le prix des jeux, il n’est pas vraiment le même…&nbsp;&nbsp;juste pour l’exemple: j’ai eu Batman Arkham Origins en pré-commande à 25euros sur PC, il était à 70€ environ sur les consoles… (OK, je sens les trolls à 2Km : on s’en fout si le jeu n’est pas du goût de tout le monde).

J’ai aussi eu un tas de jeux en dépensant quelques € sur les Humble Bundles…

&nbsp;

Et pour faire taire les trolls sus-nommés:&nbsp;j’ai aussi une Wii et une X-box, et j’en suis très satisfait.



Je suis bien d’accord avec ceux qui expliquent qu’un jeu ce n’est pas seulement de beaux graphismes ou une IA de folie,&nbsp;là c’était juste un mini coup de gueule un peu HS contre ce que j’appellerais “la Fan Attitude Outrancière”.


J’adore les gens qui dissent qu’une console coute 400€…



On oublie de parler du prix des jeux et accessoires mais surtout du online payant à 60€ minimum&nbsp;l’année.



La seule console qui ne coute pas cher c’est la WII U avec ses accessoires et jeux retro compatibles et son&nbsp;online gratuit, étonnamment sur cette plateforme on ne parle jamais des graphismes mais uniquement du plaisir de jeu, pour le reste il y a le PC.



Je retourne jouer à Mariokart 8 en 1080p et 60FPS… oups








Le concombre a écrit :



Pfiouuu… y’en a des commentaires pour pas grand chose ( le mien y compris ;) )



IMO tout cela n’est qu’un buzz pour faire parler du jeu.

Je joue (et j’ai joué) sur “à peu près” toutes les supports depuis ma console Radiola de 1979;

il y a toujours eu une gue-guerre entre fans de tel ou tel support. Les éditeurs ont compris depuis longtemps comment utiliser cela pour vendre plus.

&nbsp;

Pour les détracteurs des “PC-qui-coûtent-deux-fois-plus-cher-que-les-consoles-Next-Gen”: regardez le prix des jeux, il n’est pas vraiment le même…&nbsp;&nbsp;juste pour l’exemple: j’ai eu Batman Arkham Origins en pré-commande à 25euros sur PC, il était à 70€ environ sur les consoles… (OK, je sens les trolls à 2Km : on s’en fout si le jeu n’est pas du goût de tout le monde).

J’ai aussi eu un tas de jeux en dépensant quelques € sur les Humble Bundles…

&nbsp;

Et pour faire taire les trolls sus-nommés:&nbsp;j’ai aussi une Wii et une X-box, et j’en suis très satisfait.



Je suis bien d’accord avec ceux qui expliquent qu’un jeu ce n’est pas seulement de beaux graphismes ou une IA de folie,&nbsp;là c’était juste un mini coup de gueule un peu HS contre ce que j’appellerais “la Fan Attitude Outrancière”.





+100. Surtout que t’as les fans boys qui sont aveuglés par leurs conneries. Il y a&nbsp; 2 ans, ils ne savaient même pas ce qu’était de la RAM, le 1080p et autre. T’as mime un mec qui a essayé de me démontrer que la ps4 était plus puissante que “n’importe quel machine grâce à la ddr5, même un pc qui a que de la ddr3…”



Ca me fait doucement rigolo quand t’as des Fan-sony qui se plaignent que les versions sont downgradés pour passer sur la one, etc… On devrais dire quoi nous pcsistes ? &nbsp;(cf watchdogs et tous les autres …) Sinon perso j’ai la wii et la xone … Bien je suis très satisfait des usagers que je fais des 2



En reprenant cette phrase de l’article :&nbsp;

«&nbsp;Nous avons décidé de les verrouiller avec les mêmes caractéristiques techniques&nbsp;afin d’éviter tous les débats et ce genre de trucs&nbsp;».



&nbsp;Après 16 pages de commentaires, je pense qu’on peut dire qu’ils ont BIEN raté leur coup <img data-src=" />








Lafisk a écrit :



Il n’y a pas a attendre que le personnage ait fini de realiser une

action poru continuer les tours de decision … puis c’est pas comme si

chaque PNJ avait une IA propre … tout les PNJ sont dirige par une

seule et meme IA donc parralelise le tout est conceptuellement bine plus

malin …





Mais la tu prends le probleme inverse.

comment tu fais pour réaliser l’action qui découle de la décision avant que celle si soit déterminée ?



C’est le principe même du parallélisme il y a forcement des noeuds de synchronisation, si l’une des deux actions parallele traine elle entraine le ralentissement de tout le processus, bloqué au noeud de synchronisation.



Dans le cas du graphisme trop lourd, il y a des bypass (drop et autres) pour que l’affichage rattrape le retard. (on tranche completement&nbsp; dans le rendu pour ça)



Après plus je réfléchis moins je vois comment cela peut affecter les fps directement, qui n’est finalement que la fluidité du graphisme et non sa durée directement, donc normalement s’il y a probleme de synchro tu devrais avoir des freeze des actions et non une baisse de fps. (à moins que la baisse de fps soit due au trop d’allocation de la puissance proc à l’IA, en laissant trop peu pour la partie graphique pour qu’elle puisse correctement s’effectuer )

&nbsp;

Edith :

&nbsp;





tazvld a écrit :



En gros tu me dis qu’a l’heure actuelle, les IA font “Pause! Une seconde, je réfléchis là ! Tu peux fermer les yeux s’il te plaît ?”, n’est ce pas finalement du lag d’affichage que tu génère là. Mais que l’IA réfléchisse ou pas, tu peux toujours générer la scène 3D où de toutes façon, rien ne se passe. Que tu ne produise pas d’image pendant la boucle décisionnelle ou que tu en produise, la seul différence c’est la sensation de fluidité.



Je ne vois pas le problème si tu gères ça dans 2 boucles indépendantes asynchrone ? Les IA n’ont pas besoin des graphismes pour vivre leurs vie. Les graphismes, eux, ont juste besoin de connaître l’état des IA à un moment donné. Il n’y a même pas besoin que ce moment soit extrêmement précis, il faut qu’ils soit juste un laps de temps pour suffisamment petit pour que ce soit imperceptible.

La seul limitation de cette façon de faire, c’est géré les locks sur les variables. La boucle d’affichage, pour eviter tout bug (problème de lecture et d’écriture simultanée), doit locker une IA lorsqu’il est en train de lire son état (il peux juste en faire une copie pour le locker le moins longtemps possible)





effectivement tu peux générer une scène 3D mais rien ne se passe, et a priori aucun prob sur les fps (même si l’action/décision dans le jeu est figée). Mais surcharger le proc (avec un calcul IA) peut faire peiner la partie graphique il me semble. Après comme je dit juste au dessus, + multi coeurs toussa, ça me semble un peu gros quand même comme justification.



Il faut pas oublier qu’une partie des taches graphiques incombent au CPU. Le calcul des animations par exemple. Si le CPU est occupé par l’IA, ce calcul ne peut plus se faire dans les temps. Et cela influence le fps.



Rajoutez a cela le fait que la mémoire est commune et que la bande passante mémoire vs CPU/GPU l’est aussi. Ce qui est utilisé par le CPU niveau BP ne peut plus l’être par le GPU.



Donc pour ces deux raisons, oui un grand nombre d’IA influencera le framerate d’un jeu. Pour la définition, c’est le même ordre d’idée.



Quelqu’un plus haut parlait du GPGPU, oui en théorie on peut faire faire des calculs CPU sur le GPU. Bon en pratique cela marche pas avec tous les calculs. Mais surtout cela bouffe de la puissance niveau GPU qui ne pourra plus être utilisé pour les graphismes.



Comme le monsieur le dit lui même, si c’était juste pour afficher, les deux consoles feraient du “100” fps. Sauf qu’il y a plus que l’affichage a gérer.








burroz a écrit :



&nbsp;Et la console sera étanche, non?





Oui oui biensur !









cronoskev a écrit :



Non &nbsp;en effet mais ça permet de réduire le &nbsp;CPU bottleneck quand celui ci est un peu faiblard.&nbsp;

Pas de magie mais tu pourras au moins être sur que ce n’ai pas le CPU qui limite.&nbsp;

Ou sinon ça sera la même merde car les dev en profiterons pour codé des IA encore moins opti.

Ça c’est bcp plus probable mais je pense ( car il y aura tj plus d’unité de calcul GPU du coté de la PS4) que l’on aura:




  • PS4 plus de détails graphiques mais moins de “vie”

    -XbO moins de détail graphique mais plus de “vie”

    Vie: IA, nombre PNJ, nombre de joueur en multi, mouvement végetation ect…&nbsp;



    &nbsp;A chacun de voir, quoi qu’il en soit, d’un coté comme de l’autre, la promesse de E3 2012 n’est pas tenu de toute façon.

    &nbsp;





    Tu crois vraiment que le peu de difference en fréquence entre les 2 proc va faire une si grosse différence notable a l’ecran ? J’en doute et surtout que sony peut tout aussi bien appirter les memes ameliorations et que leur console a une memoire plus rapide et deux fois pkus d unites de traitements pour CG…. Bref de toutes façons comme tu le dis, les promesses ne sont pas tenues









Dr.Wily a écrit :



Ce ne sont donc plus des consoles. La console de jeu par définition est un matos dédié au jeu. Avec des capacités très spécifiques concernant la gestion d’un jeu vidéo. Capacité a la fois uniques et pas cher (les 2 étant souvent liés). Ce qui fait la spécificité du marché du jeu vidéo c’est la course à “l’unique”.




 "J'ai un hard que tu n'as pas et donc la capacité à produire quelque chose d'unique que la concurrence ne peut reproduire"       






 Exemple simple de l'époque MD/SNES avec les capacités spécifiques de zoom et scaling de la SNES face à la MD. Mais on peut prendre un exemple plus "récent". La Gamecube machine compacte, pas cher capable de gérer les nurb ou 8 sources lumineuses dynamique (en 2001 quand même).&nbsp; A coté une XBox 1 avec des shaders et plus de transistors, mais bien incapable de reproduire le rendu d'un Gamecube.       






 Là, MS et Sony jouent avec le feu. En jouant la carte du multisupport facile ils risquent à un moment de perdre leur public. En tant qu'acheteur quel est l’intérêt de choisir une PS4 avec plus d’unités de traitement alors que ses jeux seront identique sur One ? En gros quel est l’intérêt de choisir une marque plus qu'une autre quand les jeux sont identiques sur les 2 supports ? Au bout d'un moment le joueur se sentira floué.      










 Assassin's  Creed ca brille pas tout court. Cette série c'est le vide intersidérale enrobé d'un verni historico-racaille-esbrouffe-technique.







Je suis d’accord pour dire qu’effectivement dans le passé les devs s’arrachaient les cheveux pour exploiter le matos au max. Par contre dire que la ps4 et la x1 ne sont pas des consoles est faux. Une console est un dispositif dont ka fonction première et principale est de permettre de joyer. Ce qu’elles font. Ce n’est pas le hardware qui fait que c’est une console ou pas mais sa fonction. Je l’ai deja dit mais une nes avait le meme processeur qu’un Apple 2, une game boy, game gear et master system avait un proc comme les amstrad cpc ou les spectrums, la megadrive avait le même processeur que les atari et amiga et la snes partage le sien avec l’apple 2gs. Et pourtant on disait que c’était des consoles. Et en y regardant de plus près elles etaient ni plus proches ni plus éloignées des ordinateurs dont elles partagent le hardwar enfin une partie….comme les ps4 et x1



Que les joueurs s’achètent des vieux moniteurs 720p ou 1280*1024&nbsp;<img data-src=" />. Le mien m’a coûté 50 euros il y a 2 ans et il est super (classe vintage hipster avec le design carré), le jeux bouffent moins et j’upscale pas :p. Je joue sur PC et 360.

Au Japon ils font encore beaucoup de tv 720p beaucoup moins chères que les 1080p, et jusqu’à 30 pouces !&nbsp;








fraoch a écrit :



Mdr oui oui directx 12 va combler le manque d’unités de calculs….. Si ca se trouve grace a directx 12 la x1 affichera du 4k et pulverisera le pc……..&nbsp;







et si microc$oft vire AMD pour un Pentium d’Intel ça accélérera même Internet <img data-src=" />









fraoch a écrit :



Tu crois vraiment que le peu de difference en fréquence entre les 2 proc va faire une si grosse différence notable a l’ecran ? J’en doute et surtout que sony peut tout aussi bien appirter les memes ameliorations et que leur console a une memoire plus rapide et deux fois pkus d unites de traitements pour CG…. Bref de toutes façons comme tu le dis, les promesses ne sont pas tenues





Les gains apporté par mantle avec une grosse CG et un petit proco sont plutôt impressionnant&nbsp; , cela devrait être la même avec DX12 je pense.&nbsp;

Après ici on a ni un gros proco, ni une grosse CG donc…. les gains ne risque pas d’être fous je pense.&nbsp;

Si je devais prendre une console cela resterait une PS4.

Ce qui m’en a empêché c’est le fait que les devs font systématiquement le choix des effets visuels par rapport au framerate et la résolution .



Perso ( mais cela n’engage que moi) je préfère un jeu moins “beau” mais non flou et vraiment fluide.



900p 30fps c’est flou et lent pour moi, et je trouve cela trop dérangeant.&nbsp;



&nbsp;Clairement les deux consoles sont capable de faire du full HD 40-60ips, il faut juste revoir certaines ambitions graphiques à la baisse.

&nbsp;









cronoskev a écrit :



Les gains apporté par mantle avec une grosse CG et un petit proco sont plutôt impressionnant&nbsp; , cela devrait être la même avec DX12 je pense.&nbsp;

Après ici on a ni un gros proco, ni une grosse CG donc…. les gains ne risque pas d’être fous je pense.&nbsp;

Si je devais prendre une console cela resterait une PS4.

Ce qui m’en a empêché c’est le fait que les devs font systématiquement le choix des effets visuels par rapport au framerate et la résolution .



Perso ( mais cela n’engage que moi) je préfère un jeu moins “beau” mais non flou et vraiment fluide.



900p 30fps c’est flou et lent pour moi, et je trouve cela trop dérangeant.&nbsp;



&nbsp;Clairement les deux consoles sont capable de faire du full HD 40-60ips, il faut juste revoir certaines ambitions graphiques à la baisse.

&nbsp;





Oui moi aussi je prefere une resolution un peu en dessous mais avec un meilleur framerate et/ou des effets visuels en plus









fraoch a écrit :



dire que la ps4 et la x1 ne sont pas des consoles est faux. Une console est un dispositif dont ka fonction première et principale est de permettre de joyer. Ce qu’elles font. Ce n’est pas le hardware qui fait que c’est une console ou pas mais sa fonction.





C’est sur que l’on est en 2014. Mais le premier brevet déposé pour une console de jeu (l’Odyssey) décrit le procédé technique, la mise en œuvre &nbsp;non pas un concept de machine dédiée au jeu. D’ailleur le termes console de jeu n’existait pas lorsque l’Odyssey est apparue. c’est venu bien après.



Une console de jeu, par rapport à un ordinateur généraliste, est une machine dont le rapport cout / fonctionnalités est basé sur une utilisation très spécifique : celle du jeu vidéo. Une console de jeu n’est pas un ordinateur. C’est une machine dont le hard est dédié à un tache spécifique : celle de créer l’interactivité. Cette utilisation spécifique dois pouvoir offrir les capacité nécessaire qui vont servir à la reproduction du jeu vidéo, à ses besoins. Petits exemples :





  • Odyssey : 1ere machine à avoir la capacité de contrôler un CRT et d’y afficher une image controlable par l’utilisateur.

    &nbsp;–&gt; besoin : rendre la TV active pour l’utilisateur

    –&gt; coté ordinateur on en était encore a “l’affichage” par teletype ou TTY en grande majorité

    &nbsp;

  • Fairchild Channel F : 1ere console intégrant un micro-contrôleur, pour donner plus de logique au jeu qu’un simple pong et également 1ere machine a demander un développement logiciel dont le soft est stocké en ROM. –&gt; besoin ne pas limiter la console à un seul jeu.

    –&gt; coté ordinateur : il faudra attendre l’Apple II en 1977 pour obtenir un équivalent “grahique” et “logique” en terme de jeu vidéo.



  • Atari 2600 : 1ère console a micro processeur et à déporter la totalité du soft en ROM.

    –&gt; Besoin créer un programme unique ne ressemblant pas aux autres.

    –&gt; coté ordinateur : on découvre les joies du 1er tableur…



    -NES : après avoir comblé les besoins primaires comme le dévellopement logiciel, le stockage, il reste à améliorer l’affichage.

    –&gt;&nbsp; besoin offrir une gestion des sprite et du scrolling qui “tranche” avec la concurrence qui stagme toujours sur les mêmes techno. 1ère console à offrir les sprite DMA et un scroling en hard.

    –&gt; coté ordinateur : les premiers micro grand public font leur apparition… question scrolling c’est pas trop ça…



    Après sont venu les graphismes plus colorés, le son plus réaliste, la 3D… tout l’éco système du jeu vidéo étaient basé sur ce que la concurence ne pouvait pas faire. Lorsqu’il n’existait rien, le mieux était d’affiché des formes que l’on pouvait bouger sur un écran de TV. Ensuite pour créer l’exclusivité il falait offrir ce que la concurence n’offrait pas. Cette “bataille” était essentiellement basée sur le hard. Tu inverses, en electronique c’est le hard qui crée la fonctionnalité. Je veux obtenir tel résulat : comment y parvenir ? Je veux telles fonctionnalités : de quels composants ai-je besoin ? Le hardware créé la foctionnalité.



    Dans le jeu vidéo, pour se démarquer de la concurence la fonctionnalité doit être unique. Aujourd’hui on a dépassé largement le stade des graphismes (tout du moins le rendu final) et on est plus ou moins entré dans l’évolution des prériphériques homme/machine. Mais le but est toujours le même, tenter d’innover en offrant une techno que les autres n’ont pas. Or MS et Sony avec leur console identiques sape ce foctionnment parce qu’ils tentent de changer la donne, en gros partir à long terme sur des plateformes de jeux et non plus des consoles. Avec la XBox One et la PS4 ils sont en train de préparer le terrain vers l’uniformisation. La console est donc à termes, amenée à disparaitre. Seul Nintendo continu dans “l’ancien” modèle.



    Tient j’ai une analogie :



    Les émulateurs imites les console. Pour découvrir c’est bien, mais rien ne remplacera la machine d’orrigine. Le feeling sera toujours meilleur sur la vraie machine plutot qu’en émulation. Pourant l’émuateur reproduit a quasi 100% le jeu d’orrigine. En tout cas sont concept (joué) et tout la chaine qui s’en suit (affichage, son, interactivité).



    Une Steam Machine pourait très bien faire office de console, c’est compact l’OS est concu pour l’acces immédiat aux jeux… comme sur console. Mais ce n’est pas une console, c’est un “émulateur” du concept de console. Il n’y a rien dans une Steam Machine qui la diférencie d’une autre Steam Machine mis a apart une carte vidéo identique mais avec… plus de processur de flux. Rien d’unique en somme.&nbsp; Ce n’est pas le soft qui cré la console c’est le hard.



    Bientot certain dévellopeurs seront des hipsters du jeu vidéo. Ils créront des pseudo consoles sofware avec des graphsimes pixel-like comme “dans le temps” sans même connaitre l’orrigine du concept de la console de jeu vidéo.







    fraoch a écrit :



    Je l’ai deja dit mais une

    nes avait le meme processeur qu’un Apple 2, une game boy, game gear et

    master system avait un proc comme les amstrad cpc ou les spectrums, la

    megadrive avait le même processeur que les atari et amiga et la snes

    partage le sien avec l’apple 2gs. Et pourtant on disait que c’était des

    consoles. Et en y regardant de plus près elles etaient ni plus proches

    ni plus éloignées des ordinateurs dont elles partagent le hardwar enfin

    une partie….comme les ps4 et x1





    Partager le même CPU ne veux absolument pas dire avoir la même archi. Dans les consoles que tu cites les CPU n’étaient pas le critère principal en terme de fonctionnalité. Ils étaient même secondaires par rapport aux autres puces constituant la machine. Ce sont ces autres puces qui faisaient la diférence de fonctionnalité. La Megadrive partage le même CPU (68000)que de très nombreuses autres machines (Amiga, Atari, arcade…) et pourtant seule la Megadribe est la Megadrive. La diférence flagrante entre un Atari St et un Amiga partageant aussi le même CPU. Un CPC ne faisait pas le poid face à une Master System ayant le même CPU et moins de RAM. Le fait que ce soit le jour et la nuit graphiquement entre une SNES cadencé a 3Mhz et une Megadrive à 7Mhz. Le fait que la NeoGeo semble écraser techniquement toutes ses concurentes alors qu’au final elle est beaucoup plus limitée que la concurence. Ou tout simplement imaginer un jeu comme F-Zero Gx tourné sur un Power mac G3 qui partage… le même CPU que le Gamecube. Effecitivement tès improbable.



    Avoir simplement le même CPU est très différent d’aujourd’hui ou non seulment l’archi est la même, mais aussi celui de la puce vidéo basées toutes sur la même techno (processurs de flux, shaders), sur les mêmes langages, sur les même framework… ce qui donne les même jeux. On est très très loin de la simple similitude entre CPU dans les anciennes machines. Ces machines étaient des consoles parce qu’elles faisaient ce que les ordinateur ne faisaient pas. D’aileurs, il n’y avait pas vraiment de comparaisont odinateur / console. La console étant vendu en magasin de jouaets, par l’ordi… On étaient même pas sur le même produit du tout (les console VTech sont elles des consoles ? Des ordi ou juste des jouets ? <img data-src=" />).



    Assurément, chaque console avait ses propores capacités, lacunes, et spécificités uniques ce qui rendait le monde du jeu vidéo bien plus riche qu’il ne l’est aujourd’hui.



La nouvelle version de PCi c’est bien, mais l’édition des commentaires est toujours aussi limitée. Je fais l’effort de me relire et au final je n’ai pas le temps de corriger mes fautes. Faites quelque chose la dessus c’est vraiment pénible !