À peine sorties, les consoles de nouvelle génération font déjà parler d'elles... pour leurs lacunes sur le plan matériel. Alors que la plupart des studios saluaient l'arrivée de machines plus performantes sur le marché, du côté de chez Crytek, on apprécie les nouveautés, mais on tire déjà la sonnette d'alarme concernant certains de leurs aspects.
Qu'il s'agisse de la PlayStation 4, de la Wii U ou de la Xbox One, les consoles de nouvelle génération ont apporté un surcroît de puissance non négligeable. Si pour l’ensemble des studios, cela est une excellente nouvelle, puisque cela leur ôte un bon nombre de contraintes, d'autres comme Crytek pensent déjà à la suite. Pour eux, les limitations que les développeurs ont pu connaître ces dernières années ne vont pas tarder à se montrer de nouveau.
Selon Sean Tracy, le responsable du développement commercial du moteur CryEngine, le goulot d’étranglement se situerait au niveau de la mémoire vive des machines. Leur fréquence ou leur bande passante ne seraient pas en cause, seulement leur quantité. « Je suis d’accord avec le point de vue expliquant que 8 Go peuvent être très facilement remplis, mais il faut aussi garder à l’esprit que les développeurs n’ont pas accès à tout cela. Par exemple, la Xbox One réserve une partie de la RAM pour les besoins de son système d’exploitation », explique le responsable à nos confrères de Gaming Bolt.
Sean Tracy affirme tout de même que lors du développement de Ryse : Son of Rome, ses équipes « ont dû gérer de façon plutôt intense l’utilisation de la mémoire vive, et cela sera très certainement l’un des facteurs limitants de cette génération ». Cela étant, la situation reste bien plus confortable pour les studios avec 8 Go de mémoire, qu’avec les 512 Mo disponibles sur la Xbox 360.
Quoi qu’il en soit, limitations ou non, les développeurs devront faire avec et jusqu’ici les premiers titres tranchaient nettement du point de vue des graphismes avec ceux de la génération précédente. Pour les amateurs de consoles de salon, c’est tout ce qui compte. Pour le reste, nos chers PC ont encore de beaux jours devant eux.
Commentaires (240)
#1
Apprenez à coder !!!
#2
là où il aurait pu avoir raison, c’est si les jeux consoles supportent le 4K
#3
#4
Pour Crytek, les 8 Go de RAM seront rapidement limitants sur les consoles
Il voulais pas dire : Les consoles sont limitants? :p
#5
IMO il y a des baffes qui se perdent. " />
#6
+1
#7
Étonnant que cela vienne de Crytek, Ryse est sans conteste le jeu le plus abouti visuellement de la XOne.
Après, ils sont peut être justement bien placés pour le savoir. " />
#8
Sans déconner, 8 Go de RAM pas suffisant pour les jeux ?
Qu’il y ait de gros besoin de mémoire “graphique”, OK. Y’a de plus en plus de textures, etc.
Mais 8 go de RAM, mis à part pour gérer des 10aine de milliers d’instances de troupes, j’ai du mal à voir comment ça peut être exploité “à fond” …
Je pense à “supreme commander”, qui lors de sa sortie était handicapé par les Exe, car ils étaient limités l’adressage de 2Go de RAM en 32 bits
Si vous avez des exemples “précis” pour les 8 Go, je suis prenneur.
#9
Ces mecs-là faisaient les mêmes reproches aux consoles de 2005. L’idée c’est de gueuler contre les limites des consoles et traiter les joueurs sur PC d’enculés de pirates. Là les mecs de Crytek se sentent vivre, enfin.
#10
#11
#12
Je pense qu’ils se seraient plaints si les consoles n’avaient offert que 32 Go. " />
#13
#14
Que Microsoft se soit un peu planté sur la config des 8Go, à la limite, passe encore. Mais pour la PS4, Sony avait pourtant bien fait une table ronde avec les développeurs pour la config matérielle nécessaire.
Et maintenant ils viennent dire qu’ils n’en ont déjà pas assez " />
#15
#16
#17
#18
#19
#20
#21
Et comment ils faisait avant avec le 4 Mo de la PS1 pendant que sur PC on en a fait 64 ou plus et ne parlons même pas la Snes : 128 Ko. " /> Bref, avant ils optimisé à mort l’utilisation de la RAM… maintenant dès qu’il faut le faire c’est un problème.
#22
#23
En 1996, mon tout premier PC avant un disque dur de 1Go. et 8 MO de RAM.
J’avoue, j’ai buggé quand l’ai lu le titre de l’article…
#24
#25
#26
Je vois pas le problème, suffit de vendre des memory pack à brancher sur la manette comme ‘lavait fait Nintendo avec Majora’s Mask sur N64
#27
#28
Ouais enfin bon, faut voir aussi.
8 Go, c’est effectivement limitant si c’est pour pouvoir compter les poils du menton d’un gus à CoD situé à 15 km avec le zoom de la lunette x1000. Sans parler, qu’on veut aussi voir son reflet dans la flaque d’eau devant lui ainsi que la fumée de son cigare dans ce reflet.
Il y a un moment, faudra arrêter avec l’ultra réalisme, c’est sympa mais je préfère 100 fois l’immersion qu’offre un jeu comme Mass Effect 3, pourtant ça fonctionne sur un netbook et une HD graphic, juste 4 Go de RAM et c’est déjà utilisé par l’OS.
#29
#30
Soupir…..
Le jour ou ces mecs là apprendrons qu’une texture de poubelle qui fait dix pixels à l’écran max en 4096*4096 ca sert à rien on aura fait des progrès.
Au moins Unreal a appris de ces erreurs et permet justement grace à des données d’utilisation de savoir quel est le mip map le plus utilisé pour redimmensionner les textures.
#31
Non mais un jeu ne devrait pas faire 50go déjà…
La différence n’est pas si visible que ça en plus. C’est plus lisse mais est ce que c’est due uniquement au texture HD ou à la résolution ou les deux !?
Bref cette génération est mauvaise de base par son architecture SoC APU qui ne tient absolument pas ses promesses.
#32
Vu de loin j’ai pas l’impression que ce soit le facteur le plus limitant, je dirais que le facteur le plus limitant c’est la puissance brute pour sortir du Full HD en 60 FPS " />
#33
Certain oublient juste la duree de vie des consoles, autant 8Go ca peut suffire aujourd’hui mais dans 5-6-7ans ? vu combien de temps la generation de console precedente a vecu, qui sait quels seront les besoin precis dans quelques annees. les xbox 360 et ps3 tourne avec genre 512mo de ram si je ne m’abuse la ou les PC sont deja vers les 2Go mini vois 4Go … donc la limite va vite etre atteinte a mon avis car ils vont surement vouloir charger plus de chose a un instant t etc…
#34
faut voir que les 8Go sont partagé avec la carte graphique, non ? donc plus tu donne a l’un, moins l’autre en a.
bon après, a mon gout, cette génération de console est morte née. A sa sortie, elles sont même pas capable de gérer les résolutions native a des tauc de rafraîchissement acceptable. les développeurs sont déjà obligés de faire des compromis,…
et on annonce déjà les TV 4K, pauvre consoles, …
#35
#36
#37
#38
#39
#40
#41
#42
#43
Faut voir aussi que l’orientation actuelle de la plupart des moteurs, c’est d’empiler les couches de textures pour avoir un rendu plus réaliste : la texture “couleur” classique, avec une texture de brillance par dessus, d’illumination, de relief etc… le but étant d’avoir de jolis jeux de lumière sur la surface au lieu d’un bête aplat de couleur comme il y a dix ans. Et mine de rien, si on veut une surface pas trop pixellisée et qu’on empile une bonne quantité de textures dessus, bah ça bouffe de la place. C’est pas une question d’optimisation du code, y’a un moment où faut bien stocker les assets.
#44
Quelqu’un disait: si ton jeu est composé de carrés et qu’il est malgré tout amusant à jouer, c’est qu’il est bon.
#45
OK, mon prochain PC devra au moins contenir 16Go si je comprends bien, vu que 8 vont être très vite limitant.
#46
#47
#48
#49
#50
#51
#52
Le problème, c’est pas la quantité de RAM, mais l’utilisation qui en est faite… Les mecs sortent des consoles avec les mêmes composants qu’un PC mais arrivent a obtenir un truc complètement bâtard " />
La mémoire partagée, on sait ce que ça donne, suffit de voir les PC portables avec une telle configuration, payes tes perfs miteuses " />
Concrètement, ils auraient fait leurs consoles avec 16Go de RAM, un proc quad core et une CG avec 4/6Go de mémoire vidéo ça aurait été mieux et au moins la solution serait viable dans le temps…
Quand je vois des PC’s à 400⁄450 euros plus performant, bah je me gausse allègrement " />
#53
#54
#55
Je comprend pas les commentaires qui s’en étonne.
8go partagé entre le CPU et le GPU, dont une partie est réservé au système, ça correspond plus ou moins à 2Go CPU pour le système, 4Go CPU pour le jeu, et 2Go pour le GPU. Enfin j’en sais rien, mais je pense que c’est à peu près ça l’ordre de grandeur.
Et si clairement c’est pas dégueu aujourd’hui (ça correspond à un pc de jeu moyen), les télés HD 4K sont en train d’arriver dans les salons, et les consoles vont devoir faire avec cette définition.
Bref ça ne m’étonne pas que Crytek soit déjà capable de se dire que c’est la taille de la RAM qui va poser problème quand viendra l’heure de sortir des jeux en HD 4K.
#56
#57
#58
#59
faut dire que partager la ram entre le cpu et GPU alors que pour l’un on dois utiliser de la ddr3 classique pour le CPU alors que la GDDR5 s’emploie dans le GPU, ya un mega différence et la conception des consoles est donc en soi débile… alors qu’ils viennent pas se plaindre et qu’ils codent que sur pc si ca les emmerdes d’avoir des limitations…
puis j’te jure regardez vanquish sur ps3, si avec une puissance 8 il font pas 8 sur le reste ya un soucis…
#60
Comme ça ils pourront se concentrer sur le gameplay " />
#61
#62
#63
Moi les beaux jeux, à la limite je m’en tape. Nul besoin d’images au piqué infini. Le plus important est le scénario, l’interaction des bots… Quand je joue, j’ai pas le temps de regarder les paysages et les briques des murs. Je cherche juste à sauver ma peau. " />
Maintenant, si la majorité des joueurs ne comprennent pas qu’on essaye de leur vendre des CG, de la ram et des écrans sous prétexte d’une expérience inouie, de l’immersif visuel en veux-tu en voilà, c’est leur porte-monnaie hein…
#64
#65
N’importe quoi. Dans les années 80⁄90 les dev se débrouillaient très bien avec quelques Ko… et sans le Net. Là il pleurent avec 8Go de ram ? Mais vraiment n’importe quoi !
Les limites c’est ce qui stimulent l’imagination, et là les limites elles sont quand même bien loin.
De plus en plus dans les jeux vidéo, les dev occidentaux cherchent comme des tarés à ce que ce soit le plus confortable à développer. Or leur métier de développeurs c’est bien de coder SELON le support. Et pas de pondre un truc standard qui tourne sur tout et n’importe quoi.
En gros on dirait qu’ils font un métier qu’ils détestent… ça a bien changer le monde du JV " />
#66
#67
#68
Je me rappelais pas que la génération précédente n’avait que 512 Mo de RAM, fichtre " />
#69
#70
#71
#72
#73
arg bug
#74
#75
Ils auraient pu faire des efforts avec ces consoles next-gen. Si j’ai a changer ma ps3 ou 360, je doit m’attendre a une certaine evolution materiel se rapprochant d’un PC de gameur actuel 1000e (et encore si on est malin, on peut pousser le prix vers le bas et toujours profiter de 1080p en ultra).
Du coup, payé 400e la PS4 ou Xbox One et savoir que les jeux vont parfois se limiter en 900p " />
Bon apres pour la mémoire c’est pas forcement une histoire de savoir coder ou pas. Je pense que les DEV c++ dans ce secteur, savent tres bien utiliser les alloc, malloc et compagnie " />
#76
#77
#78
#79
#80
#81
comment ils faisaient sur PS1 ? bah il faisaient ça :
http://www.game-rave.com/psx_galleries/battle_tombraider/compare_people.jpg
(source : comparatif avec la saturn sur ce site :http://www.game-rave.com/psx_galleries/battle_tombraider/index.htm )
#82
#83
#84
#85
disons que deja au lieu de se palucher avec des textures hd qui prennent toute la place ils essayeraient de bosser/developper sur des shaders ou textures procédurales hein, ca irait deja mieux (mais du coup le cpu serait bcp plus sollicité… ils pourraient alors dire que c’est le cpu qui les limite)
#86
#87
#88
#89
#90
#91
#92
#93
#94
#95
c’est simple suffit de diviser par 2 la taille des textures.. sauf sur pc :p
#96
#97
#98
#99
#100
#101
#102
@Dr Wily
Et l’“optimisation” dont tu parles est une discipline essentiellement soutenue par l’industrie que tu dénonces et ses impératifs de rendement.
N’importe quel programmeur soucieux de la “beauté du code” privilégiera l’élégance mathématique d’un algorithme à ses performances brute sur une architecture donnée. Lis Donald Knuth tu vas changer d’avis sur la question.
#103
#104
#105
#106
#107
#108
#109
#110
#111
#112
#113
#114
#115
#116
#117
les jeux lancent une instance de photoshop pour appliquer des filtres maintenant ???
#118
#119
#120
#121
#122
#123
Qu’ils nous gardent des textures en 900p et qu’ils nous fassent des bons jeux.
A la distance où est mon canap’ de la télé je vois très peu les détails, mais quand je vois ce que la Xone peut nous donner genre un Dead Rising 3 avec un massacre de plusieurs centaines de zombies à l’écran, le tout fluide, ça me suffit et je ne regrette pas mon investissement.
Utilisez la RAM à nous faire de bons jeux fluides !
(Perso sur X360, je trouvais les jeux peut-être moins lisse mais plus fluide -exemple read dead redemption ou GTA4-, alors que la PS3 était plus puissante sur le papier)
#124
Mouais, faut pas déconner…
On a eu de très belles réalisations avec 512Mo de RAM sur les consoles précédentes. Si ils sont incapables de tirer parti de 16 fois plus il va falloir qu’ils se remettent en question. Personnellement je pense surtout que c’est le processeur graphique qui va montrer ses limites avant la quantité de RAM.
#125
#126
#127
#128
#129
#130
#131
Je suis encore à seulement 4 Go sur mon PC, et j’ai pas trouvé un seul jeu qui en bouffe la moitié…chercheztrouvez l’erreur.
#132
#133
#134
#135
#136
S’il ne veut pas utiliser les 8go de ram, faut juste déveloper intelligemment !
Si GTA 4 chargerait toute la ville c’est pas 4Go qu’il faudrait. Il faut ête malin et toutes les techniques de gestion des textures n’existent pas pour rien.
#137
#138
#139
#140
#141
#142
#143
quand je lis les commentaires je me demande si certains melangent pas ram et vram
#144
#145
Et puis le jeu vidéo, hein… Les progrès ébouriffants en compression ces dernières années c’est grâce à la NASA et l’antenne foireuse de Galileo en 95, et les constantes magiques de Carmack c’est grâce à Matlab, donc bon… Si tu veux des héros du code aujourd’hui va plutôt gratter dans l’embarqué.
#146
Mouai, les textures en gros. Je suis de ceux qui considère qu’avant de surcharger une scène, il faut la rentre lisible. Je pense même que les jeux jouant trop sur leur graphisme sont ceux qui vieillissent les plus mal dans le temps.
#147
#148
#149
#150
#151
#152
#153
#154
Quand on voit ce qu’arrive à faire Rockstar avec 256 Mo de RAM sur la PS3, ça me fait doucement sourire.
#155
#156
#157
#158
#159
#160
#161
#162
#163
#164
Ouais mais là faut pas se foutre du monde, les machines sont incapable de cracher du 1080p natif de manière fluide parce que leurs APU sont pas assez puissant alors qu’on viennent pas me dire qu’avec 8GB ils ont pas de quoi stocker les textures et le reste.
#165
#166
#167
#168
#169
#170
#171
Il devrait déjà avoir un transfert plus rapide (128 bits) entre la ram (comme ram-tampon réservée) et la ram graphique
#172
#173
#174
Et en plus, ils prônent le cloud. " />
#175
ses équipes « ont dû gérer de façon plutôt intense l’utilisation de la mémoire vive, et cela sera très certainement l’un des facteurs limitants de cette génération »
Dans une version moins langue de bois, ça veut dire qu’ils ont dû se sortir les doigts de l’arrière train, plutôt que de sortir un torchon vite-fait-bien-fait codé avec les pieds.
#176
Ce sont des consoles de jeux, alors les démos techniques branles-nouilles de Crytek, OSEF.
#177
#178
#179
#180
#181
#182
#183
#184
Je te le demande as tu déjà bossé sur le CELL ?
As tu déjà fait des tests de performance dessus ?
As tu déjà utilisé des cells pour faire du calcul de lightmap plus rapide que sur des pcs standards ?
Ou lis tu deux trois trolls du net pour te justifier ?
Pour bien que tu comprennes ce que je veux dire je vais te donner un autre exemple:
Je suis quasi sur qu’il est impossible d’encoder de manière fluide(25fps) une vidéo H.265 4K même avec un Core i7.
Pourtant avec un SoC de smartphone équipé des bons DSP on y arrive sans problème (snapdragon 80x).
Est-ce que ça veut dire que que le SoC du smartphone est surpuissant et qu’il poutre les derniers processeur desktop?
Non, il y en a juste d’un coté des DSP spécialisés, de l’autre un CPU généraliste." />
#185
#186
#187
#188
#189
#190
vu que même sur neogaf on a eu droit a des posts indigne du type de forum dont il est question je ne m’attendais pas à mieu ici !
en même temps quand tu demandes 8go minimun pour espérer couvrir la vision et les possibilité technique de ton moteur et qu’on te file 5go….ils n’allaient pas dire qu’on pourrait utiliser leur moteur avec les features future proof derrière….
elles galère déja pas mal pour faire tourner les jeux en 1080p avec toute les feature qui étaient “future proof” dans un crysis de 2007
#191
#192
#193
#194
#195
#196
Crytek me fait bien rire ! Son moteur graphique, le CryEngine, demande des configurations démesurées pour tourner convenablement. Chaque nouvelle version de son moteur graphique fait tomber les configurations les plus puissantes.
C’est un langage qui ne passera peut-être pas sur un forum de technophiles, mais plutôt que de venir critiquer les limites des consoles, il n’a qu’à baisser les performances de son moteur graphique. Même sur PC, son CryEngine 3 est un boulet pour beaucoup de joueurs, tant celui-ci demande des cartes graphiques très haut de gamme pour tourner convenable (je n’ose même pas dire parfaitement). Il faut voir les configurations recommandés pour jouer à “Crysis 3” dans des conditions optimales……….
Bref, c’est bien beau de se servir de ses jeux vidéos pour faire de belles vitrines à son moteur graphique…. encore faut-il qu’il puisse tourner raisonnablement sur un maximum de configurations. Ce n’est pas le cas du CryEngine 3. Les nouvelles versions des CryEngine sont toujours trop en avance sur leur temps. Il y en a qui apprécient. Moi pas. Si la majorité des PC, même gamer, n’arrivent pas à faire tourner relativement bien le CryEngine 3, je ne suis pas étonné que les consoles, elles, soient à la ramasse avec ce moteur graphique.
#197
#198
#199
#200
#201
Et pendant ce temps là, sur PC, tu ajoutes ou tu changes tes barettes
" />
#202
#203
#204
#205
#206
Ils ont craqué les mecs chez Crytek… 8 Go c’est largement suffisant aujourd’hui, et dans 5 ans ça le fera aussi. On est sur console les gars, pas sur pc, l’optimisation ça existe " />
#207
Ahaha Crytek…Crisis 3 ! Un tri-sli de Titan le jour de sa sortie pour afficher plus de 60 fps en 1080p Full-HD tout ultra " />
Même si je salue le rendu graphique du CryEngine, je respecte largement plus les devs de chez Unreal qui eux, prennent leur temps pour faire un nouveau moteur, apprennent de leurs erreurs et sont nobles vis à vis de la communauté. (Le développement en accord avec le peuple du prochain UT " /> ) le UE4 va être impressionnant. " />
#208
#209
#210
#211
#212
#213
#214
#215
Au moins, c’est clair.
#216
#217
#218
#219
#220
#221
#222
Ha enfin les développeurs commencent à râler sur le matos, comme d’hab quoi, mais cette fois çi ça a pris plus de temps que d’habitude lol
#223
#224
#225
#226
@Dr. Wily
Tu mets hors-touche le boulot des développeurs actuels un peu trop vite. Je ne travaille pas dans le JV, mais je ne pense pas me tromper en extrapolant ce que je connais. L’augmentation des performances matériels et les langages de haut niveau n’ont pas amené les développeurs à se tourner les pouces pour autant. Le temps libéré leur a été demandé pour autre chose. Et cet autre chose peut être aussi stimulant et riche de défi que l’optimisation au niveau du métal.
De plus, comme dit auparavant, si le temps passé à l’optimisation multiplie le temps passé par 1,5 pour seulement 5% de gain de performance, ça ne vaut pas le coup.
Et enfin, développer avec l’optimisation comme premier objectif est généralement une mauvaise pratique.
#227
#228
#229
#230
#231
#232
#233
#234
#235
#236
#237
#238
#239
#240