Pour Crytek, les 8 Go de RAM seront rapidement limitants sur les consoles

Pour Crytek, les 8 Go de RAM seront rapidement limitants sur les consoles

Ryse : Son of Troll

Avatar de l'auteur
Kevin Hottot

Publié dans

Société numérique

19/05/2014 2 minutes
240

Pour Crytek, les 8 Go de RAM seront rapidement limitants sur les consoles

À peine sorties, les consoles de nouvelle génération font déjà parler d'elles... pour leurs lacunes sur le plan matériel. Alors que la plupart des studios saluaient l'arrivée de machines plus performantes sur le marché, du côté de chez Crytek, on apprécie les nouveautés, mais on tire déjà la sonnette d'alarme concernant certains de leurs aspects.

E3 Microsoft Ryse Son of Rome

 

Qu'il s'agisse de la PlayStation 4, de la Wii U ou de la Xbox One, les consoles de nouvelle génération ont apporté un surcroît de puissance non négligeable. Si pour l’ensemble des studios, cela est une excellente nouvelle, puisque cela leur ôte un bon nombre de contraintes, d'autres comme Crytek pensent déjà à la suite. Pour eux, les limitations que les développeurs ont pu connaître ces dernières années ne vont pas tarder à se montrer de nouveau.

 

Selon Sean Tracy, le responsable du développement commercial du moteur CryEngine, le goulot d’étranglement se situerait au niveau de la mémoire vive des machines. Leur fréquence ou leur bande passante ne seraient pas en cause, seulement leur quantité. « Je suis d’accord avec le point de vue expliquant que  8 Go peuvent être très facilement remplis, mais il faut aussi garder à l’esprit que les développeurs n’ont pas accès à tout cela. Par exemple, la Xbox One réserve une partie de la RAM pour les besoins de son système d’exploitation », explique le responsable à nos confrères de Gaming Bolt.

 

Sean Tracy affirme tout de même que lors du développement de Ryse : Son of Rome, ses équipes « ont dû gérer de façon plutôt intense l’utilisation de la mémoire vive, et cela sera très certainement l’un des facteurs limitants de cette génération ». Cela étant, la situation reste bien plus confortable pour les studios avec 8 Go de mémoire, qu’avec les 512 Mo disponibles sur la Xbox 360.

 

Quoi qu’il en soit, limitations ou non, les développeurs devront faire avec et jusqu’ici les premiers titres tranchaient nettement du point de vue des graphismes avec ceux de la génération précédente. Pour les amateurs de consoles de salon, c’est tout ce qui compte. Pour le reste, nos chers PC ont encore de beaux jours devant eux. 

Écrit par Kevin Hottot

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Fermer

Commentaires (240)


Apprenez à coder !!!


là où il aurait pu avoir raison, c’est si les jeux consoles supportent le 4K








Anna Lefeuk a écrit :



Apprenez à coder !!!







Comme si c’était le code qui prennait de la place en mémoire… <img data-src=" />





Pour Crytek, les 8 Go de RAM seront rapidement limitants sur les consoles



Il voulais pas dire : Les consoles sont limitants? :p


IMO il y a des baffes qui se perdent. <img data-src=" />


+1


Étonnant que cela vienne de Crytek, Ryse est sans conteste le jeu le plus abouti visuellement de la XOne.



Après, ils sont peut être justement bien placés pour le savoir. <img data-src=" />


Sans déconner, 8 Go de RAM pas suffisant pour les jeux ?



Qu’il y ait de gros besoin de mémoire “graphique”, OK. Y’a de plus en plus de textures, etc.



Mais 8 go de RAM, mis à part pour gérer des 10aine de milliers d’instances de troupes, j’ai du mal à voir comment ça peut être exploité “à fond” …



Je pense à “supreme commander”, qui lors de sa sortie était handicapé par les Exe, car ils étaient limités l’adressage de 2Go de RAM en 32 bits



Si vous avez des exemples “précis” pour les 8 Go, je suis prenneur.


Ces mecs-là faisaient les mêmes reproches aux consoles de 2005. L’idée c’est de gueuler contre les limites des consoles et traiter les joueurs sur PC d’enculés de pirates. Là les mecs de Crytek se sentent vivre, enfin.








Anna Lefeuk a écrit :



Apprenez à coder !!!





Bah ce n’est pas le code qui prend de la mémoire….

Par contre, s’ils pouvaient améliorer leur intégrations d’objets (images tout ça) pour utiliser des images générées algorithmiquement plutôt que des mégas à charger, ce serait pas mal.

Genre comme il se fait ici:

http://www.pouet.net/prod.php?which=10545

(bon OK, programmer un jeu très beau en 64Ko…euh <img data-src=" />)









Anna Lefeuk a écrit :



Apprenez à coder !!!





On peut critiquer Crytek pour l’intérêt ludique de leurs jeux (enfin à vrai dire j’ai pas essayé Crysis 3 et Rome), mais niveau qualité technique, c’est plutôt le haut du panier.



Je pense qu’ils se seraient plaints si les consoles n’avaient offert que 32 Go. <img data-src=" />








Kamalen a écrit :



Comme si c’était le code qui prennait de la place en mémoire… <img data-src=" />







+1



Quel que soit la facon dont on code, une quantité de mémoire limitée restreint la taille des textures, des buffers et du nombre d’objets dans la scène.



Que Microsoft se soit un peu planté sur la config des 8Go, à la limite, passe encore. Mais pour la PS4, Sony avait pourtant bien fait une table ronde avec les développeurs pour la config matérielle nécessaire.

Et maintenant ils viennent dire qu’ils n’en ont déjà pas assez <img data-src=" />








Bill2 a écrit :



Sans déconner, 8 Go de RAM pas suffisant pour les jeux ?



Qu’il y ait de gros besoin de mémoire “graphique”, OK. Y’a de plus en plus de textures, etc.



Mais 8 go de RAM, mis à part pour gérer des 10aine de milliers d’instances de troupes, j’ai du mal à voir comment ça peut être exploité “à fond” …



Je pense à “supreme commander”, qui lors de sa sortie était handicapé par les Exe, car ils étaient limités l’adressage de 2Go de RAM en 32 bits



Si vous avez des exemples “précis” pour les 8 Go, je suis prenneur.





C’est pas de la mémoire partagée sur console ? Le CPU et le GPU allouent indifféremment dans le même espace mémoire. Je crois que c’était déjà le cas sur Xbox 360, et maintenant sur Xbox One (et PS4 également a priori).









Kamalen a écrit :



Comme si c’était le code qui prennait de la place en mémoire… <img data-src=" />











Fuli a écrit :



Bah ce n’est pas le code qui prend de la mémoire….

Par contre, s’ils pouvaient améliorer leur intégrations d’objets (images tout ça) pour utiliser des images générées algorithmiquement plutôt que des mégas à charger, ce serait pas mal.

Genre comme il se fait ici:

http://www.pouet.net/prod.php?which=10545

(bon OK, programmer un jeu très beau en 64Ko…euh <img data-src=" />)







Il ne parle pas de la taille du code sur le disque, mais de l’optimisation du code.

Je suis donc d’accord avec Anna Lefeuk.









Anna Lefeuk a écrit :



Apprenez à coder !!!







Oui ils pourront coder des textures HD, et tout le reste sur 1 octect.









Anna Lefeuk a écrit :



Apprenez à coder !!!







C’est pas une histoire de code…

T’as beau avoir le meilleur code du monde, si t’as besoin de textures de 4Go pour que ton jeu soit beau alors tu vas consommer au moins 4go de RAM…









Anna Lefeuk a écrit :



Apprenez à coder !!!







Il faut savoir que la Ram est partagée entre le CPU et le GPU … donc avec du 4k, si tu veux pas avoir de temps de chargements pour “remplir la ram” & co … tu rajoutes la ram reservée pour l’OS, et le problème est plus complexe que :



Lol, ptdr, <img data-src=" /> ils savent pas coder



<img data-src=" />









Fuli a écrit :



Bah ce n’est pas le code qui prend de la mémoire….

Par contre, s’ils pouvaient améliorer leur intégrations d’objets (images tout ça) pour utiliser des images générées algorithmiquement plutôt que des mégas à charger, ce serait pas mal.

Genre comme il se fait ici:

http://www.pouet.net/prod.php?which=10545

(bon OK, programmer un jeu très beau en 64Ko…euh <img data-src=" />)







Je crois que Crytek utilise déjà des techniques parmis les plus poussées du marché, pour optimiser les images. MS les à d’ailleurs encourager à partager leur techniques sur Ryse avec d’autres studios, c’est pas pour rien…



Et comment ils faisait avant avec le 4 Mo de la PS1 pendant que sur PC on en a fait 64 ou plus et ne parlons même pas la Snes : 128 Ko. <img data-src=" /> Bref, avant ils optimisé à mort l’utilisation de la RAM… maintenant dès qu’il faut le faire c’est un problème.








Brozowski a écrit :



Il ne parle pas de la taille du code sur le disque, mais de l’optimisation du code.

Je suis donc d’accord avec Anna Lefeuk.





Laisse tomber c’est HS. Les demomakers produisent le code le moins portable du monde, c’est diamétralement opposé aux besoins de l’industrie.



En 1996, mon tout premier PC avant un disque dur de 1Go. et 8 MO de RAM.



J’avoue, j’ai buggé quand l’ai lu le titre de l’article…








after_burner a écrit :



Étonnant que cela vienne de Crytek, Ryse est sans conteste le jeu le plus abouti visuellement de la XOne.



Après, ils sont peut être justement bien placés pour le savoir. <img data-src=" />







Et il y a aussi le fait qu’une generation de console a une duree de vie de 5 ans au moins (la derniere a tenu 7 ou 8 ans).

Donc 8Go sont probablement corrects aujourd’hui (quoique) mais dans 3 ou 4 ans, ca sera ridicule.



Et les mecs ont raison !

Les constructeurs ne font plus que de betes PC en guise de console et ils sont meme pas foutus de leur charger la gueule en ram en pensant a l’avenir…









Anna Lefeuk a écrit :



Apprenez à coder !!!







<img data-src=" />

Quand on sait sur quoi tournait DOOM….



Je vois pas le problème, suffit de vendre des memory pack à brancher sur la manette comme ‘lavait fait Nintendo avec Majora’s Mask sur N64








KP2 a écrit :



C’est pas une histoire de code…

T’as beau avoir le meilleur code du monde, si t’as besoin de textures de 4Go pour que ton jeu soit beau alors tu vas consommer au moins 4go de RAM…







4 Go de textures…. mmhhhhh, je confirme, faut apprendre à coder !



Ouais enfin bon, faut voir aussi.

8 Go, c’est effectivement limitant si c’est pour pouvoir compter les poils du menton d’un gus à CoD situé à 15 km avec le zoom de la lunette x1000. Sans parler, qu’on veut aussi voir son reflet dans la flaque d’eau devant lui ainsi que la fumée de son cigare dans ce reflet.



Il y a un moment, faudra arrêter avec l’ultra réalisme, c’est sympa mais je préfère 100 fois l’immersion qu’offre un jeu comme Mass Effect 3, pourtant ça fonctionne sur un netbook et une HD graphic, juste 4 Go de RAM et c’est déjà utilisé par l’OS.








zefling a écrit :



Et comment ils faisait avant avec le 4 Mo de la PS1 pendant que sur PC on en a fait 64 ou plus et ne parlons même pas la Snes : 128 Ko. <img data-src=" /> Bref, avant ils optimisé à mort l’utilisation de la RAM… maintenant dès qu’il faut le faire c’est un problème.





Encore un fois on parle de jeux censés sortir sur 3 OS différents au minimum: Windows, Xbox OS et la repompe d’openBSD de la PS4.

Pour la PS1, j’aimerais bien que tu me cites des jeux qui employaient 64 Mo de RAM sous DOS/Win95 et qui se contentaient de 4 Mo sur la console de SCE..



Soupir…..



Le jour ou ces mecs là apprendrons qu’une texture de poubelle qui fait dix pixels à l’écran max en 4096*4096 ca sert à rien on aura fait des progrès.



Au moins Unreal a appris de ces erreurs et permet justement grace à des données d’utilisation de savoir quel est le mip map le plus utilisé pour redimmensionner les textures.


Non mais un jeu ne devrait pas faire 50go déjà…

La différence n’est pas si visible que ça en plus. C’est plus lisse mais est ce que c’est due uniquement au texture HD ou à la résolution ou les deux !?



Bref cette génération est mauvaise de base par son architecture SoC APU qui ne tient absolument pas ses promesses.


Vu de loin j’ai pas l’impression que ce soit le facteur le plus limitant, je dirais que le facteur le plus limitant c’est la puissance brute pour sortir du Full HD en 60 FPS <img data-src=" />


Certain oublient juste la duree de vie des consoles, autant 8Go ca peut suffire aujourd’hui mais dans 5-6-7ans ? vu combien de temps la generation de console precedente a vecu, qui sait quels seront les besoin precis dans quelques annees. les xbox 360 et ps3 tourne avec genre 512mo de ram si je ne m’abuse la ou les PC sont deja vers les 2Go mini vois 4Go … donc la limite va vite etre atteinte a mon avis car ils vont surement vouloir charger plus de chose a un instant t etc…


faut voir que les 8Go sont partagé avec la carte graphique, non ? donc plus tu donne a l’un, moins l’autre en a.



bon après, a mon gout, cette génération de console est morte née. A sa sortie, elles sont même pas capable de gérer les résolutions native a des tauc de rafraîchissement acceptable. les développeurs sont déjà obligés de faire des compromis,…



et on annonce déjà les TV 4K, pauvre consoles, …








zefling a écrit :



Et comment ils faisait avant avec le 4 Mo de la PS1 pendant que sur PC on en a fait 64 ou plus et ne parlons même pas la Snes : 128 Ko. <img data-src=" /> Bref, avant ils optimisé à mort l’utilisation de la RAM… maintenant dès qu’il faut le faire c’est un problème.







Avant ils avaient des textures de ce genre :

http://ledinobleu.files.wordpress.com/2010/08/samples_g-pack.jpg



Essaye de faire un jeu full HD avec de telles textures et tu comprendras pourquoi c’est bien les textures HD <img data-src=" />









Kamalen a écrit :



Comme si c’était le code qui prennait de la place en mémoire… <img data-src=" />







Fuli a écrit :



Bah ce n’est pas le code qui prend de la mémoire….







Bien sûr, ce qui prend le plus de place ça reste les ressources… Mais à ma connaissance, on passe TOUJOURS par le code pour charger quelque chose en mémoire…

L’optimisation de la mémoire ça passe par 80 000 procédés différents, mais dans 90% des cas, c’est directement lié au code (chargement suivant contexte, mise en cache, support de compression et de décodage à la volée)…



Et je pense vraiment que 7/8go ça reste une bonne capacité, là ils se sentent limité par ça, mais en admettant qu’on leur en donne plus, je suis certains qu’ils bloqueraient du coup sur la bande passante…











Bill2 a écrit :



Qu’il y ait de gros besoin de mémoire “graphique”, OK. Y’a de plus en plus de textures, etc.



Mais 8 go de RAM, mis à part pour gérer des 10aine de milliers d’instances de troupes, j’ai du mal à voir comment ça peut être exploité “à fond” …



Si vous avez des exemples “précis” pour les 8 Go, je suis prenneur.







Ben justement, sur console, y’a pas de difference entre RAM “graphique” et RAM “systeme”, c’est une seule RAM qui est partagée.

Y’a que sur PC ou la carte graphique embarque sa memoire…



Et puis quand tu commences a faire des jeux avec beaucoup de personnages comme dans les RTS, des debris, de la fumee, etc

Ca fait un sacré paquet d’objets a gerer, calculer les trajectoires, etc







MickeyFreeStyler a écrit :



Que Microsoft se soit un peu planté sur la config des 8Go, à la limite, passe encore. Mais pour la PS4, Sony avait pourtant bien fait une table ronde avec les développeurs pour la config matérielle nécessaire.

Et maintenant ils viennent dire qu’ils n’en ont déjà pas assez <img data-src=" />







Ca depend quelles contraintes Sony a posé sur la table. Si il est venu avec un budget de 20$ (je dis ca au hasard) pour la RAM et que cette limite etait non negociable alors les devs n’ont peut etre pu dire que “OK, prenez le max alors” et le max, c’etait 8Go.

C’est pas parce que Sony a fait une table ronde que les devs ont eu beaucoup de possibilités de faire evoluer la fiche technique…









lincruste_2_la vengeance a écrit :



Encore un fois on parle de jeux censés sortir sur 3 OS différents au minimum: Windows, Xbox OS et la repompe d’openBSD de la PS4.

Pour la PS1, j’aimerais bien que tu me cites des jeux qui employaient 64 Mo de RAM sous DOS/Win95 et qui se contentaient de 4 Mo sur la console de SCE..





Rayman :




  • 16 Mo sur PC,

  • 2 Mo RAM + 1 Mo RAM vidéo sur PS1.









atomusk a écrit :



Il faut savoir que la Ram est partagée entre le CPU et le GPU … donc avec du 4k, si tu veux pas avoir de temps de chargements pour “remplir la ram” & co … tu rajoutes la ram reservée pour l’OS, et le problème est plus complexe que :



Lol, ptdr, <img data-src=" /> ils savent pas coder



<img data-src=" />







ben nan c’est juste une excuse de crytek pour dire :“ah ben nous on avait prévu un jeu qui déchire grave mais ces console pourrites elles galèrent leurs mères avec leur povres 8 Go de ram”









KP2 a écrit :



Donc 8Go sont probablement corrects aujourd’hui (quoique) mais dans 3 ou 4 ans, ca sera ridicule.







Les consoles sont censé être plus optimisé que le PC.

S’il faut avoir 32go pour se dire “je suis tranquille”, je trouve pas ça rassurant.



Si un seul jeu bouffe 8go de mémoire vive sur PC je trouve ça flippant ! <img data-src=" />









vloz a écrit :



Et je pense vraiment que 7/8go ça reste une bonne capacité, là ils se sentent limité par ça, mais en admettant qu’on leur en donne plus, je suis certains qu’ils bloqueraient du coup sur la bande passante…







Surtout que leur machine de prod doivent disposer facile de 32 si ce n’est pas 64 Go en RAM.

Tu m’étonnes que c’est limitant.









KP2 a écrit :



Ben justement, sur console, y’a pas de difference entre RAM “graphique” et RAM “systeme”, c’est une seule RAM qui est partagée.

Y’a que sur PC ou la carte graphique embarque sa memoire…







Y a pas longtemps (ps3) ce n’était pas vrai.

Et n’oublions pas que sur PC avec les versions actuellement utilisées de directx il te faut ta texture en ram CPU et en ram GPU.



Faut voir aussi que l’orientation actuelle de la plupart des moteurs, c’est d’empiler les couches de textures pour avoir un rendu plus réaliste : la texture “couleur” classique, avec une texture de brillance par dessus, d’illumination, de relief etc… le but étant d’avoir de jolis jeux de lumière sur la surface au lieu d’un bête aplat de couleur comme il y a dix ans. Et mine de rien, si on veut une surface pas trop pixellisée et qu’on empile une bonne quantité de textures dessus, bah ça bouffe de la place. C’est pas une question d’optimisation du code, y’a un moment où faut bien stocker les assets.


Quelqu’un disait: si ton jeu est composé de carrés et qu’il est malgré tout amusant à jouer, c’est qu’il est bon.


OK, mon prochain PC devra au moins contenir 16Go si je comprends bien, vu que 8 vont être très vite limitant.








Lafisk a écrit :



Certain oublient juste la duree de vie des consoles, autant 8Go ca peut suffire aujourd’hui mais dans 5-6-7ans ? vu combien de temps la generation de console precedente a vecu, qui sait quels seront les besoin precis dans quelques annees. les xbox 360 et ps3 tourne avec genre 512mo de ram si je ne m’abuse la ou les PC sont deja vers les 2Go mini vois 4Go … donc la limite va vite etre atteinte a mon avis car ils vont surement vouloir charger plus de chose a un instant t etc…





Justement, l’industrie tient compte des limites du parc existant, et certainement pas de ce qui se fait de mieux chez ruemontgallet.com.

Dans 5 ans, ils auront toujours des machines limitées à 8 go de RAM, et si les PC communs arrivent au double ou au triple d’ici là, les jeux tiendront toujours compte des limites des consoles.

Pour ma part je vois ça d’un bon œil, c’est grâce à cette façon de faire que mon PC de 2008 fait toujours tourner les jeux actuels sans problème sur un 19”..









Nnexxus a écrit :



Faut voir aussi que l’orientation actuelle de la plupart des moteurs, c’est d’empiler les couches de textures pour avoir un rendu plus réaliste : la texture “couleur” classique, avec une texture de brillance par dessus, d’illumination, de relief etc… le but étant d’avoir de jolis jeux de lumière sur la surface au lieu d’un bête aplat de couleur comme il y a dix ans. Et mine de rien, si on veut une surface pas trop pixellisée et qu’on empile une bonne quantité de textures dessus, bah ça bouffe de la place. C’est pas une question d’optimisation du code, y’a un moment où faut bien stocker les assets.







Ta poubelle qui fait 10 pixels à l’écran y a besoin de six textures 4096*4096 ? (parce que chez crytek c’est souvent le cas…)









vloz a écrit :



L’optimisation de la mémoire ça passe par 80 000 procédés différents, mais dans 90% des cas, c’est directement lié au code (chargement suivant contexte, mise en cache, support de compression et de décodage à la volée)…







Hein ??

Mais si la donnée que tu as besoin de mettre en memoire fait 4Go, t’as beau optimiser le code qui charge cette donnée autant que tu veux, t’auras bien 4go de consommé, non ?

C’est ca le probleme dans les jeux recents : les données a mettre en memoire sont giganteques. Le code, c’est peanuts a coté…



Y’a 20 ans, un jeu c’etait 80% de code et 20% de sprites. Aujourd’hui, le code doit representer quoi ? 0,1% du volume total ? 0,01 % peut etre meme









lincruste_2_la vengeance a écrit :



Laisse tomber c’est HS. Les demomakers produisent le code le moins portable du monde, c’est diamétralement opposé aux besoins de l’industrie.







Genre les moteurs de jeu sont pas bourrés de code legacy et/ou de rustines en tous genres…









metaphore54 a écrit :



OK, mon prochain PC devra au moins contenir 16Go si je comprends bien, vu que 8 vont être très vite limitant.





Bah non, puisque les consoles vont encore tirer les spec min vers le bas… <img data-src=" />









Nnexxus a écrit :



Faut voir aussi que l’orientation actuelle de la plupart des moteurs, c’est d’empiler les couches de textures pour avoir un rendu plus réaliste : la texture “couleur” classique, avec une texture de brillance par dessus, d’illumination, de relief etc… le but étant d’avoir de jolis jeux de lumière sur la surface au lieu d’un bête aplat de couleur comme il y a dix ans. Et mine de rien, si on veut une surface pas trop pixellisée et qu’on empile une bonne quantité de textures dessus, bah ça bouffe de la place. C’est pas une question d’optimisation du code, y’a un moment où faut bien stocker les assets.







Perso, je pense que d’avoir des limitations aides aussi a trouver des techniques plus poussés pour arriver à ce que l’on veut. D’ailleurs c’est comme ça qu’aujourd’hui on arrive a faire des choses impensable à la sortie d’un matériel dépassé.



Le problème, c’est pas la quantité de RAM, mais l’utilisation qui en est faite… Les mecs sortent des consoles avec les mêmes composants qu’un PC mais arrivent a obtenir un truc complètement bâtard <img data-src=" />



La mémoire partagée, on sait ce que ça donne, suffit de voir les PC portables avec une telle configuration, payes tes perfs miteuses <img data-src=" />



Concrètement, ils auraient fait leurs consoles avec 16Go de RAM, un proc quad core et une CG avec 4/6Go de mémoire vidéo ça aurait été mieux et au moins la solution serait viable dans le temps…



Quand je vois des PC’s à 400450 euros plus performant, bah je me gausse allègrement <img data-src=" />








Anna Lefeuk a écrit :



Apprenez à coder !!!







Pour Cryteck 8Go c’est juste le menu <img data-src=" />



Quand je vois Crysis tourner sur ma machine @ 1980x1080 en niveau de texture enthousiaste… elle a encore une framerate irrégulier pour une conf de 2013 (Intel 3930k et GTX 690) <img data-src=" />









KP2 a écrit :



Et il y a aussi le fait qu’une generation de console a une duree de vie de 5 ans au moins (la derniere a tenu 7 ou 8 ans).

Donc 8Go sont probablement corrects aujourd’hui (quoique) mais dans 3 ou 4 ans, ca sera ridicule.



Et les mecs ont raison !

Les constructeurs ne font plus que de betes PC en guise de console et ils sont meme pas foutus de leur charger la gueule en ram en pensant a l’avenir…







Au prix actuel de la RAM, ça aurait pu être envisagé mais au premier abord j’aurais aussi dit qu’il y a malgré tout de quoi voir venir. Cependant les consoles c’est toujours particulier vu le prix, ça reste serré pour augmenter les caractéristique, puis la PS4 c’est de la GDDR5.



Je dirais simplement qu’il faut miser sur autres choses et ça rejoint un peu les autres “problèmes” soulevé régulièrement sur la nextgen, mais ce qui va compter c’est les jeux.



Prenez God of War, Uncharted, Last of US,… tout le monde se fout de savoir si c’est du 1080p@60fps, ça aurait pu être en 900p et 28fps personne ne les aurais descendus, tant que l’expérience est là et que visuellement ça envoie.



Bon quand on voit le résultat on se doute que techniquement ça tienne la route, mais c’est pas une obsession comme ont peut le voir avec les nouvelles consoles. <img data-src=" />



Je comprend pas les commentaires qui s’en étonne.

8go partagé entre le CPU et le GPU, dont une partie est réservé au système, ça correspond plus ou moins à 2Go CPU pour le système, 4Go CPU pour le jeu, et 2Go pour le GPU. Enfin j’en sais rien, mais je pense que c’est à peu près ça l’ordre de grandeur.

Et si clairement c’est pas dégueu aujourd’hui (ça correspond à un pc de jeu moyen), les télés HD 4K sont en train d’arriver dans les salons, et les consoles vont devoir faire avec cette définition.



Bref ça ne m’étonne pas que Crytek soit déjà capable de se dire que c’est la taille de la RAM qui va poser problème quand viendra l’heure de sortir des jeux en HD 4K.








darkbeast a écrit :



ben nan c’est juste une excuse de crytek pour dire :“ah ben nous on avait prévu un jeu qui déchire grave mais ces console pourrites elles galèrent leurs mères avec leur povres 8 Go de ram”







Remarque qu’ils ne disent pas que ça les empechera de faire des jeux …



Juste que le 1er goulet d’étranglement sera sur la RAM …

D’autant plus que par exemple, la PS4 se reserve 3.5Go de ram pour son fonctionnement contre quelques 3Go pour la Xbox (je sais pas si ces chiffres ont évolués avec les mises à jour <img data-src=" /> )

http://www.neowin.net/news/xbox-one-and-ps4-to-have-different-game-memory-alloca…



Rajoute à ça les textures HD/4K, la nécessité de charger le plus d’info en ram pour éviter les temps de chargement … et ça ne me choque pas tant que ça que ça devienne un facteur limitant <img data-src=" />









zefling a écrit :



Rayman :




  • 16 Mo sur PC,

  • 2 Mo RAM + 1 Mo RAM vidéo sur PS1.







    4 Mo RAM minimum - 8 Mo recommandés

    Carte graphic: carte VLB minimum - 256 couleurs









gokudomatic a écrit :



Quelqu’un disait: si ton jeu est composé de carrés et qu’il est malgré tout amusant à jouer, c’est qu’il est bon.









“Pour que ton jeu plaise au joueur, ne lui brise pas le cœur.

Et pour faire un peu mieux, ne lui crève pas les yeux.”



~ Albert Einstein, 1789, Déclaration de la lutte contre la pixellisation Finlandaise



faut dire que partager la ram entre le cpu et GPU alors que pour l’un on dois utiliser de la ddr3 classique pour le CPU alors que la GDDR5 s’emploie dans le GPU, ya un mega différence et la conception des consoles est donc en soi débile… alors qu’ils viennent pas se plaindre et qu’ils codent que sur pc si ca les emmerdes d’avoir des limitations…

puis j’te jure regardez vanquish sur ps3, si avec une puissance 8 il font pas 8 sur le reste ya un soucis…


Comme ça ils pourront se concentrer sur le gameplay <img data-src=" />








zefling a écrit :



Rayman :




  • 16 Mo sur PC,

  • 2 Mo RAM + 1 Mo RAM vidéo sur PS1.







    Rayman est un jeu 2D qui fonctionnait “au max” en 640×480 (résolution max de la PS1), tu veux juste prouver que tu comprend à la problématique, ou tu fais exprès de faire le mec qui comprend rien ? <img data-src=" />









vloz a écrit :



Et je pense vraiment que 7/8go ça reste une bonne capacité, là ils se sentent limité par ça, mais en admettant qu’on leur en donne plus, je suis certains qu’ils bloqueraient du coup sur la bande passante…





Quand j’ai acheté un pc destiné au jeu, il y a 2 ans, j’ai pris 12giga de RAM, ce qui m’a à peu près couté quedal. Avec 2go de plus dédié à la CG.



Là on parle de 8giga au total, destiné à être utilisé 45 ans et avec des Télé 4K HD qui sont en train d’arriver dans les salons.



Donc je dirais pas “bonne capacité”, je dirais plutôt que c’est le stricte minimum syndical pour tenter de rivaliser avec les PC d’aujourd’hui, et dans 45 ans ce sera clairement une limite ridicule qu’on aura mis pour faire baisser le prix de la console d’une dizaine d’euros.



Franchement, au prix de la ram…



Moi les beaux jeux, à la limite je m’en tape. Nul besoin d’images au piqué infini. Le plus important est le scénario, l’interaction des bots… Quand je joue, j’ai pas le temps de regarder les paysages et les briques des murs. Je cherche juste à sauver ma peau. <img data-src=" />

Maintenant, si la majorité des joueurs ne comprennent pas qu’on essaye de leur vendre des CG, de la ram et des écrans sous prétexte d’une expérience inouie, de l’immersif visuel en veux-tu en voilà, c’est leur porte-monnaie hein…








k43l a écrit :



Les consoles sont censé être plus optimisé que le PC.







C’est pas la console qui est specialement plus optimisée… c’est l’OS et les jeux qui tournent dessus car ils n’ont pas a prendre en compte de multiples configurations.



MAIS vu qu’aujourd’hui, les consoles sont des resucées de PC avec des OS quasiment normaux, la difference n’est plus tres nettes.

ET vu qu’en plus, les editeurs de jeux utilisent des frameworks de frameworks de frameworks pour pouvoir sortir le meme jeu sur PC et sur console d’un coup alors il n’y a plus aucune optimisation particuliere pour le materiel specifique des consoles.



Bref, aujourd’hui, les optimisations n’existent plus. Les editeurs cherchent avant tout a coder pas cher.







k43l a écrit :



S’il faut avoir 32go pour se dire “je suis tranquille”, je trouve pas ça rassurant.

Si un seul jeu bouffe 8go de mémoire vive sur PC je trouve ça flippant ! <img data-src=" />







Et alors ? Faut bien l’utiliser ta RAM ! elle te sert a quoi sinon ? Elle va pas s’user…

Aujourd’hui, un jeu AAA consomme allegrement 3 ou 4Go de RAM. On t’aurait dit ca y’a 5 ans, taurais eu la meme reaction “si un seul jeu bouffe 1Go de memoire sur PC, je trouve ca flippant !” ?



N’importe quoi. Dans les années 8090 les dev se débrouillaient très bien avec quelques Ko… et sans le Net. Là il pleurent avec 8Go de ram ? Mais vraiment n’importe quoi !



Les limites c’est ce qui stimulent l’imagination, et là les limites elles sont quand même bien loin.



De plus en plus dans les jeux vidéo, les dev occidentaux cherchent comme des tarés à ce que ce soit le plus confortable à développer. Or leur métier de développeurs c’est bien de coder SELON le support. Et pas de pondre un truc standard qui tourne sur tout et n’importe quoi.



En gros on dirait qu’ils font un métier qu’ils détestent… ça a bien changer le monde du JV <img data-src=" />









KP2 a écrit :



C’est pas la console qui est specialement plus optimisée… c’est l’OS et les jeux qui tournent dessus car ils n’ont pas a prendre en compte de multiples configurations.



MAIS vu qu’aujourd’hui, les consoles sont des resucées de PC avec des OS quasiment normaux, la difference n’est plus tres nettes.



ET vu qu’en plus, les editeurs de jeux utilisent des frameworks de frameworks de frameworks pour pouvoir sortir le meme jeu sur PC et sur console d’un coup alors il n’y a plus aucune optimisation particuliere pour le materiel specifique des consoles.



Bref, aujourd’hui, les optimisations n’existent plus. Les editeurs cherchent avant tout a coder pas cher.







Tellement bien résumé !









MJH a écrit :



là où il aurait pu avoir raison, c’est si les jeux consoles supportent le 4K







faudrait déjà qu’elles prennent en charge le 1080p. Et même sur PC le 4K n’est pas pour tout de suite. Je me demande bien quelle config il faut pour jouer confortablement en cette résolution.







Zyami a écrit :



Ouais enfin bon, faut voir aussi.

8 Go, c’est effectivement limitant si c’est pour pouvoir compter les poils du menton d’un gus à CoD situé à 15 km avec le zoom de la lunette x1000. Sans parler, qu’on veut aussi voir son reflet dans la flaque d’eau devant lui ainsi que la fumée de son cigare dans ce reflet.



Il y a un moment, faudra arrêter avec l’ultra réalisme, c’est sympa mais je préfère 100 fois l’immersion qu’offre un jeu comme Mass Effect 3, pourtant ça fonctionne sur un netbook et une HD graphic, juste 4 Go de RAM et c’est déjà utilisé par l’OS.







Qu’ils arrivent à la qualité scénique de Crysis 1 déjà, et on pourra parler. C’est simple ce jeu est sorti en 2007 et y’en a toujours pas un qui lui arrive à la cheville graphiquement.



Et quand on regarde ME3 et bien y’a de quoi vomir. Bravo l’immersion avec des textures toutes floues et leurs super télés holographiques du futur dont même les télé CRT d’il y a 50 ans à écran rond offraient une meilleur définition d’image. Puis c’est vide, gris, et toutes les races, toutes les cultures de tous les systèmes semblent avoir été influencées par la même inspiration esthétique.



Recalé pour ma part. <img data-src=" />









metaphore54 a écrit :



OK, mon prochain PC devra au moins contenir 16Go si je comprends bien, vu que 8 vont être très vite limitant.







J’ai 8 Go sur le PC mais c’est clairement plus assez. Je ne peux pas laisser beaucoup de jeux lancés simultanément =/



Je me rappelais pas que la génération précédente n’avait que 512 Mo de RAM, fichtre <img data-src=" />








XalG a écrit :



J’ai 8 Go sur le PC mais c’est clairement plus assez. Je ne peux pas laisser beaucoup de jeux lancés simultanément =/







Augmente ta swap. <img data-src=" />









Tête de chat a écrit :



La mémoire partagée, on sait ce que ça donne, suffit de voir les PC portables avec une telle configuration, payes tes perfs miteuses <img data-src=" />







Ben non.



La mémoire partagée c’est ce qui a permis à la 360 d’être au niveau de la ps3 pendant toutes ses années.

Faut arréter les comparaisons PC console, surtout quand les sdks sont complétement différents sur les deux.



Sur PC ta texture est alloué deux fois en mémoire, une fois sur la ram principale (en lock) et une fois sur la carte graphique et les temps de transfert entre les deux sont simplement abominables.



Sur console (je prend la 360 comme exemple car j’ai bossé dessus) tu alloues ta texture en mémoire et tu fais juste un ‘lock’ pour pouvoir l’afficher pas besoin de transfert vers la carte vidéo donc pas de bus ‘limitant’.









KP2 a écrit :



Hein ??

Mais si la donnée que tu as besoin de mettre en memoire fait 4Go, t’as beau optimiser le code qui charge cette donnée autant que tu veux, t’auras bien 4go de consommé, non ?





Non, y’a pas mal de techniques qui découlent du code pour charger les dites ressources petit à petit (sans passer par un temps de chargement), voir même limiter leur tailles avec différentes techniques de compression (indépendamment de celle du fichier)…



Mais ça, ça implique beaucoup de travail et dépend pas mal du fonctionnement du jeux sur lequel tu bosses (donc pour les moteurs “generaliste”, ca devient un vrais bordel), mais je pense que chez crytek ça a toujours la course à “qui implémentera ce nouveau truc en premier”… quitte à ce que ce soit gourmand, et a peine visible…









blackdream a écrit :



Là on parle de 8giga au total, destiné à être utilisé 45 ans et avec des Télé 4K HD qui sont en train d’arriver dans les salons.





Nan, mais, la 4k sur xbox one et ps4 faut pas trop compter dessus… <img data-src=" />



arg bug








atomusk a écrit :



Rayman est un jeu 2D qui fonctionnait “au max” en 640×480 (résolution max de la PS1), tu veux juste prouver que tu comprend à la problématique, ou tu fais exprès de faire le mec qui comprend rien ? <img data-src=" />





<img data-src=" /> Bon, okay mon exemple est pourri surtout que la PS1 était pas du tout faire pour les jeux 2D. Juste qu’avant il se cassé vraiment le cul sur console pour avoir le rendu. Qui aurait cru qu’un jeu comme FF9 soit possible sur PS1 à sa sorti ?



Ils auraient pu faire des efforts avec ces consoles next-gen. Si j’ai a changer ma ps3 ou 360, je doit m’attendre a une certaine evolution materiel se rapprochant d’un PC de gameur actuel 1000e (et encore si on est malin, on peut pousser le prix vers le bas et toujours profiter de 1080p en ultra).



Du coup, payé 400e la PS4 ou Xbox One et savoir que les jeux vont parfois se limiter en 900p <img data-src=" />



Bon apres pour la mémoire c’est pas forcement une histoire de savoir coder ou pas. Je pense que les DEV c++ dans ce secteur, savent tres bien utiliser les alloc, malloc et compagnie <img data-src=" />








after_burner a écrit :



Prenez God of War, Uncharted, Last of US,… tout le monde se fout de savoir si c’est du 1080p@60fps, ça aurait pu être en 900p et 28fps personne ne les aurais descendus, tant que l’expérience est là et que visuellement ça envoie.







C’est ce que TOI tu penses… mais c’est loin d’etre le cas de tout le monde…



Combien de personnes ne jugent les jeux que sur les graphismes ?

Et meme pour generer l’acte d’achat : c’est la forme qui compte avant tout. Donc les graphismes.



Fait une pub TV avec des explosions magnifiques, des perso quasi photorealistes et t’auras la moitié des ventes assurees meme si ton jeu est ennuyeux comme une pierre tombale.



C’est triste mais c’est pas pour rien si les editeurs mettent autant de moyens sur les graphismes au detriment souvent du scenario, du gameplay ou juste de la qualité technique (correction des bugs, plateforme online stable, etc)









Dr.Wily a écrit :



De plus en plus dans les jeux vidéo, les dev occidentaux cherchent comme des tarés à ce que ce soit le plus confortable à développer. Or leur métier de développeurs c’est bien de coder SELON le support. Et pas de pondre un truc standard qui tourne sur tout et n’importe quoi.



En gros on dirait qu’ils font un métier qu’ils détestent… ça a bien changer le monde du JV <img data-src=" />







Non.

Non non non non non.

Non.

Non.

Les développeurs, ils s’en branlent: tu les payes pour faire un truc de dingue qui fait tourner le Cry Engine sur une TI92, si c’est physiquement possible ils te le font, c’est juste une question de thune et de TEMPS.

Le problème c’est donc le temps de développement qui est toujours limité, et les impératifs de productions qui font qu’un jeu doit tourner sur des architectures différentes à un coût raisonnable.

Et à ce titre les mecs feront bien mieux avec cette génération de consoles (des PC barebones modifiés) qu’avec les horribles architectures PowerPC de la PS3 et de la Xbox360.

Dans un cas ce sera du DirectX custom et dans l’autre un truc sans doute quasi compatible nativement tant les mecs de SCE ont compris la leçon de la PS3 et la désertion de ses premières années d’exploitation. S’ils ont chanté à qui voulait l’entendre que leur Phyre Engine était super pas cher et quasi identique à DX c’est pour une bonne raison.

Non, donc.









blackdream a écrit :



Quand j’ai acheté un pc destiné au jeu, il y a 2 ans, j’ai pris 12giga de RAM, ce qui m’a à peu près couté quedal. Avec 2go de plus dédié à la CG.



Là on parle de 8giga au total, destiné à être utilisé 45 ans et avec des Télé 4K HD qui sont en train d’arriver dans les salons.



Donc je dirais pas “bonne capacité”, je dirais plutôt que c’est le stricte minimum syndical pour tenter de rivaliser avec les PC d’aujourd’hui, et dans 45 ans ce sera clairement une limite ridicule qu’on aura mis pour faire baisser le prix de la console d’une dizaine d’euros.



Franchement, au prix de la ram…







faux pour la 4K, ça sort à peine, et pas mal de gens ont encore une télé hd-ready (720p) acheté au début des écrans plats et qui ne vont pas en changer avant que ça lâche alors d’ici à ce que les jeu 4k se généralisent sur console, on en sera à la prochaine génération.



Pour rappel quand la xbox 360 est sortie, la plus part des gens avaient encore des télés à tube, les écran plats 1080p devenaient abordable, le passage à la tnt les a passé à l’écran plat. Là les 4k arrivent, dans 3-4 ans elles seront abordables et la prochaine génération de console sortira dans ces eaux là.









Emralegna a écrit :



Qu’ils arrivent à la qualité scénique de Crysis 1 déjà, et on pourra parler. C’est simple ce jeu est sorti en 2007 et y’en a toujours pas un qui lui arrive à la cheville graphiquement.



Et quand on regarde ME3 et bien y’a de quoi vomir. Bravo l’immersion avec des textures toutes floues et leurs super télés holographiques du futur dont même les télé CRT d’il y a 50 ans à écran rond offraient une meilleur définition d’image. Puis c’est vide, gris, et toutes les races, toutes les cultures de tous les systèmes semblent avoir été influencées par la même inspiration esthétique.



Recalé pour ma part. <img data-src=" />







Crysis 1 est un jeu pour le PC à la base (histoire de montrer le gros kiki toussatoussa). Alors que ME3 c’est un jeu multisupport, et encore je suis sûr que c’était principalement pour les versions consoles X360/PS3.

Le dernier de mémoire qui a vraiment fait une optimisation PC par rapport aux consoles, c’est BF3.









atomusk a écrit :



Rayman est un jeu 2D qui fonctionnait “au max” en 640×480 (résolution max de la PS1), tu veux juste prouver que tu comprend à la problématique, ou tu fais exprès de faire le mec qui comprend rien ? <img data-src=" />





<img data-src=" /> Bon, okay mon exemple est pourri surtout que la PS1 n’était pas du tout faite pour les jeux 2D (plus la Saturn). Juste qu’avant ils se cassaient vraiment le cul sur console pour avoir le rendu. Qui aurait cru qu’un jeu comme FFIX soit possible sur PS1 à sa sorti ?



comment ils faisaient sur PS1 ? bah il faisaient ça :

http://www.game-rave.com/psx_galleries/battle_tombraider/compare_people.jpg

(source : comparatif avec la saturn sur ce site :http://www.game-rave.com/psx_galleries/battle_tombraider/index.htm )








Dr.Wily a écrit :



N’importe quoi. Dans les années 8090 les dev se débrouillaient très bien avec quelques Ko… et sans le Net. Là il pleurent avec 8Go de ram ? Mais vraiment n’importe quoi !







Ouais mais a l’epoque, tu affichais un personnage avec 30px…









zefling a écrit :



<img data-src=" /> Bon, okay mon exemple est pourri surtout que la PS1 était pas du tout faire pour les jeux 2D. Juste qu’avant il se cassé vraiment le cul sur console pour avoir le rendu. Qui aurait cru qu’un jeu comme FF9 soit possible sur PS1 à sa sorti ?







Heu si, la PSX est au niveau d’une SNES pour la 2D. Elle affiche plus de couleurs. La PSX est une très bonne console 2D, c’est juste que la Saturn est hors normes au niveau 2D… par contre niveau 3D…. <img data-src=" />







KP2 a écrit :



Ouais mais a l’epoque, tu affichais un personnage avec 30px…







Oui mais tu ne post traitais pas ton rendu pour tricher au moins. Et je n’aborde pas le cas épineux du temps de réponse des pad…









vloz a écrit :



Non, y’a pas mal de techniques qui découlent du code pour charger les dites ressources petit à petit (sans passer par un temps de chargement), voir même limiter leur tailles avec différentes techniques de compression (indépendamment de celle du fichier)…



Mais ça, ça implique beaucoup de travail et dépend pas mal du fonctionnement du jeux sur lequel tu bosses (donc pour les moteurs “generaliste”, ca devient un vrais bordel), mais je pense que chez crytek ça a toujours la course à “qui implémentera ce nouveau truc en premier”… quitte à ce que ce soit gourmand, et a peine visible…







Tu crois qu’ils n’utilisent pas deja toutes ces techniques depuis des lustres ?



Il n’empeche qu’a un moment, tes données font un certain volume incompressible et ce volume, il faut bien le monter en memoire d’une facon ou d’une autre. Et si ce volume incompressible fait 4Go alors t’auras 4go de consommé.

C’est là ou je voulais en venir…



disons que deja au lieu de se palucher avec des textures hd qui prennent toute la place ils essayeraient de bosser/developper sur des shaders ou textures procédurales hein, ca irait deja mieux (mais du coup le cpu serait bcp plus sollicité… ils pourraient alors dire que c’est le cpu qui les limite)








KP2 a écrit :



C’est pas une histoire de code…

T’as beau avoir le meilleur code du monde, si t’as besoin de textures de 4Go pour que ton jeu soit beau alors tu vas consommer au moins 4go de RAM…







l’argument “si t’as besoin de 4go” est un peu léger.. c’est comme tout, on peut toujours faire mieux avec moins. Encore faut il en avoir envie, ou avoir le temps/l’argent









KP2 a écrit :



C’est pas la console qui est specialement plus optimisée… c’est l’OS et les jeux qui tournent dessus car ils n’ont pas a prendre en compte de multiples configurations.



MAIS vu qu’aujourd’hui, les consoles sont des resucées de PC avec des OS quasiment normaux, la difference n’est plus tres nettes.

ET vu qu’en plus, les editeurs de jeux utilisent des frameworks de frameworks de frameworks pour pouvoir sortir le meme jeu sur PC et sur console d’un coup alors il n’y a plus aucune optimisation particuliere pour le materiel specifique des consoles.



Bref, aujourd’hui, les optimisations n’existent plus. Les editeurs cherchent avant tout a coder pas cher.







Un matériel si proche entre les 2 consoles montrent déjà la concertation éditeur, développeur et constructeur… C’était pire xbox 360 - ps3 avec du matériel 5 fois moins puissant !

Là je ne comprends pas.







KP2 a écrit :



Et alors ? Faut bien l’utiliser ta RAM ! elle te sert a quoi sinon ? Elle va pas s’user…

Aujourd’hui, un jeu AAA consomme allegrement 3 ou 4Go de RAM. On t’aurait dit ca y’a 5 ans, taurais eu la meme reaction “si un seul jeu bouffe 1Go de memoire sur PC, je trouve ca flippant !” ?







Bah je t’invite à me faire un petit chèque pour me les payer <img data-src=" />

Moi je trouve ça contraignant.









vloz a écrit :



Là on parle de 8giga au total, destiné à être utilisé 45 ans et avec des Télé 4K HD qui sont en train d’arriver dans les salons.



Nan, mais, la 4k sur xbox one et ps4 faut pas trop compter dessus… <img data-src=" />







+1

Déjà, qu’elles n’arrivent pas à afficher du 1080p en 60fps, alors la 4K…









lincruste_2_la vengeance a écrit :



Non.

Non non non non non.

Non.

Non.

Les développeurs, ils s’en branlent: tu les payes pour faire un truc de dingue qui fait tourner le Cry Engine sur une TI92, si c’est physiquement possible ils te le font, c’est juste une question de thune et de TEMPS.

Le problème c’est donc le temps de développement qui est toujours limité, et les impératifs de productions qui font qu’un jeu doit tourner sur des architectures différentes à un coût raisonnable.

Et à ce titre les mecs feront bien mieux avec cette génération de consoles (des PC barebones modifiés) qu’avec les horribles architectures PowerPC de la PS3 et de la Xbox360.

Dans un cas ce sera du DirectX custom et dans l’autre un truc sans doute quasi compatible nativement tant les mecs de SCE ont compris la leçon de la PS3 et la désertion de ses premières années d’exploitation. S’ils ont chanté à qui voulait l’entendre que leur Phyre Engine était super pas cher et quasi identique à DX c’est pour une bonne raison.

Non, donc.







Et la pratique du métier, la curiosité de faire tourner un truc unique ? De maitriser un hard ? Et pas juste d’être salarié pisseur de lignes qui obéit bêtement à son chef juste parce qu’il est trop fière de travailler dans le jeu vidéo.



On peut aussi avoir une certaine idée du développement et refuser un taf parce que son orga est mal branlée. Là on retourne dans les années 80 ou les consoles n’étaient que des clones de clones. Toutes identiques sans réel intérêt d’en choisir une plus qu’une autre. L’uniformisation c’est le mal absolu, dans le jeu vidéo ça mènera à la disparition des consoles.



Coder c’est un métier qui demande un minimum de curiosité et surtout d’une forme d’éthique vis à vis de son savoir faire. On offre pas son savoir faire quand on est pas d’accord avec l’orga d’un truc. ET actuellement c’est n’importe quoi. C’tout.









Lafisk a écrit :



Certain oublient juste la duree de vie des consoles, autant 8Go ca peut suffire aujourd’hui mais dans 5-6-7ans ? vu combien de temps la generation de console precedente a vecu, qui sait quels seront les besoin precis dans quelques annees. les xbox 360 et ps3 tourne avec genre 512mo de ram si je ne m’abuse la ou les PC sont deja vers les 2Go mini vois 4Go … donc la limite va vite etre atteinte a mon avis car ils vont surement vouloir charger plus de chose a un instant t etc…





On peut toujours vouloir plus mais pour la RAM 8Go j’ai été agréablement surpris car même sur PC plus cela ne sert actuellement pas à grand chose.

Il me semble que c’est plus la faiblesse relative des CPU/GPU qui sera limitante.

Ensuite pour les PC, ça évolue effectivement mais pas tant que cela si l’on met dans la balance les tablettes, hybrides et PC portables.

Le marché PC va se coller à celui de la One/PS4 avec des superior version, et l’évolution fera juste que se faire une config performante dans le temps coûtera moins cher et sera de + en + possible en version mobile.









k43l a écrit :



Les consoles sont censé être plus optimisé que le PC.

S’il faut avoir 32go pour se dire “je suis tranquille”, je trouve pas ça rassurant.



Si un seul jeu bouffe 8go de mémoire vive sur PC je trouve ça flippant ! <img data-src=" />





La phrase “sur PC il y a l’OS avec d’autres applis à gérer donc il faut plus de mémoire” est de moins en moins vraie.

Les consoles aussi ont un OS complet à gérer, avec téléchargements en tâche de fond, encodage et partage de vidéo, etc. La PS1 et PS2 n’avaient aucune de ces fonctions “en tâche de fond”. La PS3 si, mais c’était assez limité.



Il faut bien comprendre que les consoles se rapprochent de plus en plus des PCs au niveau architecture mais aussi au niveau OS.

Et aujourd’hui ça me choque pas qu’on dise que dans quelques années, 8Go ça sera trop peu. 8Go c’est déjà la config recommandée pour watch dogs qui sort très bientôt. J’imagine bien que dans 2 ans la config recommandée ça sera 12 ou même 16Go.









darkbeast a écrit :



faux pour la 4K, ça sort à peine, et pas mal de gens ont encore une télé hd-ready (720p) acheté au début des écrans plats et qui ne vont pas en changer avant que ça lâche alors d’ici à ce que les jeu 4k se généralisent sur console, on en sera à la prochaine génération.



Pour rappel quand la xbox 360 est sortie, la plus part des gens avaient encore des télés à tube, les écran plats 1080p devenaient abordable, le passage à la tnt les a passé à l’écran plat. Là les 4k arrivent, dans 3-4 ans elles seront abordables et la prochaine génération de console sortira dans ces eaux là.







Heuuu les TV 4k sont, tu sais :

http://www.fnac.com/Par-technologie/TV-4K/shi371171/w-4

<img data-src=" />



Que ça mette 2 ou 3 ans à devenir “abordable”, à la limite, mais une TV 4K de 55” à 1800€ … c’est pas non plus “Inaccessible” (on est pas au niveau de la tV OLED de LG à 4000€ quoi) <img data-src=" />

Ok, on est dans le cadre d’une promo, mais je vois pas les TV 4K être abordable d’ici 7 ou 8 ans <img data-src=" /><img data-src=" /><img data-src=" />



D’ici là ils nous sortiront bien une nouvelle connerie <img data-src=" />









maxscript a écrit :



l’argument “si t’as besoin de 4go” est un peu léger.. c’est comme tout, on peut toujours faire mieux avec moins. Encore faut il en avoir envie, ou avoir le temps/l’argent







Nan, je suis desolé… le “faire mieux avec moins”, c’est une phrase de patron.

Dans la realité, ca n’existe pas… au final, ca se traduit toujours pas “faire moins bien avec moins” et le patron est quand meme content parce que ses tableaux de bords financiers sont repassés dans le vert.









Oryzon a écrit :



On peut toujours vouloir plus mais pour la RAM 8Go j’ai été agréablement surpris car même sur PC plus cela ne sert actuellement pas à grand chose.









La Ram sur console est partagée … donc si on considère un PC avec une carte graphique “de bonne gamme” avec ses 4go de Ram inboard, ça donne un PC limité à 4Go de ram …



Pire, imagine que l’OS se “reserve” sur ces 4go de ram entre 3 et 3.5Go pour ses besoins <img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />



c’est simple suffit de diviser par 2 la taille des textures.. sauf sur pc :p








Oryzon a écrit :



On peut toujours vouloir plus mais pour la RAM 8Go j’ai été agréablement surpris car même sur PC plus cela ne sert actuellement pas à grand chose.

Il me semble que c’est plus la faiblesse relative des CPU/GPU qui sera limitante.

Ensuite pour les PC, ça évolue effectivement mais pas tant que cela si l’on met dans la balance les tablettes, hybrides et PC portables.

Le marché PC va se coller à celui de la One/PS4 avec des superior version, et l’évolution fera juste que se faire une config performante dans le temps coûtera moins cher et sera de + en + possible en version mobile.







C’est bien ce que je dis, Actuellement, ca sert a rien mais dans quelque annees … on ne sait pas. aujourd’hui les cpu sont de moins en moins sollicites contrairement au gpu a qui on demande de + en +. De plus comme quelqu’un le souligne plus tot dans le fil, c’est de la memoire partagee entre cpu et gpu …









KP2 a écrit :



Tu crois qu’ils n’utilisent pas deja toutes ces techniques depuis des lustres ?



Il n’empeche qu’a un moment, tes données font un certain volume incompressible et ce volume, il faut bien le monter en memoire d’une facon ou d’une autre. Et si ce volume incompressible fait 4Go alors t’auras 4go de consommé.

C’est là ou je voulais en venir…





Donc pour toi ils ont atteint le niveau maximal d’optimisation mémoire? Et ce serai un exploit exclusif à une boite comme crytek (réputé pour la “légèreté” de ses moteurs)?

Mais faut prévenir toute l’industrie video ludique, et meme le secteur informatique dans sa globalité pour cette premiere! <img data-src=" />









Dr.Wily a écrit :



Et la pratique du métier, la curiosité de faire tourner un truc unique ? De maitriser un hard ? Et pas juste d’être salarié pisseur de lignes qui obéit bêtement à son chef juste parce qu’il est trop fière de travailler dans le jeu vidéo.



On peut aussi avoir une certaine idée du développement et refuser un taf parce que son orga est mal branlée. Là on retourne dans les années 80 ou les consoles n’étaient que des clones de clones. Toutes identiques sans réel intérêt d’en choisir une plus qu’une autre. L’uniformisation c’est le mal absolu, dans le jeu vidéo ça mènera à la disparition des consoles.



Coder c’est un métier qui demande un minimum de curiosité et surtout d’une forme d’éthique vis à vis de son savoir faire. On offre pas son savoir faire quand on est pas d’accord avec l’orga d’un truc. ET actuellement c’est n’importe quoi. C’tout.









  1. Ben écoute, c’est exactement le contraire: dans les années 80 tu avais un jeu développé pour Apple II par untel, et 10 versions différentes du jeu plus ou moins réussies selon le talent, la thune ou le temps consacré au portage Spectrum, Amiga, CPC ou autre.



  2. L’“éthique du développeur”, c’est un truc que tu vas sagement ranger dans ta poche pour le jour où tu programmeras pour nourrir ta famille.



  3. Si les consoles disparaissent je vais pas pleurer, c’est juste une plateforme comme une autre. Le jeu vidéo existait avant et existera après, si c’est ce qui t’inquiète.











Dr.Wily a écrit :



Et la pratique du métier, la curiosité de faire tourner un truc unique ? De maitriser un hard ? Et pas juste d’être salarié pisseur de lignes qui obéit bêtement à son chef juste parce qu’il est trop fière de travailler dans le jeu vidéo.







Quand tu es payé au SMIC sans avantage ça motive pas longtemps. J’ai quitté le milieu et autant au début tu te défonces, mais quand tu fais des week ends juste pour le plaisir de ton patron sans même un merci ça te gave rapidement.









Cara62 a écrit :



Crysis 1 est un jeu pour le PC à la base (histoire de montrer le gros kiki toussatoussa). Alors que ME3 c’est un jeu multisupport, et encore je suis sûr que c’était principalement pour les versions consoles X360/PS3.

Le dernier de mémoire qui a vraiment fait une optimisation PC par rapport aux consoles, c’est BF3.







Ils est sorti à la même date sur tous les supports.

Sortir un jeu PC avec les mêmes arguments graphiques que sur console, c’est juste une honte. D’autant plus lorsque c’est exprès pour ne pas que les acquisitions PC augmentent/se substituent à celles des consoles (pour la fausse excuse du piratage ?). Davantage honteux quand on utilise l’Unreal Engine 3. Et pire encore lorsque tu trouves des jeux 5 ans plus vieux à des années lumières graphiquement.



Quand on décide de faire l’impasse sur certaines caractéristiques, faut que le reste suive (gameplay, scénario, univers graphique, ambiance collant avec le style graphique choisi, etc.), et pour ME3 c’est clairement pas le cas. C’est pour ça que beaucoup vénèrent toujours des gros pixels issues d’antiquité, et que certains autres comme Silent Hill 2 sur PC restent intemporels.



Sans vouloir faire l’aigri (même si ça y ressemble beaucoup). <img data-src=" />









XMalek a écrit :



La mémoire partagée c’est ce qui a permis à la 360 d’être au niveau de la ps3 pendant toutes ses années.





Pas seulement: GPU supérieur, CPU moins spécialisé ont largement participé aussi je pense, le CELL c’est 99% de marketing, comme l’emotion engine à l’époque.<img data-src=" />



@Dr Wily

Et l’“optimisation” dont tu parles est une discipline essentiellement soutenue par l’industrie que tu dénonces et ses impératifs de rendement.

N’importe quel programmeur soucieux de la “beauté du code” privilégiera l’élégance mathématique d’un algorithme à ses performances brute sur une architecture donnée. Lis Donald Knuth tu vas changer d’avis sur la question.








Djaron a écrit :



disons que deja au lieu de se palucher avec des textures hd qui prennent toute la place ils essayeraient de bosser/developper sur des shaders ou textures procédurales hein, ca irait deja mieux (mais du coup le cpu serait bcp plus sollicité… ils pourraient alors dire que c’est le cpu qui les limite)







Et le “résultat” de la texture procédurale on la stock où ? <img data-src=" />



Ou alors il la régénère à chaque frame ? <img data-src=" />









KP2 a écrit :



Nan, je suis desolé… le “faire mieux avec moins”, c’est une phrase de patron.

Dans la realité, ca n’existe pas… au final, ca se traduit toujours pas “faire moins bien avec moins” et le patron est quand meme content parce que ses tableaux de bords financiers sont repassés dans le vert.







ça s’appelle juste de l’optimisation… et patron ou pas tout le monde le comprend.

Encore plus dans le milieu de la 3D / Vidéo ou les assets peuvent prendre des parts déraisonnables.

Pixar pourrait faire des films encore plus de fous si ils passaient 2 semaines sur le rendu de chaque image.. et pourtant ils n ‘en sont pas là !









Alucard63 a écrit :



Pas seulement: GPU supérieur, CPU moins spécialisé ont largement participé aussi je pense, le CELL c’est 99% de marketing, comme l’emotion engine à l’époque.<img data-src=" />







Euh non le cell c’est vraiment un monstre de puissance. Va lire les cours d’ibm dessus et on en reparle.









lincruste_2_la vengeance a écrit :





  1. Ben écoute, c’est exactement le contraire: dans les années 80 tu avais un jeu développé pour Apple II par untel, et 10 versions différentes du jeu plus ou moins réussies selon le talent, la thune ou le temps consacré au portage Spectrum, Amiga, CPC ou autre.





    1. L’“éthique du développeur”, c’est un truc que tu vas sagement ranger dans ta poche pour le jour où tu programmeras pour nourrir ta famille.



    2. Si les consoles disparaissent je vais pas pleurer, c’est juste une plateforme comme une autre. Le jeu vidéo existait avant et existera après, si c’est ce qui t’inquiète.









      De toute façon maintenant la plus-part des éditeurs utilisent un moteur multiplateforme et se contente d’exploiter le moteur sans se poser la question de la plateforme cible … <img data-src=" />










Alucard63 a écrit :



Pas seulement: GPU supérieur, CPU moins spécialisé ont largement participé aussi je pense, le CELL c’est 99% de marketing, comme l’emotion engine à l’époque.<img data-src=" />







Quooooiiii ? t’es en train de me dire que Spielberg a pleuré pour rien à l’époque ?

<img data-src=" />









vloz a écrit :



Donc pour toi ils ont atteint le niveau maximal d’optimisation mémoire? Et ce serai un exploit exclusif à une boite comme crytek (réputé pour la “légèreté” de ses moteurs)?

Mais faut prévenir toute l’industrie video ludique, et meme le secteur informatique dans sa globalité pour cette premiere! <img data-src=" />







Non, je dis qu’un code optimisé ou pas ne fait plus aucune difference par rapport au volume des données a monter en ram.

Un code mal optimisé va prendre 50% de ram en plus ? Si c’est 50% de 200Mo, on s’en fout a coté des 3, 4 ou 6Go consommés par les textures…

Ouais, tu me diras que ca fait toujours 100Mo de gagné mais franchement, c’est que dalle… Ca vaut meme pas le cout de mettre un dev a temps plein la dessus.









XMalek a écrit :



Euh non le cell c’est vraiment un monstre de puissance. Va lire les cours d’ibm dessus et on en reparle.







En puissance “brutte”, oui … mais tout le monde ne veux pas jouer à faire du mégaflop <img data-src=" />









lincruste_2_la vengeance a écrit :





  1. Si les consoles disparaissent je vais pas pleurer, c’est juste une plateforme comme une autre. Le jeu vidéo existait avant et existera après, si c’est ce qui t’inquiète.







    Euh non… les 1ers jeux videos etaient plus assimilés a des consoles qu’a des micro ordinateurs.

    Pour moi, le jeu video est né avec les consoles. Il est passé sur PC bien plus tard.



    Mais c’est un detail…









KP2 a écrit :



C’est ce que TOI tu penses… mais c’est loin d’etre le cas de tout le monde…



Combien de personnes ne jugent les jeux que sur les graphismes ?

Et meme pour generer l’acte d’achat : c’est la forme qui compte avant tout. Donc les graphismes.



Fait une pub TV avec des explosions magnifiques, des perso quasi photorealistes et t’auras la moitié des ventes assurees meme si ton jeu est ennuyeux comme une pierre tombale.



C’est triste mais c’est pas pour rien si les editeurs mettent autant de moyens sur les graphismes au detriment souvent du scenario, du gameplay ou juste de la qualité technique (correction des bugs, plateforme online stable, etc)







C’est ce que je pense en effet, mais j’ai pris ces exemples car ils sont parlant à mon avis, God of War et consorts, sont des étendards visuels pour les jeux de la génération précédente de consoles, il font partis de ces produits que l’ont montrent parce qu’ils font beau à voir. Bon concernant GOW il y a plus que ça, il est aussi irréprochable sur le gameplay dans sa catégorie et à acquis sa renommée depuis la PS2.

Mais ces jeux ne sont pas des “laidrons” et pour arriver à ce résultat il faut bien sûr qu’il y ait un travail technique de qualité derrière. Pour autant on ne cherche pas à savoir quelle est le framerate ni la résolution de ces épisodes, pcq visuellement ça suffit à en imposer.



C’est ce que je voulais dire, il n’y a pas de bataille de chiffre.



Mettons qu’il y ait entre 4 et 5 go de RAM utilisables par les jeux sur PS4/Xone, ça doit permettre de faire des titres tout à fait agréable à l’œil sans pour autant être des tueries techniques (en sachant qu’il y aura forcément des studios qui feront des “étendards” sur ces machines).



Est ce que je me fais comprendre? <img data-src=" />









atomusk a écrit :



Heuuu les TV 4k sont, tu sais :

http://www.fnac.com/Par-technologie/TV-4K/shi371171/w-4

<img data-src=" />



Que ça mette 2 ou 3 ans à devenir “abordable”, à la limite, mais une TV 4K de 55” à 1800€ … c’est pas non plus “Inaccessible” (on est pas au niveau de la tV OLED de LG à 4000€ quoi) <img data-src=" />

Ok, on est dans le cadre d’une promo, mais je vois pas les TV 4K être abordable d’ici 7 ou 8 ans <img data-src=" /><img data-src=" /><img data-src=" />



D’ici là ils nous sortiront bien une nouvelle connerie <img data-src=" />







Ouais enfin y’a une différence d’abordabilité entre un célibataire qui se fait 35-40 K€ par an et la mère de famille avec 3 enfin qui gagne un smic.



Pour moi abordable c’est quand ça sera comme pour les 32” 1080p actuelles c’est à dire 300-400 euros.









XMalek a écrit :



Euh non le cell c’est vraiment un monstre de puissance. Va lire les cours d’ibm dessus et on en reparle.





Non le CELL est un monstre de puissance pour certaines taches (principalement le calcul de flottants facilement parallélisable).



C’est une grosse billes pour le calcul des entiers par exemple.<img data-src=" />



Dire que le CELL est un monstre c’est un peu comme dire qu’une Radeon R290 est plus puissante qu’un Core i7 parce qu’elle peut théoriquement cracher 5.3 TFlops alors que le Core i7 ne crache même pas 100 GFlops.<img data-src=" />









KP2 a écrit :



Euh non… les 1ers jeux videos etaient plus assimilés a des consoles qu’a des micro ordinateurs.

Pour moi, le jeu video est né avec les consoles. Il est passé sur PC bien plus tard.



Mais c’est un detail…







Il est surtout né avec l’arcade … maintenant, est ce que la définition de “console” s’applique à une borne <img data-src=" /><img data-src=" />



(en tout cas c’est clair que c’est pas un PC <img data-src=" />)









maxscript a écrit :



ça s’appelle juste de l’optimisation… et patron ou pas tout le monde le comprend.

Encore plus dans le milieu de la 3D / Vidéo ou les assets peuvent prendre des parts déraisonnables.

Pixar pourrait faire des films encore plus de fous si ils passaient 2 semaines sur le rendu de chaque image.. et pourtant ils n ‘en sont pas là !







Ouais donc, c’est exactement ce que je dis : ils ont moins donc il font moins bien que ce qu’ils pourraient.









atomusk a écrit :



De toute façon maintenant la plus-part des éditeurs utilisent un moteur multiplateforme et se contente d’exploiter le moteur sans se poser la question de la plateforme cible … <img data-src=" />







Oui la tendance depuis des années c’est l’abstraction du matériel. C’est une bonne chose, ça dégage du temps pour les choses vraiment essentielles dans un jeu: les assets et le scénario. Là en l’occurence le mec qui gueule vend précisément un moteur, donc ça s’explique.



les jeux lancent une instance de photoshop pour appliquer des filtres maintenant ???








darkbeast a écrit :



Ouais enfin y’a une différence d’abordabilité entre un célibataire qui se fait 35-40 K€ par an et la mère de famille avec 3 enfin qui gagne un smic.



Pour moi abordable c’est quand ça sera comme pour les 32” 1080p actuelles c’est à dire 300-400 euros.







Vu que les premiers téléphones arrivent avec un écran qHD, ça pourrait venir assez rapidement <img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />









atomusk a écrit :



Vu que les premiers téléphones arrivent avec un écran qHD, ça pourrait venir assez rapidement <img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />







mouais un téléphone avec la résolution d’un imac 27” et qui videra sa batterie du fait en quelques heures ça va le faire moyen je pense.









lincruste_2_la vengeance a écrit :





  1. Ben écoute, c’est exactement le contraire: dans les années 80 tu avais un jeu développé pour Apple II par untel, et 10 versions différentes du jeu plus ou moins réussies selon le talent, la thune ou le temps consacré au portage Spectrum, Amiga, CPC ou autre.







    Ouai, ça c’était pour ceux qui voulaient faire du multit support. Regardes donc les jeux à cette époque, les meilleurs ne tournent que sur un seul support. Pourquoi vouloir absolument développer pour tous les support ? On peut très bien rentabiliser un titre sans qu’il soit diffuser sur tout les supports de l’univers et basé sur le plus “standard”. Belle philosophie l’uniformisation ! On fait et on pensent tous pareille parce que ça coute moins cher… la moindre coquetterie serait trop compliquée… non pas possible…







    lincruste_2_la vengeance a écrit :



  2. L’“éthique du développeur”, c’est un truc que tu vas sagement ranger dans ta poche pour le jour où tu programmeras pour nourrir ta famille.







    Populisme à 3 sous. Si tu taf dans le JV tu peux très bien travailler dans n’importe quelle boite qui a besoin d ‘un dev. D’autant que le niveau requis est souvent celui d’un BAC+5. Donc bon le coté “nourrir la famille” ça va 5min… surtout ça a une connotation : “je fais de la merde mais ça nourrie ma famille”. C’est bien pour l’image du métier !







    lincruste_2_la vengeance a écrit :



  3. Si les consoles disparaissent je vais pas pleurer, c’est juste une plateforme comme une autre. Le jeu vidéo existait avant et existera après, si c’est ce qui t’inquiète.







    Pour ma part je regrette ça. J’ai beaucoup d’admiration pour les boites qui ont réussi à tirer le meilleur de chaque machine. Le support étant déterminant au cachet du jeu (voir les jeux d’arcade). Sans parler du fait que le hard est indissociable du soft. L’un ne va pas sans l’autre, snober le hard c’est insulter toutes les personnes dont la passion à été d’étudier et d’exploiter au mieux ces machines. La dictature du tout soft est une connerie tout droit sortie de dev incapables de comprendre que sans l’électronique ils ne sont rien.







    XMalek a écrit :



    Quand tu es payé au SMIC sans avantage ça motive pas longtemps. J’ai quitté le milieu et autant au début tu te défonces, mais quand tu fais des week ends juste pour le plaisir de ton patron sans même un merci ça te gave rapidement.







    +1









KP2 a écrit :



Euh non… les 1ers jeux videos etaient plus assimilés a des consoles qu’a des micro ordinateurs.

Pour moi, le jeu video est né avec les consoles. Il est passé sur PC bien plus tard.



Mais c’est un detail…





Je ne parle pas de PC, le PC c’est de la merde comparé à l’Amiga 500 ok ?

Le jeu vidéo c’est d’abord un passe-temps de nerds universitaires et ensuite une industrie poussée par l’arcade.

Sinon je vends une Game Block Kuzushi Nintendo de 1979, écrivez-moi c’est pas cher.









darkbeast a écrit :



mouais un téléphone avec la résolution d’un imac 27” et qui videra sa batterie du fait en quelques heures ça va le faire moyen je pense.





C’est pas déjà le cas?



Qu’ils nous gardent des textures en 900p et qu’ils nous fassent des bons jeux.



A la distance où est mon canap’ de la télé je vois très peu les détails, mais quand je vois ce que la Xone peut nous donner genre un Dead Rising 3 avec un massacre de plusieurs centaines de zombies à l’écran, le tout fluide, ça me suffit et je ne regrette pas mon investissement.



Utilisez la RAM à nous faire de bons jeux fluides !



(Perso sur X360, je trouvais les jeux peut-être moins lisse mais plus fluide -exemple read dead redemption ou GTA4-, alors que la PS3 était plus puissante sur le papier)


Mouais, faut pas déconner…



On a eu de très belles réalisations avec 512Mo de RAM sur les consoles précédentes. Si ils sont incapables de tirer parti de 16 fois plus il va falloir qu’ils se remettent en question. Personnellement je pense surtout que c’est le processeur graphique qui va montrer ses limites avant la quantité de RAM.








maxscript a écrit :



Quooooiiii ? t’es en train de me dire que Spielberg a pleuré pour rien à l’époque ?

<img data-src=" />





Je ne me souvenais pas cette anecdote.



Par contre je me souviens que la présentation de la configuration de la PS2 avait eu lieu le même jour que celle du PIII 500 Mhz.



Le problème c’est que comme le chip graphique de la PS2 était une m* on a vite déchanté quand on a vu arrivé les premiers jeux (aliasés, ramant parfois…). Mais bon la PS2 était une très bonne console que j’ai toujours…c’est juste que le marketing Sony est quand même incroyable…et ils ont remis ça avec le CELL.<img data-src=" />









atomusk a écrit :



En puissance “brutte”, oui … mais tout le monde ne veux pas jouer à faire du mégaflop <img data-src=" />







Je le redis tu ne sais pas de quoi tu parles. Avec des bons moteurs (cf Unreal engine ou le phyreengine par exemple) tu peux déporter tout ce que tu fais en GPU sur un SPU avec limite 0 impacts sur les performances. Sur les derniers jeux de la console, le gpu n’est presque plus utilisé que pour le post traitement.



Sur les spus sont actuellement calculés :




  • La physique

  • Les calculs d’animations (bones, morphing)

  • Les calculs de textures



    Qui sont normalement fait sur GPU sous peine de se prendre des GROS impacts de performance.

    Les spus, une fois le SPE maitrisé permet de faire des choses que ne permettent pas les CPUs standards.









lincruste_2_la vengeance a écrit :



@Dr Wily

Et l’“optimisation” dont tu parles est une discipline essentiellement soutenue par l’industrie que tu dénonces et ses impératifs de rendement.

N’importe quel programmeur soucieux de la “beauté du code” privilégiera l’élégance mathématique d’un algorithme à ses performances brute sur une architecture donnée. Lis Donald Knuth tu vas changer d’avis sur la question.







Je le sais, sauf que cette industrie à perdu la plupart de ses têtes pour les remplacer par des financiers. Le coté “artisanal” qui donnait tout son cachet aux jeux a complétement disparu au profit de process ultra formalisés et de l’absence quasi total de R&D au niveau hardware. C’est aujourd’hui ce qui manque le plus chez les studios. Mais ça, ça a toujours été la vision occidentale du jeu vidéo. Un truc qui sert à rien mais qui génère des profits.









gogo77 a écrit :



Mouais, faut pas déconner…



On a eu de très belles réalisations avec 512Mo de RAM sur les consoles précédentes. Si ils sont incapables de tirer parti de 16 fois plus il va falloir qu’ils se remettent en question. Personnellement je pense surtout que c’est le processeur graphique qui va montrer ses limites avant la quantité de RAM.





ouai enfin quand tu vois les sacrifices qu’ils ont du faire sur des BF3/4 et compagnie … tu vois surtout que la generation precedente a ete surtout poussee a bout et que la nouvelle va dors et deja exploitee facile 3/4Go de ram sans probleme. Donc dans quelques annees le probleme sera le meme quand les pc auront 10-12Go de ram dediee pour les CG et que les consoles seront bloquees a 8Go partages …









Emralegna a écrit :



Et quand on regarde ME3 […] toutes les cultures de tous les systèmes semblent avoir été influencées par la même inspiration esthétique.



Recalé pour ma part. <img data-src=" />







[HS]

Ben en fait, c’est bien le cas… les Moissonneurs ont influé sur le développement des différentes civilisations, de manière à les faire converger vers la Citadelle et faire un melting-pot galactique qui sera plus facile à moissonner… donc y’a une justification scénaristique à la flemme des designeurs.

[/HS]









KP2 a écrit :



Ouais donc, c’est exactement ce que je dis : ils ont moins donc il font moins bien que ce qu’ils pourraient.







hummm ok t’as 1 demi point en le prenant dans ton sens..



l’autre demi point me revient : ils ont toujours 20min de rendu par image.. et elles sont pourtant de plus en plus belles.



(les specs hardware augmentent.. mais ça n’empêche pas d’optimiser en utilisant la bonne texture au bon endroit pour éviter des calculs inutiles par exemple !)



Je suis encore à seulement 4 Go sur mon PC, et j’ai pas trouvé un seul jeu qui en bouffe la moitié…chercheztrouvez l’erreur.








Natsume a écrit :



En 1996, mon tout premier PC avant un disque dur de 1Go. et 8 MO de RAM.



J’avoue, j’ai buggé quand l’ai lu le titre de l’article…







P’tain, un DD d’1Go en 1996… <img data-src=" />



Nan, mais le riche quoi … <img data-src=" />









Dr.Wily a écrit :



Populisme à 3 sous. Si tu taf dans le JV tu peux très bien travailler dans n’importe quelle boite qui a besoin d ‘un dev. D’autant que le niveau requis est souvent celui d’un BAC+5. Donc bon le coté “nourrir la famille” ça va 5min… surtout ça a une connotation : “je fais de la merde mais ça nourrie ma famille”. C’est bien pour l’image du métier !







Le probleme dans ton discours, c’est que tu crois que le dev est maitre de son temps et de ses priorités.

Or, c’est pas du tout le cas.



Tous les devs ou presque ont envie de faire du bon boulot (ca s’applique meme a la majorité des gens d’une maniere generale) mais l’organisation dans laquelle ils se trouvent leur permet rarement de faire ce qu’ils considerent comme du “bon boulot”. Soit parce que l’organisation ne recherche pas specialement la qualité mais plutot la rentabilité, soit parce que le dev lui meme se trompe sur ce qu’est du “bon boulot”.

Et dans les gros projet, il est parfois plus interessant de faire un truc degueu a un endroit particulier pour pas perdre trop de temps (et d’argent) et faire de la qualité la ou c’est necessaire. Mais du point de vue du dev a qui on demande de faire un truc degueu (explicitement ou juste en le restreignant sur le nombre de jours a consacrer ), il va etre extremement frustré et demotivé.



Dans les grosses organisations, on ne peut pas expliquer a tout le monde tous les tenants et les aboutissants. Et encore moins expliquer toutes les raisons bonnes ou mauvaises qui ont amené a faire certains choix sur la qualité.

Donc au final, tout ca amene a des devs qui font souvent du travail qu’ils considerent comme tres mauvais, sont demotivés et fonctionnent sur un mode purement alimentaire.









Bill2 a écrit :



Sans déconner, 8 Go de RAM pas suffisant pour les jeux ?



Qu’il y ait de gros besoin de mémoire “graphique”, OK. Y’a de plus en plus de textures, etc.



Mais 8 go de RAM, mis à part pour gérer des 10aine de milliers d’instances de troupes, j’ai du mal à voir comment ça peut être exploité “à fond” …



Je pense à “supreme commander”, qui lors de sa sortie était handicapé par les Exe, car ils étaient limités l’adressage de 2Go de RAM en 32 bits



Si vous avez des exemples “précis” pour les 8 Go, je suis prenneur.













Winderly a écrit :



Je suis encore à seulement 4 Go sur mon PC, et j’ai pas trouvé un seul jeu qui en bouffe la moitié…chercheztrouvez l’erreur.







Si Skyrim plantait pas après 3GO dépassé, les gens peuvent facilement atteindre plusieurs GO avec un “patch” après 3,2GO de RAM il plante mon jeu (jdois utiliser un soft pour “détourner la mémoire” .



Sans oublier que selon la CG il prend toute la VRAM ( pour ma part 2GO qui est full à chaque fois )



évidemment cela est fait avec des mods et de la texture FHD et nombreux détails rajouté.



Après c’est sur PC :O












Inny a écrit :



Je pense qu’ils se seraient plaints si les consoles n’avaient offert que 32 Go. <img data-src=" />







  • 1



S’il ne veut pas utiliser les 8go de ram, faut juste déveloper intelligemment !

Si GTA 4 chargerait toute la ville c’est pas 4Go qu’il faudrait. Il faut ête malin et toutes les techniques de gestion des textures n’existent pas pour rien.








maxscript a écrit :



(les specs hardware augmentent.. mais ça n’empêche pas d’optimiser en utilisant la bonne texture au bon endroit pour éviter des calculs inutiles par exemple !)







Parce qu’avec le meme budget, les fermes de rendus sont plus puissantes…

Et encore heureux qu’ils font de mieux en mieux avec le meme effort ! Vu l’augmentation de la puissance informatique, c’est le minimum qu’on peut attendre…









XMalek a écrit :



Je le redis tu ne sais pas de quoi tu parles. Avec des bons moteurs (cf Unreal engine ou le phyreengine par exemple) tu peux déporter tout ce que tu fais en GPU sur un SPU avec limite 0 impacts sur les performances. Sur les derniers jeux de la console, le gpu n’est presque plus utilisé que pour le post traitement.



Sur les spus sont actuellement calculés :




  • La physique

  • Les calculs d’animations (bones, morphing)

  • Les calculs de textures



    Qui sont normalement fait sur GPU sous peine de se prendre des GROS impacts de performance.

    Les spus, une fois le SPE maitrisé permet de faire des choses que ne permettent pas les CPUs standards.





    Manque de bol Unreal Engine est justement un magnifique exemple puisque que ce moteur à TOUJOURS été plus fluide sur 360 que PS3.



    Quand au fait que les SPU peuvent faire le travail d’une CG de manière efficace…et bien c’est bien la démonstration qu’ils sont spécialisés. Quand il s’agit d’instructions de branchement faisant appel aux entiers (pour l’AI, le gameplay…), le CELL est inférieur au CPU de la 360 (qui n’est déjà pas très brillant dans ce domaine là).



    La problème du CELL c’est justement ça: il a été pensé comme une demi carte graphique bis. C’est une sorte d’hybride: pas aussi bon qu’une CG pour les graphismes, pas aussi bon qu’un CPU généraliste pour les instructions de branchement.



    C’est d’ailleurs pour ça que les devs ont mis des années avant d’en sortir quelque chose de potable (en plus de l’absence de mémoire unifié).<img data-src=" />









js2082 a écrit :



P’tain, un DD d’1Go en 1996… <img data-src=" />



Nan, mais le riche quoi … <img data-src=" />









mon premier pc en avait 4Mo , pour le vendeur c’etait pas important … pour un DX2-66 8Mo c’etait mieux









Khalev a écrit :



C’est pas déjà le cas?







nan 24h-36h avec un tel actuel









lincruste_2_la vengeance a écrit :



Oui la tendance depuis des années c’est l’abstraction du matériel.







Justement c’est une connerie. Pas pour tout, mais le hard c’est la base de l’informatique. Un dev qui abstrait totalement le hard n’est pas un dev. Moi je voudrais peindre sans peinture. Avoir le gout sans manger, conduire sans volant… baiser sans partenaire… ah merde ça c’est déjà possible…



Bref, palper du composant voir comment ça fonctionne… faire comme les types de Polyphonie Digital et relier un logic analyser sur les processeurs de la PS2 pour en tirer les meilleurs perf et lui permettre au final de faire du 1920x1080. Là il y a du taf d’investigation de personnes curieuses qui aiment leur métier et ne font pas ça QUE pour manger.







KP2 a écrit :



Le probleme dans ton discours, c’est que tu crois que le dev est maitre de son temps et de ses priorités.

Or, c’est pas du tout le cas.







Voir ma réponse plus haut.









Dr.Wily a écrit :



Pour ma part je regrette ça. J’ai beaucoup d’admiration pour les boites qui ont réussi à tirer le meilleur de chaque machine. Le support étant déterminant au cachet du jeu (voir les jeux d’arcade). Sans parler du fait que le hard est indissociable du soft. L’un ne va pas sans l’autre, snober le hard c’est insulter toutes les personnes dont la passion à été d’étudier et d’exploiter au mieux ces machines. La dictature du tout soft est une connerie tout droit sortie de dev incapables de comprendre que sans l’électronique ils ne sont rien.





Je vois ce que tu veux dire, mais -et je ne te charrie pas là - le problème c’est que tu as une image fantasmée du développement dans l’industrie aujourd’hui.

Tu n’as plus une vaillante équipe qui développe son propre SDK pour repousser les limites de l’archi comme à l’époque de Rare sur N64, ou autre truc héroïque dont on nous rebat les oreilles.

Aujourd’hui, les mecs sortent d’écoles d’ingénieur (de bonnes écoles) et bossent en équipe de 100 dans des centres de R&D.

Il n’y a plus LE mec qui pense en tout premier à exploiter le canon à électrons des télés pour afficher des copperlists de ouf ou bien des exploits personnels à la Alan McNeil, c’est fini. Ou alors les mecs bossent pour une boîte, leur code est repris partout, ils gagnent plein de thune et personne n’entend parler d’eux.



quand je lis les commentaires je me demande si certains melangent pas ram et vram








atomusk a écrit :



La Ram sur console est partagée … donc si on considère un PC avec une carte graphique “de bonne gamme” avec ses 4go de Ram inboard, ça donne un PC limité à 4Go de ram …



Pire, imagine que l’OS se “reserve” sur ces 4go de ram entre 3 et 3.5Go pour ses besoins <img data-src=" /><img data-src=" /><img data-src=" /><img data-src=" />







Une carte graphique avec 4 Go de Ram ??? C’est le standard ?

Moi je me souviens surtout d’étude comparative qui démontre que passer de 1Go à 2 Go sur une carte ne sert pas à grand chose.

On peut faire un vrai bon PC pour jouer avec 8GoRAM + 1 Go pour la CG. Et pourtant l’OS qui tourne dessus a certainement une empreinte mémoire plus lourde et il y a moins d’optimisations.



Quant aux 3Go de Ram ou plus alloués à l’OS qui ne peuvent pas être redistribués je suis curieux de voir quelque chose de factuel là dessus et non pas des “on dit”.

Nan parce que bon au niveau de l’OS entre une 360 (PS3) et une One (PS4) c’est pas le jour et la nuit non plus et pour la 360 on parle de 512 Mo de RAM pour TOUTE la console, CPU/GPU/OS.



Pour faire clair on est passé de 0.5 Go à 8 Go soit x16.

Après on aura peut-être besoin de plus dans quelques années sur PC, mais je demande à voir combien de jeux et dans combien de temps. Parce que demander + de 8Go de RAM c’est quand même se couper 95% du marché. Le PC évolue certes mais tout le monde ne s’amuse pas à upgrader à tout va et il dispose donc d’une grosse inertie de renouvellement. La dernière fois qu’un studio a sorti un jeu PC non adapté aux réalités du marché PC mais en pensant que les clients allaient acheter une CG dernier cri, ça n’a pas super bien marché… c’était qui déjà ?




Et puis le jeu vidéo, hein… Les progrès ébouriffants en compression ces dernières années c’est grâce à la NASA et l’antenne foireuse de Galileo en 95, et les constantes magiques de Carmack c’est grâce à Matlab, donc bon… Si tu veux des héros du code aujourd’hui va plutôt gratter dans l’embarqué.


Mouai, les textures en gros. Je suis de ceux qui considère qu’avant de surcharger une scène, il faut la rentre lisible. Je pense même que les jeux jouant trop sur leur graphisme sont ceux qui vieillissent les plus mal dans le temps.









zefling a écrit :



Et comment ils faisait avant avec le 4 Mo de la PS1 pendant que sur PC on en a fait 64 ou plus et ne parlons même pas la Snes : 128 Ko. <img data-src=" /> Bref, avant ils optimisé à mort l’utilisation de la RAM… maintenant dès qu’il faut le faire c’est un problème.







La Snes avait plusieurs mémoire réservées pour les sprites à afficher. Materiellement, les consoles de cette générations étaient spécialisé dans l’affichage de scènes 2D composé de sprits, elle avait donc des puces et des mémoire réservé pour ceci. Pire les cartouches embarquées elle aussi des puces et des mémoires supplémentaire pour épauler la console (starfox est une horreur à émuler à cause de ça). Les 128Ko ne devait surement être réservé qu’aux codes.

Les architectures modernes sont très différentes des consoles de cette époques.





KP2 a écrit :



[…]

Y’a 20 ans, un jeu c’etait 80% de code et 20% de sprites. Aujourd’hui, le code doit representer quoi ? 0,1% du volume total ? 0,01 % peut etre meme





Je ne pense pas que tes proportions soient correctes. Le code des jeux vidéo n’a jamais été très grand. Les sprites des consoles ne devait pas être compressée, c’était grossièrement du bitmap en mémoire. Mais l’autre truc a savoir c’est qu’à l’époque, les jeux était codé à la dur, dans un pseudo assembleur. Aujourd’hui le code est surement en C++. Or le C++ lors de la compilation a une phase d’optimisation qui va dérouler des boucles inclure les fonctions directement dans le code, ajouter les bibliothêques…. Un code qui ne fait que quelques Mo peut donner un executable de plusieurs centaine de Mo.

Si leur framework utilise des techniques de templatage très poussées (relativement intéressant pour avoir un code souple et très optimisé), ça peut vite s’envoler.







Folgore a écrit :



[…]

Bon apres pour la mémoire c’est pas forcement une histoire de savoir coder ou pas. Je pense que les DEV c++ dans ce secteur, savent tres bien utiliser les alloc, malloc et compagnie <img data-src=" />





En c++ c’est “new” et “delete”, malloc c’est du c. (bon, après, c’est compatible c++, mais je ne sais pas si ça fait appel aux constructeur du coup)









KP2 a écrit :



Parce qu’avec le meme budget, les fermes de rendus sont plus puissantes…

Et encore heureux qu’ils font de mieux en mieux avec le meme effort ! Vu l’augmentation de la puissance informatique, c’est le minimum qu’on peut attendre…







mais les progrès ne sont pas uniquement dûs à l’augmentation de la capacité de calcul même si ça y contribue largement…



Regarde les processeurs… ils font toujours plus en consommant toujours moins…



–&gt; Améliorer les specs c’est très bien, mais savoir s’en servir pour en profiter à fond c’est l’objectif.









lincruste_2_la vengeance a écrit :



Si tu veux des héros du code aujourd’hui va plutôt gratter dans l’embarqué.







Faut se dépêcher, car au delà des belles déclaration de politocards, vu comme le héros émarge ils passent a autre chose…









darkbeast a écrit :



nan 24h-36h avec un tel actuel





Pas avec l’écran allumé.

Si ça tient si longtemps c’est parce que l’écran est éteint la plupart du temps, du coup qu’il fasse 2pixels ou que ça soit du 4k ne change pas tant que ça.









Dr.Wily a écrit :



Justement c’est une connerie. Pas pour tout, mais le hard c’est la base de l’informatique. Un dev qui abstrait totalement le hard n’est pas un dev. Moi je voudrais peindre sans peinture. Avoir le gout sans manger, conduire sans volant… baiser sans partenaire… ah merde ça c’est déjà possible…



Bref, palper du composant voir comment ça fonctionne… faire comme les types de Polyphonie Digital et relier un logic analyser sur les processeurs de la PS2 pour en tirer les meilleurs perf et lui permettre au final de faire du 1920x1080. Là il y a du taf d’investigation de personnes curieuses qui aiment leur métier et ne font pas ça QUE pour manger.







Ben ouais mais le mec qui paie, il le fait pas pour que les mecs s’amusent…

Et surtout, quand il depense qq centaines de millions, il veut etre sur que ces sous vont revenir dans sa poche avec une plus value donc tout ce qui ne sert pas directement la rentiabilité n’a AUCUN interet.

C’est de l’optimisation aussi… financiere…










Anna Lefeuk a écrit :



Apprenez à coder !!!









Brozowski a écrit :



Il ne parle pas de la taille du code sur le disque, mais de l’optimisation du code.

Je suis donc d’accord avec Anna Lefeuk.





+1. J’aurais accordé le bénéfice du doute à tout autre studio (sauf les gus de Civilization et Rockstar <img data-src=" />) mais eux voilà quoi…





Rozgann a écrit :



On peut critiquer Crytek pour l’intérêt ludique de leurs jeux (enfin à vrai dire j’ai pas essayé Crysis 3 et Rome), mais niveau qualité technique, c’est plutôt le haut du panier.





Ouais, c’est clair, quand on voit Crysis, le truc qui tourne toujours pas correctement sur une bête de course de 2013.. <img data-src=" /> Elle a bon dos l’innovation technologique, apprendre à optimiser c’est bien aussi.





zefling a écrit :



Et comment ils faisait avant avec le 4 Mo de la PS1 pendant que sur PC on en a fait 64 ou plus et ne parlons même pas la Snes : 128 Ko. <img data-src=" /> Bref, avant ils optimisé à mort l’utilisation de la RAM… maintenant dès qu’il faut le faire c’est un problème.





+1. Je ne remets pas en cause la bonne volonté ou la compétence des développeurs, le souci vient généralement de contraintes de ressources irréalistes. N’empêche que ça ne justifie pas de se voiler la face avec des excuses bidon.





Lafisk a écrit :



Certain oublient juste la duree de vie des consoles, autant 8Go ca peut suffire aujourd’hui mais dans 5-6-7ans ? vu combien de temps la generation de console precedente a vecu, qui sait quels seront les besoin precis dans quelques annees. les xbox 360 et ps3 tourne avec genre 512mo de ram si je ne m’abuse la ou les PC sont deja vers les 2Go mini vois 4Go … donc la limite va vite etre atteinte a mon avis car ils vont surement vouloir charger plus de chose a un instant t etc…









atomusk a écrit :



Heuuu les TV 4k sont, tu sais :

http://www.fnac.com/Par-technologie/TV-4K/shi371171/w-4

<img data-src=" />

Que ça mette 2 ou 3 ans à devenir “abordable”, à la limite, mais une TV 4K de 55” à 1800€ … c’est pas non plus “Inaccessible” (on est pas au niveau de la tV OLED de LG à 4000€ quoi) <img data-src=" />

Ok, on est dans le cadre d’une promo, mais je vois pas les TV 4K être abordable d’ici 7 ou 8 ans <img data-src=" /><img data-src=" /><img data-src=" />

D’ici là ils nous sortiront bien une nouvelle connerie <img data-src=" />





Les télévisions 4k seront abordables pour le commun des mortels d’ici 2 ans, 3 ans max. Ok, et après ? Crois-tu que beaucoup de gens seront prêts à racheter une nouvelle TV, quand ils ont investi il y a même pas 3 ans dans une Full HD ?

Crois-tu vraiment que beaucoup de personnes sont suffisamment cinéphiles pour acheter 1) la TV UHD, 2) Le lecteur de contenu UHD à prix d’or, 3) l’offre famélique de nouveau contenu UHD à prix d’or ?

Sans contenu, la techno ne vaut rien. Et s’ils se magnent pas un minimum, l’offre de contenu mettra bien 4-5 ans à être suffisamment attrayante pour le péquin moyen en termes de choix et de prix.



Soyez bien sûrs que d’ici là, de nouvelles consoles auront été non pas commercialisées, mais au moins annoncées (100% sûr pour Nintendo, très probable pour MS vu le gadin, seul Sony attendra sans doute de prévoir les stratégies concurrentes pour se positionner vu qu’ils sont selon toute vraisemblance les vainqueurs de cette génération).









maxscript a écrit :



Regarde les processeurs… ils font toujours plus en consommant toujours moins…







Oui mais ca, c’est bien pour les processeurs et le materiel. Pas pour les humains…









Winderly a écrit :



Je suis encore à seulement 4 Go sur mon PC, et j’ai pas trouvé un seul jeu qui en bouffe la moitié…chercheztrouvez l’erreur.





Attention à ne pas perdre de vue les limitations d’occupation mémoire par process selon qu’on soit sur un OS 32 / 64 bits et aussi selon que le process lui-même est lancé en 32 alors que l’OS lui est bien en 64.



Quand on voit ce qu’arrive à faire Rockstar avec 256 Mo de RAM sur la PS3, ça me fait doucement sourire.








yl a écrit :



Faut se dépêcher, car au delà des belles déclaration de politocards, vu comme le héros émarge ils passent a autre chose…





ouuuu je sens de l’aigreur<img data-src=" />









KP2 a écrit :



Oui mais ca, c’est bien pour les processeurs et le materiel. Pas pour les humains…







le débat initial résidait dans les 8Go..



… mais je l’ai fait dévier sur autre chose donc je m’incline pour ne pas sombrer dans la mauvaise foi sur la partie plus avec moins.

<img data-src=" />









lincruste_2_la vengeance a écrit :



Je vois ce que tu veux dire, mais -et je ne te charrie pas là - le problème c’est que tu as une image fantasmée du développement dans l’industrie aujourd’hui.

Tu n’as plus une vaillante équipe qui développe son propre SDK pour repousser les limites de l’archi comme à l’époque de Rare sur N64, ou autre truc héroïque dont on nous rebat les oreilles.

Aujourd’hui, les mecs sortent d’écoles d’ingénieur (de bonnes écoles) et bossent en équipe de 100 dans des centres de R&D.

Il n’y a plus LE mec qui pense en tout premier à exploiter le canon à électrons des télés pour afficher des copperlists de ouf ou bien des exploits personnels à la Alan McNeil, c’est fini. Ou alors les mecs bossent pour une boîte, leur code est repris partout, ils gagnent plein de thune et personne n’entend parler d’eux.







Là je suis OK. Mais je ne fantasme pas. C’est la réalité tu l’as dit un peu avant :





Oui la tendance depuis des années c’est l’abstraction du matériel.





Le problème dans tout ça c’est l’uniformisation. Je développe aussi. Certes pas dans le JV. Mais quand je dois me palucher un code spécifique à un type de matos je trouve ça intéressant, ça attise ma curiosité qui est mon principal moteur de motivation. Je me dit humm là c’est bien foutu, la c’est de la merde… bref il y a un travail de recherche. Chose qu’il y avait dans le jeu video et l’informatique il y a encore quelque année.



Là ce qu’il se passe, c’est que l’on a une armée de développeurs codants sur des langages de haut niveau, tous quasi identique. Ils n’ont quasiment aucune notion d’électronique. Ce qui n’est pas normal. Puis, il reste une poignée de dev maitrisant des langages de bas niveau qui se font payer grassement. Mais alors pourquoi a-on des ingé clonés tous de la même façon alors qu’il serait bien plus saint de leur apprendre quelques notions d’électronique, d’ingénierie inverse et de codage de bas niveau. Au lieu de se laissé masqué les yeux par des API toutes faite qui les empêches d’aller fouiller dans le hard pour mieux comprendre.



Au moins on aurait matière à exploiter de manière plus intelligente le hard d’aujourd’hui au lieu de faire des console clonées à l’image des ingé qui sortent par boite de 12 des écoles a 5k€ l’année. Tout ça me dépasse…









Citan666 a écrit :



Les télévisions 4k seront abordables pour le commun des mortels d’ici 2 ans, 3 ans max. Ok, et après ? Crois-tu que beaucoup de gens seront prêts à racheter une nouvelle TV, quand ils ont investi il y a même pas 3 ans dans une Full HD ?

Crois-tu vraiment que beaucoup de personnes sont suffisamment cinéphiles pour acheter 1) la TV UHD, 2) Le lecteur de contenu UHD à prix d’or, 3) l’offre famélique de nouveau contenu UHD à prix d’or ?





J’ai pas vraiment dit le contraire non plus <img data-src=" />

Je fais juste remarquer qu’une personne qui veux remplacer sa vieille TV HD Ready, n’aura pas un gros “surplus” à se prendre une TV UHD d’ici 2 à 3 ans … et les premières personnes qui demanderont d’avoir un jeu “compatible 4K” ne tarderont sans doute pas tant que ça …












darkbeast a écrit :



faux pour la 4K, ça sort à peine, et pas mal de gens ont encore une télé hd-ready (720p) acheté au début des écrans plats et qui ne vont pas en changer avant que ça lâche alors d’ici à ce que les jeu 4k se généralisent sur console, on en sera à la prochaine génération.



Pour rappel quand la xbox 360 est sortie, la plus part des gens avaient encore des télés à tube, les écran plats 1080p devenaient abordable, le passage à la tnt les a passé à l’écran plat. Là les 4k arrivent, dans 3-4 ans elles seront abordables et la prochaine génération de console sortira dans ces eaux là.







Oui bin c’est à peu près ce que je dis non ? o0

Les dernières consoles se permettent de boycotté une définition d’écran sortie en même temps qu’elle, à des pris pas si inabordables que tu le penses, et qui deviendra la majorité des ventes bien avant la sortie de la prochaine génération.



Ça satisfait les constructeurs de console, pas un studio qui a fait des beau graphisme sa marque de fabrique.

Maintenant, si on parlait d’un composant qui fait vraiment monter le prix des consoles, l’argument se tiendrait clairement, mais vu qu’on parle d’un composant de quelques euros, et que l’utilisateur ne peut pas en rajouter lui même, j’appelle ça soit, au choix, de la connerie, ou de l’obsolescence programmée.



Bref, c’est ce genre de choix débile de conception qui font que monter sa propre console de salon (comprendre, se monter un pc <img data-src=" />) est bien plus avantageux.

Crytek a raison de gueuler.









Dr.Wily a écrit :



Mais alors pourquoi a-on des ingé clonés tous de la même façon alors qu’il serait bien plus saint de leur apprendre quelques notions d’électronique, d’ingénierie inverse et de codage de bas niveau. Au lieu de se laissé masqué les yeux par des API toutes faite qui les empêches d’aller fouiller dans le hard pour mieux comprendre.







Encore une fois: C’est rarement rentable.<img data-src=" />



On fait des projet JV à l’heure actuelle qui reproduisent des villes entières, avec des mécanismes complexes de gameplay, des milliers d’objets et personnages à modéliser…la principale plus value elle est ici.





Dans une SS2I c’est pareil: ton client il s’en tape le cul par terre que le code soit beau. La seule chose qu’il veut c’est:

-Que fonctionnellement ça colle au besoin (d’où les salaires et la sélection généralement plus élevée en consulting fonctionnel car c’est là qu’on peut se louper…le code est secondaire)

-Qu’il paye pas trop cher



Le reste c’est fini, sauf dans des équipes/boites très spécialisées/minoritaires quand le besoin d’optimisation est rentable (au hasard, certains éditeurs de logiciels…les moteurs de jeux par exemple…).<img data-src=" />









Elwyns a écrit :



Si Skyrim plantait pas après 3GO dépassé, les gens peuvent facilement atteindre plusieurs GO avec un “patch” après 3,2GO de RAM il plante mon jeu (jdois utiliser un soft pour “détourner la mémoire” .



Sans oublier que selon la CG il prend toute la VRAM ( pour ma part 2GO qui est full à chaque fois )



évidemment cela est fait avec des mods et de la texture FHD et nombreux détails rajouté.



Après c’est sur PC :O





Ouais enfin Bethesda et la gestion mémoire…Si tu laisses Morrowind en configuration par défaut (ce que connement j’ai fait au début) bienvenue dans le monde merveilleux des retours bureau inopinés.

Quand je pense qu’ils se vantaient d’avoir optimisé leur jeu pour tourner sur le pc de tout un chacun au lieu de leurs serveurs de compète…









Dr.Wily a écrit :



Là ce qu’il se passe, c’est que l’on a une armée de développeurs codants sur des langages de haut niveau, tous quasi identique. Ils n’ont quasiment aucune notion d’électronique. Ce qui n’est pas normal.







C’est quand même deux métiers distincts. Proches, certes, mais distincts.

On pourrait dire aussi :





Là ce qu’il se passe, c’est que l’on a une armée de pilotes conduisant des voitures bardées d’assistances, toutes quasi identique. Ils n’ont quasiment aucune notion de mécanique auto. Ce qui n’est pas normal.





Certes savoir comment marche une bagnole peut aider à mieux conduire. Mais si tu met un pilote devant un capot ouvert, il ne saura pas forcément faire grand chose. De même, un mécanicien au volant d’une F1, c’est la casse assurée. Deux métiers distincts.









atomusk a écrit :



J’ai pas vraiment dit le contraire non plus <img data-src=" />

Je fais juste remarquer qu’une personne qui veux remplacer sa vieille TV HD Ready, n’aura pas un gros “surplus” à se prendre une TV UHD d’ici 2 à 3 ans … et les premières personnes qui demanderont d’avoir un jeu “compatible 4K” ne tarderont sans doute pas tant que ça …





Pas d’accord, à l’heure actuelle même quelqu’un qui a les moyens n’achèterait pas de TV 4K. Pourquoi ? Le contenu. Tant que la TV et la SVOD sont pas en 4K c’est contreproductif d’avoir une TV 4K. Tu vas passer min 95% de ton temps à l’alimenter avec des flux au mieux 2K. Donc 95% (et je suis gentil) du temps tu aurais eu une meilleur image avec une bête TV FHD.

Une nouvelle génération de consoles sera lancée avant que la problématique ne se pose réellement.



Ouais mais là faut pas se foutre du monde, les machines sont incapable de cracher du 1080p natif de manière fluide parce que leurs APU sont pas assez puissant alors qu’on viennent pas me dire qu’avec 8GB ils ont pas de quoi stocker les textures et le reste.








Oryzon a écrit :



Une carte graphique avec 4 Go de Ram ??? C’est le standard ?

Moi je me souviens surtout d’étude comparative qui démontre que passer de 1Go à 2 Go sur une carte ne sert pas à grand chose.





Ca dépendra de ton jeu et de la résolution à laquelle tu veux jouer.



Mais en effet, 2Go est suffisant pour un gamer sur du 1080p







Oryzon a écrit :



On peut faire un vrai bon PC pour jouer avec 8GoRAM + 1 Go pour la CG. Et pourtant l’OS qui tourne dessus a certainement une empreinte mémoire plus lourde et il y a moins d’optimisations.





Et dans 5 ans ? <img data-src=" />









Oryzon a écrit :



Quant aux 3Go de Ram ou plus alloués à l’OS qui ne peuvent pas être redistribués je suis curieux de voir quelque chose de factuel là dessus et non pas des “on dit”.





C’est sur que vu que Sony et Ms ne communiquent pas dessus, on ne peux que se baser sur les “on dit” de ceux qui bossent dans l’industrie … <img data-src=" />







Oryzon a écrit :



Nan parce que bon au niveau de l’OS entre une 360 (PS3) et une One (PS4) c’est pas le jour et la nuit non plus et pour la 360 on parle de 512 Mo de RAM pour TOUTE la console, CPU/GPU/OS.





heuuu on a kinect connecté tout le temps qui attend les commandes, garder en memoire des images HD pour l’interface pour éviter que ça rame quand on switch, la possibilité de lancer un navigateur/skype/autre en parallele à ton jeu … ici il faut quand même se reserve un chouilla de Ram non ? <img data-src=" />

Pour la PS4 … je ne me l’explique pas <img data-src=" />












YesWeekEnd a écrit :



Attention à ne pas perdre de vue les limitations d’occupation mémoire par process selon qu’on soit sur un OS 32 / 64 bits et aussi selon que le process lui-même est lancé en 32 alors que l’OS lui est bien en 64.





Oui, j’ai oublié ce “détail”.









Oryzon a écrit :



Pas d’accord, à l’heure actuelle même quelqu’un qui a les moyens n’achèterait pas de TV 4K. Pourquoi ? Le contenu. Tant que la TV et la SVOD sont pas en 4K c’est contreproductif d’avoir une TV 4K. Tu vas passer min 95% de ton temps à l’alimenter avec des flux au mieux 2K. Donc 95% (et je suis gentil) du temps tu aurais eu une meilleur image avec une bête TV FHD.

Une nouvelle génération de consoles sera lancée avant que la problématique ne se pose réellement.







Tu prête bien des qualités à tes concitoyens <img data-src=" /><img data-src=" /><img data-src=" />



Il suffit de leur dire “il y a un upscaling breveté inédit”, et : même la coupe du monde sera diffusée en 4K (bon, 3 match)



plus une réduction exceptionnelle, et “votre TV vous la garderez 20 ans” et ils sortent le porte monnaie <img data-src=" /><img data-src=" /><img data-src=" />









Oryzon a écrit :



On peut toujours vouloir plus mais pour la RAM 8Go j’ai été agréablement surpris car même sur PC plus cela ne sert actuellement pas à grand chose.

Il me semble que c’est plus la faiblesse relative des CPU/GPU qui sera limitante.

Ensuite pour les PC, ça évolue effectivement mais pas tant que cela si l’on met dans la balance les tablettes, hybrides et PC portables.

Le marché PC va se coller à celui de la One/PS4 avec des superior version, et l’évolution fera juste que se faire une config performante dans le temps coûtera moins cher et sera de + en + possible en version mobile.





Plus de 8go ne sert pas à grand chose sur PC, parceque tu as la RAM dédié à la CG, et que Windows n’a pas besoin de 3Go pour lui. Pour la console, si tu enlèves les 3Go dédié au système (je fais confiance à un commentaire plus haut pour le chiffre), et 2Go pour la CG, il te reste 3Go. Soient moins que la très grosse majorité des jeux de stratégie, et les autres types de jeux commencent à y arriver.

8Go pour CPU / GPU, c’étais moyen il y a 2 ans, c’est juste suffisant aujourd’hui, et ça sera à chier dans 2 ans.

Ou comment brider sa console par le composant le moins chère <img data-src=" />

Et perdre 2 ans d’espèrance de vie et la compatibilité avec la 4K pour 10 euros <img data-src=" />









Anna Lefeuk a écrit :



Apprenez à coder !!!





Les gars de Crytek sont d’anciens demomakers, donc ils savent parfaitement coder <img data-src=" />









Dr.Wily a écrit :



Là je suis OK. Mais je ne fantasme pas. C’est la réalité tu l’as dit un peu avant :







Le problème dans tout ça c’est l’uniformisation. Je développe aussi. Certes pas dans le JV. Mais quand je dois me palucher un code spécifique à un type de matos je trouve ça intéressant, ça attise ma curiosité qui est mon principal moteur de motivation. Je me dit humm là c’est bien foutu, la c’est de la merde… bref il y a un travail de recherche. Chose qu’il y avait dans le jeu video et l’informatique il y a encore quelque année.



Là ce qu’il se passe, c’est que l’on a une armée de développeurs codants sur des langages de haut niveau, tous quasi identique. Ils n’ont quasiment aucune notion d’électronique. Ce qui n’est pas normal. Puis, il reste une poignée de dev maitrisant des langages de bas niveau qui se font payer grassement. Mais alors pourquoi a-on des ingé clonés tous de la même façon alors qu’il serait bien plus saint de leur apprendre quelques notions d’électronique, d’ingénierie inverse et de codage de bas niveau. Au lieu de se laissé masqué les yeux par des API toutes faite qui les empêches d’aller fouiller dans le hard pour mieux comprendre.



Au moins on aurait matière à exploiter de manière plus intelligente le hard d’aujourd’hui au lieu de faire des console clonées à l’image des ingé qui sortent par boite de 12 des écoles a 5k€ l’année. Tout ça me dépasse…





Juste pour être sûr qu’on parle de la même chose. À partir de quand considères-tu que le langage devient haut-niveau?



Sinon, pour répondre au soucis que tu pointes du doigt, la réponse est évidente, et tu le dis d’ailleurs toi-même. Avoir un programmeur spécialisé dans un hardware spécifique (PS3 par exemple, avec son cell à gérer etc.) est extrêmement coûteux. Et qui plus est, une fois que la PS3 n’existe plus (en gros à partir d’ajd), le développeur perd énormément en polyvalence, et doit être reformé sur un hardware spécifique. Que si l’API reste grosso merdo la même sur plusieurs consoles, voir plusieures générations, tu gagnes énormément en productivité. Par contre le résultat est clairement moins bons que ce qu’il aurait pu être, mais à moindre coût, et probablement en gagnant du temps également.



Je comprends parfaitement ce que tu veux dire. Je suis jeune, et n’ai pas encore vraiment travaillé (je sors de mes études là). Perso travailler dans le JV c’est ce que j’aimerais faire dans les prochaines années. J’ai pas réussi à trouver un stage dans ce domaine, je ré-essayerai après, et clairement je préférerais avoir des connaissances poussées sur une plateforme, et bien coder pour cette plateforme plutôt que d’utiliser une API générique. Mais très clairement aussi, ça n’a pas le même coût pour l’employeur…



Il devrait déjà avoir un transfert plus rapide (128 bits) entre la ram (comme ram-tampon réservée) et la ram graphique








atomusk a écrit :



Et dans 5 ans ? <img data-src=" />







Sous windows, je dis pas. <img data-src=" />









atomusk a écrit :



Il faut savoir que la Ram est partagée entre le CPU et le GPU … donc avec du 4k, si tu veux pas avoir de temps de chargements pour “remplir la ram” & co … tu rajoutes la ram reservée pour l’OS, et le problème est plus complexe que :



Lol, ptdr, <img data-src=" /> ils savent pas coder



<img data-src=" />











Z_cool a écrit :



faut voir que les 8Go sont partagé avec la carte graphique, non ? donc plus tu donne a l’un, moins l’autre en a.



bon après, a mon gout, cette génération de console est morte née. A sa sortie, elles sont même pas capable de gérer les résolutions native a des tauc de rafraîchissement acceptable. les développeurs sont déjà obligés de faire des compromis,…



et on annonce déjà les TV 4K, pauvre consoles, …









blackdream a écrit :



Je comprend pas les commentaires qui s’en étonne.

8go partagé entre le CPU et le GPU, dont une partie est réservé au système, ça correspond plus ou moins à 2Go CPU pour le système, 4Go CPU pour le jeu, et 2Go pour le GPU. Enfin j’en sais rien, mais je pense que c’est à peu près ça l’ordre de grandeur.

Et si clairement c’est pas dégueu aujourd’hui (ça correspond à un pc de jeu moyen), les télés HD 4K sont en train d’arriver dans les salons, et les consoles vont devoir faire avec cette définition.



Bref ça ne m’étonne pas que Crytek soit déjà capable de se dire que c’est la taille de la RAM qui va poser problème quand viendra l’heure de sortir des jeux en HD 4K.









atomusk a écrit :



Remarque qu’ils ne disent pas que ça les empechera de faire des jeux …



Juste que le 1er goulet d’étranglement sera sur la RAM …

D’autant plus que par exemple, la PS4 se reserve 3.5Go de ram pour son fonctionnement contre quelques 3Go pour la Xbox (je sais pas si ces chiffres ont évolués avec les mises à jour <img data-src=" /> )

http://www.neowin.net/news/xbox-one-and-ps4-to-have-different-game-memory-alloca…



Rajoute à ça les textures HD/4K, la nécessité de charger le plus d’info en ram pour éviter les temps de chargement … et ça ne me choque pas tant que ça que ça devienne un facteur limitant <img data-src=" />







blackdream a écrit :



Quand j’ai acheté un pc destiné au jeu, il y a 2 ans, j’ai pris 12giga de RAM, ce qui m’a à peu près couté quedal. Avec 2go de plus dédié à la CG.



Là on parle de 8giga au total, destiné à être utilisé 45 ans et avec des Télé 4K HD qui sont en train d’arriver dans les salons.



Donc je dirais pas “bonne capacité”, je dirais plutôt que c’est le stricte minimum syndical pour tenter de rivaliser avec les PC d’aujourd’hui, et dans 45 ans ce sera clairement une limite ridicule qu’on aura mis pour faire baisser le prix de la console d’une dizaine d’euros.



Franchement, au prix de la ram…







Hey les amis, faut arrêter de fantasmer sur la Ultra HD. Ca a été dit et redit, les consoles ne sont pas capable de rendre un jeu dans cette définition. Juste lire du contenu éventuellement. Ça a été dit depuis le début, et c’est l’une des seule choses qui sur laquelle les constructeurs n’ont pas changé d’avis.

De toute façon, même s’ils le voulaient le hardware ne suivrait pas (sous entendu avec les exigences de qualité visuelle des joueurs d’aujourd’hui). Et comme les INpactiens les plus perspicaces l’ont dit, faudrait déjà être sur de pouvoir sortir des jeux en 1080p avec le dit hardware.



Et en plus, ils prônent le cloud. <img data-src=" />




ses équipes « ont dû gérer de façon plutôt intense l’utilisation de la mémoire vive, et cela sera très certainement l’un des facteurs limitants de cette génération »





Dans une version moins langue de bois, ça veut dire qu’ils ont dû se sortir les doigts de l’arrière train, plutôt que de sortir un torchon vite-fait-bien-fait codé avec les pieds.


Ce sont des consoles de jeux, alors les démos techniques branles-nouilles de Crytek, OSEF.








Alucard63 a écrit :



Manque de bol Unreal Engine est justement un magnifique exemple puisque que ce moteur à TOUJOURS été plus fluide sur 360 que PS3.



Quand au fait que les SPU peuvent faire le travail d’une CG de manière efficace…et bien c’est bien la démonstration qu’ils sont spécialisés. Quand il s’agit d’instructions de branchement faisant appel aux entiers (pour l’AI, le gameplay…), le CELL est inférieur au CPU de la 360 (qui n’est déjà pas très brillant dans ce domaine là).



La problème du CELL c’est justement ça: il a été pensé comme une demi carte graphique bis. C’est une sorte d’hybride: pas aussi bon qu’une CG pour les graphismes, pas aussi bon qu’un CPU généraliste pour les instructions de branchement.



C’est d’ailleurs pour ça que les devs ont mis des années avant d’en sortir quelque chose de potable (en plus de l’absence de mémoire unifié).<img data-src=" />







Prend un unreal sans textures et fait le touner sur le devkit ps3 et 360. On verra lequel tourne le mieux (je te donne d’avance la réponse parce que je l’ai déjà fait : c’est la ps3). De plus une des librairies de physique les plus utilisée (Physx) tourne avec moins de bugs sur ps3 que sur 360.



Le problème de la ps3 c’est sa mémoire oui (256 *2) et ses bus mémoires qui ont de très nombreux locks. Mais faut arréter d’enfoncer le CELL. Le CELL était pas loin d’être THE cpu.

IBM aurait pu finir de mettre au point les cadenceurs, on en parlerai toujours (sur les documents de travaux d’IBM il était censé exister une version avec deux cadenceurs à 2 ghz + 8 (ou 16 sur tous les premiers documents) SPUs + 2 canaux séparés mémoires internes au CPU , celle qui aurait du être sur la ps3 et a été downgradé du à un manque de temps et à un cout trop élevé).

Ce n’est pas juste une histoire de TFlops, mais aussi à une organisation mémoire et lock mémoire sur la cache cpu qui est vraiment excelente car elle supprime quasiment tous les effets de cache qui sont la PLAIE des processeurs PowerPC (tout ceux qui ont déjà bossé sur 360 savent de quoi je parle)









XMalek a écrit :



Prend un unreal sans textures et fait le touner sur le devkit ps3 et 360. On verra lequel tourne le mieux (je te donne d’avance la réponse parce que je l’ai déjà fait : c’est la ps3). De plus une des librairies de physique les plus utilisée (Physx) tourne avec moins de bugs sur ps3 que sur 360.



Le problème de la ps3 c’est sa mémoire oui (256 *2) et ses bus mémoires qui ont de très nombreux locks. Mais faut arréter d’enfoncer le CELL. Le CELL était pas loin d’être THE cpu.

IBM aurait pu finir de mettre au point les cadenceurs, on en parlerai toujours (sur les documents de travaux d’IBM il était censé exister une version avec deux cadenceurs à 2 ghz + 8 (ou 16 sur tous les premiers documents) SPUs + 2 canaux séparés mémoires internes au CPU , celle qui aurait du être sur la ps3 et a été downgradé du à un manque de temps et à un cout trop élevé).

Ce n’est pas juste une histoire de TFlops, mais aussi à une organisation mémoire et lock mémoire sur la cache cpu qui est vraiment excelente car elle supprime quasiment tous les effets de cache qui sont la PLAIE des processeurs PowerPC (tout ceux qui ont déjà bossé sur 360 savent de quoi je parle)





Non, pas uniquement et ce qui ont analysé les architecture sans lire des slides biaisés d’IBM ou de SONY le savait déjà en 2005.



Quand au fait que ce soit simplement le RAM j’en doute fortement (même si elle n’aide pas). Un simple regard à cette vidéo te permettra de te convaincre que ça n’a pas grand chose à voir avec les textures:



https://www.youtube.com/watch?v=3ET4IwF6Fw0



Encore une dernière fois: le CELL n’est pas du tout une révolution ni un chip surpuissant. C’est une approche différente du CPU qui, rappelons le, est maintenant enterré par SONY et IBM.<img data-src=" />









Alucard63 a écrit :



Non, pas uniquement et ce qui ont analysé les architecture sans lire des slides biaisés d’IBM ou de SONY le savait déjà en 2005.







Tu me rapelles quel software / jeu / hardware a sorti anadtech ?

Aucun si tu vexu des spécialistes de cegenre de programmation va sur un vrai site de professionnels du jeu vidéo :

Gamasutra







Alucard63 a écrit :



Quand au fait que ce soit simplement le RAM j’en doute fortement (même si elle n’aide pas). Un simple regard à cette vidéo te permettra de te convaincre que ça n’a pas grand chose à voir avec les textures:



https://www.youtube.com/watch?v=3ET4IwF6Fw0







Ah bon ? désolé sur ta vidéo je ne vois pas :




  • Le débugguer

  • Les stats d’utilisation CPU / GPU / RAM /DMA que fournissent les débuggueurs officiel des deux consoles.



    De plus c’est les codeurs de chez EA / Bioware connu pour être des branques en matières d’optimisations consoles et ayant fait des conférences avec des fausses informations pour justifier certains portage foireux aux yeux des journalistes (sauf que ca n’est pas bien passé aux yeux des pro dans la salle)

    Donc non ca ne me convaincs pas DU TOUT parce que j’ai déjà bossé sur ces deux consoles.







    Alucard63 a écrit :



    Encore une dernière fois: le CELL n’est pas du tout une révolution ni un chip surpuissant. C’est une approche différente du CPU qui, rappelons le, est maintenant enterré par SONY et IBM.<img data-src=" />







    C’est vrai que les dernières architectures CPU ne s’en sont pas inspirés…

    Ah ben si en fait. regarde comment est organisé le i7. A l’époque c’était une très bonne idée, ca l’est toujours.



    Je te le demande as tu déjà bossé sur le CELL ?

    As tu déjà fait des tests de performance dessus ?

    As tu déjà utilisé des cells pour faire du calcul de lightmap plus rapide que sur des pcs standards ?



    Ou lis tu deux trois trolls du net pour te justifier ?









Brozowski a écrit :



Il ne parle pas de la taille du code sur le disque, mais de l’optimisation du code.

Je suis donc d’accord avec Anna Lefeuk.







Merci, je n’etais pas assez clair mais c’etait l’idée. Thanks<img data-src=" />









vloz a écrit :



Bien sûr, ce qui prend le plus de place ça reste les ressources… Mais à ma connaissance, on passe TOUJOURS par le code pour charger quelque chose en mémoire…

L’optimisation de la mémoire ça passe par 80 000 procédés différents, mais dans 90% des cas, c’est directement lié au code (chargement suivant contexte, mise en cache, support de compression et de décodage à la volée)…



Et je pense vraiment que 7/8go ça reste une bonne capacité, là ils se sentent limité par ça, mais en admettant qu’on leur en donne plus, je suis certains qu’ils bloqueraient du coup sur la bande passante…







Je te rejoins complétement <img data-src=" />









XMalek a écrit :



Ah bon ? désolé sur ta vidéo je ne vois pas :




  • Le débugguer

  • Les stats d’utilisation CPU / GPU / RAM /DMA que fournissent les débuggueurs officiel des deux consoles.





    C’est pas la meilleure vidéo (erreur de ma part). Il faudrait celle ou il y a des combats on voit que la PS3 décroche très facilement(enfin en même temps sur certaines phases de cinématques on est en dessous de 20 fps déjà…)…et non je n’ai pas les logs.





    C’est vrai que les dernières architectures CPU ne s’en sont pas inspirés…

    Ah ben si en fait. regarde comment est organisé le i7. A l’époque c’était une très bonne idée, ca l’est toujours.





    Non la bonne idée c’est l’APU. L’histoire de l’informatique l’a prouvé dans les années qui ont suivies..



    Je me souviens, déjà à l’époque de la PS2 on prédisait que la puissance de calcul flottant des CPU (on parlait de l’EE à l’époque) seraient l’avenir. Le CELL a été la continuation de cette philosophie puisque qu’il proposait cette approche quitte à flinguer une bonne partie de l’aspect généraliste des CPU.



    Sauf que ce n’est pas ce qui s’est passé. Ce qui s’est passé c’est que la carte graphique a remplit ce rôle avec le GPGPU et non pas le processeur et l’approche proposé par le CELL est simplement abandonnée.







    Je te le demande as tu déjà bossé sur le CELL ?

    As tu déjà fait des tests de performance dessus ?

    As tu déjà utilisé des cells pour faire du calcul de lightmap plus rapide que sur des pcs standards ?



    Ou lis tu deux trois trolls du net pour te justifier ?





    Mais encore une fois: on s’en branle que le CELL soit bon pour certaines choses particulières ce qui importe c’est de savoir si cette approche est adaptée. L’histoire de l’informatique nous a montré que non.<img data-src=" />











tAran a écrit :



Les gars de Crytek sont d’anciens demomakers, donc ils savent parfaitement coder <img data-src=" />





Ça explique pas mal de choses à propos de leur premier jeu. <img data-src=" />





Je te le demande as tu déjà bossé sur le CELL ?

As tu déjà fait des tests de performance dessus ?

As tu déjà utilisé des cells pour faire du calcul de lightmap plus rapide que sur des pcs standards ?



Ou lis tu deux trois trolls du net pour te justifier ?





Pour bien que tu comprennes ce que je veux dire je vais te donner un autre exemple:

Je suis quasi sur qu’il est impossible d’encoder de manière fluide(25fps) une vidéo H.265 4K même avec un Core i7.



Pourtant avec un SoC de smartphone équipé des bons DSP on y arrive sans problème (snapdragon 80x).



Est-ce que ça veut dire que que le SoC du smartphone est surpuissant et qu’il poutre les derniers processeur desktop?



Non, il y en a juste d’un coté des DSP spécialisés, de l’autre un CPU généraliste.<img data-src=" />








Alucard63 a écrit :



Pour bien que tu comprennes ce que je veux dire je vais te donner un autre exemple:

Je suis quasi sur qu’il est impossible d’encoder de manière fluide(25fps) une vidéo H.265 4K même avec un Core i7.



Pourtant avec un SoC de smartphone équipé des bons DSP on y arrive sans problème (snapdragon 80x).



Est-ce que ça veut dire que que le SoC du smartphone est surpuissant et qu’il poutre les derniers processeur desktop?



Non, il y en a juste d’un coté des DSP spécialisés, de l’autre un CPU généraliste.<img data-src=" />







SIIIIIIIIGGGHHHHHHH



Bon ok tu comprends rien j’abandonne,



je parle de comment sont organisés les canaux mémoires les DMAs les locks mémoires les shadow memory eet ce genre de chose pas de dsp.









XMalek a écrit :



SIIIIIIIIGGGHHHHHHH



Bon ok tu comprends rien j’abandonne,



je parle de comment sont organisés les canaux mémoires les DMAs les locks mémoires les shadow memory eet ce genre de chose pas de dsp.





Mais, là dessus je n’ai pas de soucis. Mon point n’est pas de dire que la mémoire n’est pas un problème.Je sais que c’est un problème de la PS3.



Mon point c’est de dire que ce n’est pas le seul problème. Qu’on n’a pas fait en 2005 un CPU qui explose tout ce qui se fait de mieux en 2014 et qu’il faut prendre du recul sur les vendeurs de toutes natures.









Alucard63 a écrit :



Mon point c’est de dire que ce n’est pas le seul problème. Qu’on n’a pas fait en 2005 un CPU qui explose tout ce qui se fait de mieux en 2014 et qu’il faut prendre du recul sur les vendeurs de toutes natures.







Ben justement c’est bien ça le problème tu met le doigt dessus.

Comment on améliore les CPUs actuellement :




  • En rajoutant des cadenceurs

  • En rajoutant des dsps

  • En augmentant la vitesse des mémoires / Coeurs

  • En ajoutant des fonctionnalités pré cablés dans les cpus



    En terme d’architecture on évolue que très peu et les seules pistes intéressantes (mais très mal exploitées car manque de techniciens bas niveaux dessus et quelques petits défauts de conception restants principalement au niveau des cache mémoires) c’est les GPGPUs.









Winderly a écrit :



Ça explique pas mal de choses à propos de leur premier jeu. <img data-src=" />





Complètement ! C’était une pure démo technique, pas plus <img data-src=" />









XMalek a écrit :



Ben justement c’est bien ça le problème tu met le doigt dessus.

Comment on améliore les CPUs actuellement :




  • En rajoutant des cadenceurs

  • En rajoutant des dsps

  • En augmentant la vitesse des mémoires / Coeurs

  • En ajoutant des fonctionnalités pré cablés dans les cpus



    En terme d’architecture on évolue que très peu et les seules pistes intéressantes (mais très mal exploitées car manque de techniciens bas niveaux dessus et quelques petits défauts de conception restants principalement au niveau des cache mémoires) c’est les GPGPUs.





    Pour le coup, on est tout à fait d’accord à un petit bémol prêt:



    On ne le fait pas au détriment d’une partie CPU généraliste, ce que le CELL a fait .<img data-src=" />



vu que même sur neogaf on a eu droit a des posts indigne du type de forum dont il est question je ne m’attendais pas à mieu ici !



en même temps quand tu demandes 8go minimun pour espérer couvrir la vision et les possibilité technique de ton moteur et qu’on te file 5go….ils n’allaient pas dire qu’on pourrait utiliser leur moteur avec les features future proof derrière….



elles galère déja pas mal pour faire tourner les jeux en 1080p avec toute les feature qui étaient “future proof” dans un crysis de 2007








martino a écrit :



vu que même sur neogaf on a eu droit a des posts indigne du type de forum dont il est question je ne m’attendais pas à mieu ici !



en même temps quand tu demandes 8go minimun pour espérer couvrir la vision et les possibilité technique de ton moteur et qu’on te file 5go….ils n’allaient pas dire qu’on pourrait utiliser leur moteur avec les features future proof derrière….



elles galère déja pas mal pour faire tourner les jeux en 1080p avec toute les feature qui étaient “future proof” dans un crysis de 2007





Ce qui est marrant c’est que, ici meme, a l’annonce de ces consoles, tout le monde etait la a dire que c’etait pas terrible comme spec, tout juste digne d’un pc moyen de gamme et que depuis on a l’impression que *Go de Ram partagee c’est le top moumoute des specs et que c’est honteux de critique cette quantite de ram qui dans les pc est deja la taille standard en dedie … (donc deja depasse …)









XMalek a écrit :



Ben justement c’est bien ça le problème tu met le doigt dessus.

Comment on améliore les CPUs actuellement :




  • En rajoutant des cadenceurs

  • En rajoutant des dsps

  • En augmentant la vitesse des mémoires / Coeurs

  • En ajoutant des fonctionnalités pré cablés dans les cpus



    En terme d’architecture on évolue que très peu et les seules pistes intéressantes (mais très mal exploitées car manque de techniciens bas niveaux dessus et quelques petits défauts de conception restants principalement au niveau des cache mémoires) c’est les GPGPUs.







    Dans ce monde monde capitalistique c’est surtout du à manque réel de concurrence pour faire bouger les choses









Lafisk a écrit :



Ce qui est marrant c’est que, ici meme, a l’annonce de ces consoles, tout le monde etait la a dire que c’etait pas terrible comme spec, tout juste digne d’un pc moyen de gamme et que depuis on a l’impression que *Go de Ram partagee c’est le top moumoute des specs et que c’est honteux de critique cette quantite de ram qui dans les pc est deja la taille standard en dedie … (donc deja depasse …)







la comm sony a toujours bien fonctionné surtout en France.



Mais il faut rester réaliste, ces consoles sont très eloignées de leur parentes de 2005.

Elles succèdent à des consoles aux specs haut de gamme sur des architectures basées sur la performance et en avance sur leur temps.

Elles ont déjà eu du mal à émerveiller passé les 5 premières années et ce au profil d’une qualité d’image( a ne pas confondre avec la DA) et d’un framerate toujours plus faible.



Que va t’il se passer dans 3-4 ans avec ces consoles avec un cpu famélique , un gpu milieu de gamme au mieux et le tout qui galère déjà à afficher en full hd des features qui étaient futuristes en 2007(crysis)

Les ambitions seront vite limités coté physique, interactivité ,ia et j’en passe(la ou tout est encore à faire et très limité )….alors on aura surement ce qu’on avait avant en 1080p ou proche…mais est ce seulement ca qu’on attend d’une nouvelle génération de jeux ? Oui et non j’ai envie de dire ^^ sauf que la nous ne pourront de tout manière pas avoir les 2









Alucard63 a écrit :



Pour le coup, on est tout à fait d’accord à un petit bémol prèsêt:



On ne le fait pas au détriment d’une partie CPU généraliste, ce que le CELL a fait .<img data-src=" />





Désolé celle là elle piquait.<img data-src=" /><img data-src=" /><img data-src=" />









Kamalen a écrit :



Comme si c’était le code qui prennait de la place en mémoire… <img data-src=" />





Tu connais les Demo Makers ? avec peu de place ils font des trucs de oufs. Alors oui le code ça prend de la place quand c’est mal branlé.



Crytek me fait bien rire ! Son moteur graphique, le CryEngine, demande des configurations démesurées pour tourner convenablement. Chaque nouvelle version de son moteur graphique fait tomber les configurations les plus puissantes.



C’est un langage qui ne passera peut-être pas sur un forum de technophiles, mais plutôt que de venir critiquer les limites des consoles, il n’a qu’à baisser les performances de son moteur graphique. Même sur PC, son CryEngine 3 est un boulet pour beaucoup de joueurs, tant celui-ci demande des cartes graphiques très haut de gamme pour tourner convenable (je n’ose même pas dire parfaitement). Il faut voir les configurations recommandés pour jouer à “Crysis 3” dans des conditions optimales……….



Bref, c’est bien beau de se servir de ses jeux vidéos pour faire de belles vitrines à son moteur graphique…. encore faut-il qu’il puisse tourner raisonnablement sur un maximum de configurations. Ce n’est pas le cas du CryEngine 3. Les nouvelles versions des CryEngine sont toujours trop en avance sur leur temps. Il y en a qui apprécient. Moi pas. Si la majorité des PC, même gamer, n’arrivent pas à faire tourner relativement bien le CryEngine 3, je ne suis pas étonné que les consoles, elles, soient à la ramasse avec ce moteur graphique.








Romaindu83 a écrit :



Crytek me fait bien rire ! Son moteur graphique, le CryEngine, demande des configurations démesurées pour tourner convenablement. Chaque nouvelle version de son moteur graphique fait tomber les configurations les plus puissantes.



C’est un langage qui ne passera peut-être pas sur un forum de technophiles, mais plutôt que de venir critiquer les limites des consoles, il n’a qu’à baisser les performances de son moteur graphique. Même sur PC, son CryEngine 3 est un boulet pour beaucoup de joueurs, tant celui-ci demande des cartes graphiques très haut de gamme pour tourner convenable (je n’ose même pas dire parfaitement). Il faut voir les configurations recommandés pour jouer à “Crysis 3” dans des conditions optimales……….



Bref, c’est bien beau de se servir de ses jeux vidéos pour faire de belles vitrines à son moteur graphique…. encore faut-il qu’il puisse tourner raisonnablement sur un maximum de configurations. Ce n’est pas le cas du CryEngine 3. Les nouvelles versions des CryEngine sont toujours trop en avance sur leur temps. Il y en a qui apprécient. Moi pas. Si la majorité des PC, même gamer, n’arrivent pas à faire tourner relativement bien le CryEngine 3, je ne suis pas étonné que les consoles, elles, soient à la ramasse avec ce moteur graphique.





Je pense honnêtement que leur moteur est bien optimisé. D’ailleurs sur current gen Crysis est quand même un sacré tour de force (même si on a droit à des baisses de framerate et à du cliping en veux-tu, en voila…).



Le truc, AMHA, c’est qu’ils ajoutent sur PC toutes les options à la pointe de la technologie possibles et imaginables or le joueurs PC ne peut pas comprendre qu’un jeu n’a pas besoin d’être au max pour être appréciable…



Ceci dit je comprend la frustration des joueurs PC parce que mis à part les graphismes il n’y a pas grand chose à voir dans Crysis 2 et 3.<img data-src=" />









Alucard63 a écrit :



Je pense honnêtement que leur moteur est bien optimisé. D’ailleurs sur current gen Crysis est quand même un sacré tour de force (même si on a droit à des baisses de framerate et à du cliping en veux-tu, en voila…).



Le truc, AMHA, c’est qu’ils ajoutent sur PC toutes les options à la pointe de la technologie possibles et imaginables or le joueurs PC ne peut pas comprendre qu’un jeu n’a pas besoin d’être au max pour être appréciable…



Ceci dit je comprend la frustration des joueurs PC parce que mis à part les graphismes il n’y a pas grand chose à voir dans Crysis 2 et 3.<img data-src=" />





C’est cela oui. <img data-src=" />

Je te garantis que le joueur pc qui est ruiné (en fait même sans l’être) comprend ça mieux que personne. <img data-src=" />

Ici ceux qui le comprennent pas sont les gars de Crytek.



Ils ont atteint les limites des consoles ? Qu’ils fassent la leur. <img data-src=" />









Fuli a écrit :



Bah ce n’est pas le code qui prend de la mémoire….

Par contre, s’ils pouvaient améliorer leur intégrations d’objets (images tout ça) pour utiliser des images générées algorithmiquement plutôt que des mégas à charger, ce serait pas mal.

Genre comme il se fait ici:

http://www.pouet.net/prod.php?which=10545

(bon OK, programmer un jeu très beau en 64Ko…euh <img data-src=" />)





Ils sont pas forcé du faire du 64Ko non plus, mais c’est techniquement possible de bouffer moins.





KP2 a écrit :



C’est pas une histoire de code…

T’as beau avoir le meilleur code du monde, si t’as besoin de textures de 4Go pour que ton jeu soit beau alors tu vas consommer au moins 4go de RAM…





Tu fais en sorte que ta texture soit une formule mathématique en lieu d’un fichier de 4Go ? Ta formule mathématique va pas faire 4Go n’est-ce pas ?









Romaindu83 a écrit :



Crytek me fait bien rire ! Son moteur graphique, le CryEngine, demande des configurations démesurées pour tourner convenablement. Chaque nouvelle version de son moteur graphique fait tomber les configurations les plus puissantes.



C’est un langage qui ne passera peut-être pas sur un forum de technophiles, mais plutôt que de venir critiquer les limites des consoles, il n’a qu’à baisser les performances de son moteur graphique. […]





Baisser les performances non, optimiser pour qu’il consomme moins de ressources oui.



Et pendant ce temps là, sur PC, tu ajoutes ou tu changes tes barettes



<img data-src=" />








Zulgrib a écrit :



Tu fais en sorte que ta texture soit une formule mathématique en lieu d’un fichier de 4Go ? Ta formule mathématique va pas faire 4Go n’est-ce pas ?







Mais si je ne me trompe pas, ta “formule mathematique de 4ko”, pour charger en openGL, tu devras bien génèrer une texture “plate” de xMo que tu dois charger en mémoire (parce que sinon il faut la recalculer à chaque passe) et si tu as 4000 textures à gérer (entre décors, batiments, personnages, véhicules que tu dois précharger pour éviter d’avoir à faire un loading/génération de texture en catastrophe), bah tu te retrouves avec des Mo qui se transforment en Go …



Sans compter que les textures procédurales, c’est bien gentil, mais ça “ne gère pas tout” non plus <img data-src=" />









darkbeast a écrit :



Ouais enfin y’a une différence d’abordabilité entre un célibataire qui se fait 35-40 K€ par an et la mère de famille avec 3 enfin qui gagne un smic.



Pour moi abordable c’est quand ça sera comme pour les 32” 1080p actuelles c’est à dire 300-400 euros.









En cherchant un peu :



http://www.amazon.com/TCL-LE50UHDE5691-50-Inch-Ultra-120Hz/dp/B00ES5Q6E2



Alors certes, c’est du bas de gamme (et encore) mais quand on voit ça, on peux se dire que chez les “grands” (non parce que bon, faut pas se leurrer hein, c’est fabriqué dans les mêmes usines) le prix baissera beaucou plus vite qu’on le crois.



Edit : Et si on cherche uniquement en marchant Fr :http://online.carrefour.fr/electromenager-multimedia/tcl/televiseur-led-ultra-hd… .



J’ai pas réussi à trouver plus bas que 999€ chez les marchands Fr. (Et c’est le même prix chez tous)









RaoulC a écrit :



Et pendant ce temps là, sur PC, tu ajoutes ou tu changes tes barettes



<img data-src=" />





Tu les effrites et tu les fumes plutôt, non?<img data-src=" />









Alucard63 a écrit :



Tu les effrites







Une fois <img data-src=" />



Ils ont craqué les mecs chez Crytek… 8 Go c’est largement suffisant aujourd’hui, et dans 5 ans ça le fera aussi. On est sur console les gars, pas sur pc, l’optimisation ça existe <img data-src=" />


Ahaha Crytek…Crisis 3 ! Un tri-sli de Titan le jour de sa sortie pour afficher plus de 60 fps en 1080p Full-HD tout ultra <img data-src=" />



Même si je salue le rendu graphique du CryEngine, je respecte largement plus les devs de chez Unreal qui eux, prennent leur temps pour faire un nouveau moteur, apprennent de leurs erreurs et sont nobles vis à vis de la communauté. (Le développement en accord avec le peuple du prochain UT <img data-src=" /> ) le UE4 va être impressionnant. <img data-src=" />








yAMiGoHaN a écrit :



Ils ont craqué les mecs chez Crytek… 8 Go c’est largement suffisant aujourd’hui, et dans 5 ans ça le fera aussi. On est sur console les gars, pas sur pc, l’optimisation ça existe <img data-src=" />







Qu’est-ce qui t’empêche de faire de l’optimisation sur pc ?



C’est quoi la différence concrète entre les principes de fonctionnement d’une PS4 / XboxOne et d’un PC ?

Dans les deux cas tu as un OS, une couche logicielle pour gérer les I/O…. le temps des gestions purement matérielles des consoles est révolu depuis longtemps, faut se réveiller…. Suffit de prendre une super NES, de lancer SF II, puis de prendre une console (ou un pc) récente et de lancer SFIV…. Tu vas voir que tu vas sentir que ça répond nettement moins bien…



D’ailleurs SFIV possède un buffering “énorme” sur les entrés sur console, c’est pas pour rien <img data-src=" />





Sinon pour le fond du problème, à tous les donneurs de leçon qui voudraient apprendre à Crytec à coder, j’aimerais bien voir comment ils s’y prendraient eux… Je ne dis pas qu’il n’y a pas de technique pour réduire la consommation en ressource (CPU, GPU ou RAM) , mais dans la plupart des cas ce sont des cache-misères (discret, certes, mais quand même). Les véritables avancés se font au niveau matériel…. et ça fait un moment que ça dure !



Et pour le côté code spécifique plus optimisé…. ce n’est pas ma branche mais je serais assez curieux de savoir si, dans l’optique ou une société sérieuse prendrait réellement la peine de vouloir optimiser un code pour une machine spécifique, le gain serait si spectaculaire que ça… Mes profs de prog, il y a plus de 10 ans, regrettaient le temps de l’ASM et des optimisations de derrière les fagots…. tout en reconnaissant que les compilateurs faisaient du bien meilleur boulot, bien plus performant, tout en proposant une rapidité et un confort de codage sans commune mesure….



Quelque chose me dit que les architectes des moteurs leaders du marché que sont le CE et l’UE ont une connaissance très poussé des architectures matérielles des divers supports…. sans commune mesure avec celle que pourrait posséder le random dev…. Bien sûr je peux me tromper…









blackdream a écrit :



Je comprend pas les commentaires qui s’en étonne.

8go partagé entre le CPU et le GPU, dont une partie est réservé au système, ça correspond plus ou moins à 2Go CPU pour le système, 4Go CPU pour le jeu, et 2Go pour le GPU. Enfin j’en sais rien, mais je pense que c’est à peu près ça l’ordre de grandeur.

Et si clairement c’est pas dégueu aujourd’hui (ça correspond à un pc de jeu moyen), les télés HD 4K sont en train d’arriver dans les salons, et les consoles vont devoir faire avec cette définition.



Bref ça ne m’étonne pas que Crytek soit déjà capable de se dire que c’est la taille de la RAM qui va poser problème quand viendra l’heure de sortir des jeux en HD 4K.







La 4k sur Xbox one / PS4 ? <img data-src=" /> Ah si… à 15 FPS <img data-src=" /> .



Bon moi j’ai 12go de mémoire ECC DDR3 (Xeon d’occaz de 2010). J’espère que ça suffira à Crytek <img data-src=" />.









RaoulC a écrit :



Et pendant ce temps là, sur PC, tu ajoutes ou tu changes tes barettes



<img data-src=" />







Y a quand même une petite limitation sur PC : le passage à une autre génération de DDR. Même si je sais que le cycle laisse du temps. La DDR3 a encore quelques années devant-elle !









Anna Lefeuk a écrit :



Apprenez à coder !!!







Montre leur ;)









neogamer67 a écrit :



Montre leur ;)





Il y en a qui y arrivent avec moins de 8 Go, donc c’est possible.









yAMiGoHaN a écrit :



Ils ont craqué les mecs chez Crytek… 8 Go c’est largement suffisant aujourd’hui, et dans 5 ans ça le fera aussi. On est sur console les gars, pas sur pc, l’optimisation ça existe <img data-src=" />





L’optimisation en espace a ses limites … Le problème ici, c’est que les textures HD, si tu en mets vraiment beaucoup ça finit par prendre vachement de place. A moins d’amuser à charger/décharger les textures depuis le disque à la volée, mais là c’est plus la peine de chercher les performances …

Après si tu considères que l’optimisation façon console (on pourrit les graphismes pour prendre moins de place et aller plus vite, voir on baisse la résolution à la volée) est une technique valable, effectivement, on peut optimiser. Mais chez moi optimiser c’est aller plus vite et/ou prendre moins de place pour obtenir un résultat équivalent.





Fuinril a écrit :



Mes profs de prog, il y a plus de 10 ans, regrettaient le temps de l’ASM et des optimisations de derrière les fagots…. tout en reconnaissant que les compilateurs faisaient du bien meilleur boulot, bien plus performant, tout en proposant une rapidité et un confort de codage sans commune mesure….





Dans le cadre de l’ASM, c’est de la micro-optiimisation. Aujourd’hui effectivement on connaît suffisamment bien les techniques de simplification, parallélisme d’instruction pour que les compilos puissent produire du code ultra rapide sur de courtes portions de code.

Il n’empêche que si tu veux utiliser correctement ta bande passante (parce que c’est là les vrais pertes de vitesse, c’est pas dans la vitesse d’exécution du proco), il faut se sortir les doigts du cul pour avoir un rendement de la mort qui tue <img data-src=" /> .

Mais comme Crytek le dit, la limite sur ces consoles, c’est pas la bande passante, c’est l’espace dispo pour stocker des choses.





Winderly a écrit :



Il y en a qui y arrivent avec moins de 8 Go, donc c’est possible.





Si tu lis bien, Crytek annonce avoir dû beaucoup travailler sur ce jeu pour que ça marche bien. Ils n’ont pas dis qu’ils n’avaient pas réussi, ils ont dis que ça leur avait demandé beaucoup de travail. Et que dans le futur, ça deviendra encore plus difficile (plus de textures, plus grosses, etc …).









Zulgrib a écrit :



Tu fais en sorte que ta texture soit une formule mathématique en lieu d’un fichier de 4Go ? Ta formule mathématique va pas faire 4Go n’est-ce pas ?







Ouais mais c’est pas si simple…



Si tu connais une formule mathematique pour dessiner des vetements de soldat, tu m’appelles…



Faut arreter de comparer les demo makers avec les editeurs de jeux. Les demo makers, c’est juste ce qui est marqué dans leur nom : des DEMO makers.

Une demo de ce genre, c’est comme un prototype de voiture au salon de l’auto, ca fait rever mais c’est tres loin d’etre un produit fini industrialisable tel quel.



Et puis, la vraie performance des demos makers, c’est de faire globalement le plus de trucs dans la plus petite taille possible. Les mecs font ca comme un hobby et peuvent passer 3 ans dessus si ils en ont envie.

Chez un editeur de jeux, la rentabilité est le besoin n°1. On a pas le temps de laisser des dev passer 1 an pour gratter qq centaines de Mo.









Ksass`Peuk a écrit :



Si tu lis bien, Crytek annonce avoir dû beaucoup travailler sur ce jeu pour que ça marche bien. Ils n’ont pas dis qu’ils n’avaient pas réussi, ils ont dis que ça leur avait demandé beaucoup de travail. Et que dans le futur, ça deviendra encore plus difficile (plus de textures, plus grosses, etc …).





Je lis :



ont dû gérer de façon plutôt intense l’utilisation de la mémoire vive, et cela sera très certainement l’un des facteurs limitants de cette génération



et je répond :

Ça tombe bien la mémoire vive est sensée servir à ça.

Si tu dois charger un jeu entier en RAM avant de l’exécuter, où est l’optimisation ?



Au moins, c’est clair.








Winderly a écrit :



Il y en a qui y arrivent avec moins de 8 Go, donc c’est possible.







Mais ils font pas aussi beau en général <img data-src=" />










atomusk a écrit :



Mais ils font pas aussi beau en général <img data-src=" />





tetris en ASCII… <img data-src=" />









Winderly a écrit :



Ça tombe bien la mémoire vive est sensée servir à ça.

Si tu dois charger un jeu entier en RAM avant de l’exécuter, où est l’optimisation ?





Le jeu installé sur la machine pèse dans les 30Go, je pense pas qu’ils stockent les textures décompressées sur le disque. A supposer que dans les scènes les plus what-the-fuck, ils n’utilisent que 5% des textures/mesches/sons/whatever, 1Go (pour arrondir) décompressé dans les buffers ça peut déjà être méchant surtout quand il faut rajouter les calculs de rendu. Généralement, tout ça passe par des algos de compression/décompression optimisés pour GPU, mais ça reste pas de la tarte.

Et 30Go c’est ce qui sort aujourd’hui, à voir ce qu’on produira comme jeu dans 2 ans.





Zulgrib a écrit :



Tu fais en sorte que ta texture soit une formule mathématique en lieu d’un fichier de 4Go ? Ta formule mathématique va pas faire 4Go n’est-ce pas ?





Ben, une fois calculée pour en faire son affichage, elle fera largement plus que le poids d’une formule (pas 4Go effectivement). Puis comme ça a été dit avant on peut pas tout créer avec des formules.









Winderly a écrit :



Ben, une fois calculée pour en faire son affichage, elle fera largement plus que le poids d’une formule (pas 4Go effectivement). Puis comme ça a été dit avant on peut pas tout créer avec des formules.







T’es de mauvaise foi…. je suis sûr que les infographistes seraient ravis de bosser sur des maths avancées au lieu de dessiner









Fuinril a écrit :



T’es de mauvaise foi…. je suis sûr que les infographistes seraient ravis de bosser sur des maths avancées au lieu de dessiner





Après vérification j’ai jamais écrit ça (ni rien qui y ressemble).

Il y a un bug quelque part.









neogamer67 a écrit :



Montre leur ;)









Pas de temps à perdre.Je suis un élu et mon temps et précieux d’où mon message court et poli pour te répondre.<img data-src=" />



Ha enfin les développeurs commencent à râler sur le matos, comme d’hab quoi, mais cette fois çi ça a pris plus de temps que d’habitude lol








KP2 a écrit :



Hein ??

Mais si la donnée que tu as besoin de mettre en memoire fait 4Go, t’as beau optimiser le code qui charge cette donnée autant que tu veux, t’auras bien 4go de consommé, non ?

C’est ca le probleme dans les jeux recents : les données a mettre en memoire sont giganteques. Le code, c’est peanuts a coté…



Y’a 20 ans, un jeu c’etait 80% de code et 20% de sprites. Aujourd’hui, le code doit representer quoi ? 0,1% du volume total ? 0,01 % peut etre meme





[quote:5027275:KP2]



C’est plus compliqué que ça, souvent pour des facilité de codage ou optimisation en vitesse, les dev on tendance a démultiplier certaines donnée , dont les textures / mesh etc. et/ou a les stocker en mémoire sous un encodage plus coûteux en espace









Alucard63 a écrit :



Encore une fois: C’est rarement rentable.<img data-src=" />



On fait des projet JV à l’heure actuelle qui reproduisent des villes entières, avec des mécanismes complexes de gameplay, des milliers d’objets et personnages à modéliser…la principale plus value elle est ici.







Ca, je ne dis pas le contraire. Dans ce cas l’apprentissage du hard n’est pas forcément nécessaire. J’aborde plutôt le problème au niveau de la connaissance matérielle, des moteurs et API utilisés pour construire un jeu. De faire en sorte que chaque jeu est sa propre identité graphique et non pas un moteur générique. La plupart des studios travaillent sur la réécriture d’un moteur connu pour l’adapter à une console au lieu de se créer le leur qui s’adapterais bien mieux à leurs besoins. Tout comme en arcade le hard était adapté au jeu, et ca ne coutait pas plus cher pour autant. En tout cas moins cher qu’un jeu d’aujourd’hui, pourtant il y en avait du matos et de la R&D… Il y a vraiment une disparité énorme entre les compétences qu’il fallait avant pour faire un jeu vidéo : un bouillon de culture entre électronique / programmation et aujourd’hui où l’on est dans le pure software et où la console est limite absente de l’équation. C’est moche.







Nnexxus a écrit :



C’est quand même deux métiers distincts. Proches, certes, mais distincts.

On pourrait dire aussi :



Certes savoir comment marche une bagnole peut aider à mieux conduire. Mais si tu met un pilote devant un capot ouvert, il ne saura pas forcément faire grand chose. De même, un mécanicien au volant d’une F1, c’est la casse assurée. Deux métiers distincts.







Analogie automobile non recevable. D’un parce que je pense que tout pilote s’y connais proportionnellement mieux que M. Toutlemonde en mécanique auto. De deux, historiquement en informatique la maitrise d’une puce, d’un processeur passait forcément par son analyse.



Pourquoi ? Parce que la puissance nécessaire pour faire tourner un programme n’était pas celle d’aujourd’hui. Les besoins d’optimisation étaient nettement plus vitaux au regard des capacités très limitées en matière de fréquence, de calcul et de capacité mémoire. OK, ces limitations ont mené la vie dure aux dev de l’époque mais ça a stimulé la créativité en quelque sorte.



Même si tout cela était totalement informel et subis. Mais au final ca a donné de très belles choses. Alors qu’aujourd’hui, les indé s’échinent à imiter le pixel art sans vraiment comprendre ce qui faisait le cachet des jeux 2D, c’est à dire les limites de la machine (je ne suis pas nostalgique de la 2D, je démontre). C’est assez ubuesque de voir a quel point le “renouveau” renie le passé et ne le prend pas comme expérience.







Xaelias a écrit :



Juste pour être sûr qu’on parle de la même chose. À partir de quand considères-tu que le langage devient haut-niveau?







C’est très simple, le bas niveau tu te rapproche du métal, de l’électronique. Tu fais ce que tu veux mais tu dois absolument tout faire faire. Le plus connu, l’assembler spécifique à chaque puce, mais il y en a d’autres. Le C est un langage de haut niveau, il t’évite les désagréments primitifs du bas niveau mais ne permet pas d’optimiser aussi finement qu’avec un langage de bas niveau. Après même à l’époque des 8 bit tout ne se faisait pas en ASM. Le C était aussi très présent.







Xaelias a écrit :



Sinon, pour répondre au soucis que tu pointes du doigt, la réponse est évidente, et tu le dis d’ailleurs toi-même. Avoir un programmeur spécialisé dans un hardware spécifique (PS3 par exemple, avec son cell à gérer etc.) est extrêmement coûteux. Et qui plus est, une fois que la PS3 n’existe plus (en gros à partir d’ajd), le développeur perd énormément en polyvalence, et doit être reformé sur un hardware spécifique.







Alors il y a deux réponse à apporter à cela :



La première est que généralement ce genre de dev existe encore. Sauf qu’il ne va pas bosser sur des jeux mais sur des choses plus pointues. On les trouve notamment dans la conception d’API, de compilateurs ou de moteur graphique. Mais on les retrouve surtout dans le monde des processeurs ARM. Ce qui fait la différence de perf (perf hein, pas feature) entre, par exemple, un switch utilisant les même composants mais n’ayant pas le même firmware. Autre exemple les téléphones portables ou les mini camera type GoPro. Pour la plupart de ces appareils les processeurs et la majorité des composants sont les mêmes. Pourtant d’une marque à l’autre les perf et les capacités offertes ne sont pas les mêmes. Outre le modèle commercial appliqué à ces “devices” il y a aussi le fait de savoir triturer l’architecture du composant. C’était un sport assez commun dans le temps pour le jeu vidéo. Prendre un analyseur logique et voir comment se comporte le processeur avec des bouts de codes. C’était quelque chose de commun et d’encourager encore jusqu’a la PS2 (la PS1 avait son perf analyser composant par composant inclus en hard dans l’un de ses devkit). Depuis les diverses couches d’abstraction, les moteurs tout faits, les compilo ca s’est estompé à une vitesse hallucinante.



La seconde, c’est qu’un développeur “bas niveau” n’est jamais vraiment spécialisé sur une puce. Il a surtout une très bonne connaissance des architectures matérielles. Aujourd’hui on les retrouve à développer du hard sur des devkit équipé de puce CPLD ou FPGA. Pour les petits étudiants ce sera de l’Arduino avec les microcontrôleurs Atmel entre autre, voir du Rasbery… Avec ce genre d’apprentissage il est assez “facile” ensuite d’appréhender l’archi d’une puce et d’en tirer le meilleur. Ca été le boulot de pas mal de boites et de studio de JV.



Certains créaient des devkit lowcost parfois même meilleurs que les officiels (SN System pour le Gamecube, PsyQ pour la Saturn…) et d’autres des moteurs spécifiques à un jeu, des microcodes pour les processeurs… Ces personnes étaient dédiées à la dissection d’une machine. Tout simplement pour que le studio est l’exclusivité d’un développement de qualité. Ce qu’il se passait généralement c’est que les studios proches du constructeur avaient des outils bien plus pointus que les 3rd party qui devait se débrouiller avec les moyens du bort. Ca à toujours fonctionné comme ça jusqu’a il y a peu. Le jeu était très souvent le reflet des outils créé pour l’occasion.







Xaelias a écrit :



Que si l’API reste grosso merdo la même sur plusieurs consoles, voir plusieures générations, tu gagnes énormément en productivité. Par contre le résultat est clairement moins bons que ce qu’il aurait pu être, mais à moindre coût, et probablement en gagnant du temps également.







Mais c’est vrai. Et Nintendo stigmatise très bien cet état de fait. Sa console est spécifique, leur outils aussi. En gros ils n’ont pas suivit la tendance actuelle en matière de développement et ils le payent aujourd’hui par un cruel manque de support de leur console. Mais la question c’est : qui à raison ? Uniformiser ou rester spécifique ?







Xaelias a écrit :



Perso travailler dans le JV c’est ce que j’aimerais faire dans les prochaines années. J’ai pas réussi à trouver un stage dans ce domaine, je ré-essayerai après, et clairement je préférerais avoir des connaissances poussées sur une plateforme, et bien coder pour cette plateforme plutôt que d’utiliser une API générique. Mais très clairement aussi, ça n’a pas le même coût pour l’employeur…







Bonne chance à toi, c’est encore un monde assez fermé ou il est difficile de percer (dans le monde des consoles tout du moins). Connaitre une plateforme au plus prêt de son électronique te donnera un avantage certain. Mais aujourd’hui c’est assez difficile, car les constructeurs font tout pour planquer ces infos. Y compris les constructeurs de carte graphiques, il te faudra beaucoup de temps, de patience et de passion pour cela. Mais comme il y un très gros manque de personne connaissant le bas niveau, étant capable de l’analyser cette voie est certes difficile mais payante à la fin. En tout cas si t’es vraiment passionné par le hard.







Fuinril a écrit :



Quelque chose me dit que les architectes des moteurs leaders du marché que sont le CE et l’UE ont une connaissance très poussé des architectures matérielles des divers supports…. sans commune mesure avec celle que pourrait posséder le random dev…. Bien sûr je peux me tromper…



+1



Et c’est parce qu’il ont ces connaissances qu’ils mâchent le boulot aux studio qui ne pensent qu’au flouz qu’a l’assemblage de moteur et d’API… c’est quoi les Lego pour les grand déjà ? Ah oui les Lego Technic









Dr.Wily a écrit :



Analogie automobile non recevable. D’un parce que je pense que tout pilote s’y connais proportionnellement mieux que M. Toutlemonde en mécanique auto. De deux, historiquement en informatique la maitrise d’une puce, d’un processeur passait forcément par son analyse.







C’est certain que mon analogie automobile était bateau (c’est bien le principe d’une analogie auto), mais je trouve quand même qu’elle illustre bien le problème. Certes un pilote en connaîtra probablement davantage en mécanique qu’un type lambda, de même qu’un développeur de jeux vidéos en connaîtra certainement plus en électronique qu’un pâtissier. Pour autant, l’électronique n’est clairement pas (ou en tout cas plus) un pré-requis pour bosser dans du développement de haut niveau, les mathématiques (algorithmique) et la physique (optique, mécanique du solide) y sont infiniment plus utiles.



Je remarque que tu parles au passé, en faisant référence à l’histoire de l’informatique. C’est certain que ce que tu dis était vrai à une époque pas si lointaine, de même que Jack Brabham était mécano/pilote, concevant ses propres voitures (oui j’y tiens à ma métaphore <img data-src=" />). Mais vu l’état de l’industrie du JV actuellement, où les développements multi-plateformes sont la norme, et les cycles de développement doivent être courts pour répondre aux attentes du marché, un développeur proche du matériel n’est clairement pas un bon développeur. Il serait bien plus utile dans du logiciel embarqué et/ou critique.



@Dr. Wily

Tu mets hors-touche le boulot des développeurs actuels un peu trop vite. Je ne travaille pas dans le JV, mais je ne pense pas me tromper en extrapolant ce que je connais. L’augmentation des performances matériels et les langages de haut niveau n’ont pas amené les développeurs à se tourner les pouces pour autant. Le temps libéré leur a été demandé pour autre chose. Et cet autre chose peut être aussi stimulant et riche de défi que l’optimisation au niveau du métal.



De plus, comme dit auparavant, si le temps passé à l’optimisation multiplie le temps passé par 1,5 pour seulement 5% de gain de performance, ça ne vaut pas le coup.



Et enfin, développer avec l’optimisation comme premier objectif est généralement une mauvaise pratique.








Nnexxus a écrit :



(…)







Je sais bien tout ça. Ton post est tout a fait le reflet de ce qu’il se passe. C’est malheureusement implacable. Mais est-ce que pour autant c’est ce qu’il faut ?



Que deviendront les développeurs lorsque l’on aura fait abstraction d’eux ? Parce que je ne crois pas que ce ce soit de la SF que de penser qu’un jour un programme “simple” (comme le JV) pourra être développer sans avoir de compétences particulières en développement.



Certaines boites fournissent déjà des kits de construction de jeux comme l’on peut trouver des CMS pour le Web. Chose commune aujourd’hui qui faisait hurler les dev Web à l’époque.



Et là, il sera drôle de lire des commentaires de gens comme moi qui ne râleront plus sur le désintérêt du hard, mais sur celui du développeur… qui faisait le cachet du jeu… <img data-src=" /> Et il y aura des personnes comme toi qui seront pragmatiques en disant que c’est dans l’aire du temps.



Pour résumer, je trouve juste dommage de perdre des bouts d’un métier passionnant juste par facilité et souvent pour des histoires de fric.



Sinon ton exemple automobile est transposable aux frères Lumière <img data-src=" />









Anna Lefeuk a écrit :



Pas de temps à perdre.Je suis un élu et mon temps et précieux d’où mon message court et poli pour te répondre.<img data-src=" />







<img data-src=" />









le podoclaste a écrit :



@Dr. Wily]

De plus, comme dit auparavant, si le temps passé à l’optimisation multiplie le temps passé par 1,5 pour seulement 5% de gain de performance, ça ne vaut pas le coup.



Et enfin, développer avec l’optimisation comme premier objectif est généralement une mauvaise pratique.







Non non <img data-src=" />



Je me suis mal fait comprendre. Je ne parle pas d’optimisation en terme de perf ou de code propre. Je parle d’exploiter les capacité spécifiques d’une machine (ou d’une carte graphique, mais c’est plus délicat commercialement…) pour rendre le contenu qu’elle propose différent de la concurrence. Tout comme les MD et SNES (je prend cet exemple simple car il est connu de tous) étaient aisément reconnaissable au niveau graphique et sonore.



Tout comme la PS2 proposait de chouettes effets de particules et le Gamecube étant spécialisé dans l’éclairage dynamique…



Là, la tendance est a la standardisation, y compris au niveau matériel (One/PS4). Les jeux se ressembleront tous plus ou moins, le hard n’étant plus déterminant sur le rendu graphique. Ce qui est une erreur de mon point de vue et de mon expérience.



Pour le reste de ton post je suis d’accord.









le podoclaste a écrit :



@Dr. Wily

Tu mets hors-touche le boulot des développeurs actuels un peu trop vite. Je ne travaille pas dans le JV, mais je ne pense pas me tromper en extrapolant ce que je connais. L’augmentation des performances matériels et les langages de haut niveau n’ont pas amené les développeurs à se tourner les pouces pour autant. Le temps libéré leur a été demandé pour autre chose. Et cet autre chose peut être aussi stimulant et riche de défi que l’optimisation au niveau du métal.







Tout a fait, avant pour faire un helloworld fallait 3 semaines aujourd’hui 5 minutes …



Je suis pas sur que son but sois de mettre hors touche les dev actuels mais ca relance clairement un peu le debat du dev acutel vs le dev ancien qui mettait soit disant les main dans le camboui beaucoup plus hors ce debat est vraiment pourri avant tu avais de toute facon pas trop le choix et comme je le dis en exaggerant ton helloworld que tu mets 2 min top chrono a faire aujourd’hui ben desole mais avant tu le faisais en 7h de boulot quoi …



l’optimisation reviendra le jour ou on atteindra les limites des capacites physiques des proc etc… mais pour le moment ce n’est pas le cas et il vaut largement mieux pouvoir produire rapidement avec une certaine qualite.



De plus aujourd’hui on peut largement oriente le temps libere vers de la conception de projet bien plus pointu. La ou avant tu avais des programmes relativement basique aujourd’hui on a des interfaces relativement complexes ou meme une mecanique interne (non UI) tres complexe.









Dr.Wily a écrit :



Là, la tendance est a la standardisation, y compris au niveau matériel (One/PS4). Les jeux se ressembleront tous plus ou moins, le hard n’étant plus déterminant sur le rendu graphique. Ce qui est une erreur de mon point de vue et de mon expérience.







Donc en gros, tu penses que la standardisation en general est une erreur ??? C’est un poil bete quand meme, c’est ce qui fait souvent avancer les choses … au contraire je trouve que ce rendre dependant d’une plateforme que ce soit logicielle ou hard est une absurdite absolue.



Si tu connais un peu la theorie des systemes generaux, un systeme c’est un ensemble d’acteurs dont chacun a des entres/sorties. Un acteur etant lui meme un sous syteme. Une fois tes entrees sortie standardisees, rien ne t’empeche de faire ce que tu veux dans ton sous syteme, l’innovation passe elle par une extension du modele standard, c’est tout.










Dr.Wily a écrit :



Pour résumer, je trouve juste dommage de perdre des bouts d’un métier passionnant juste par facilité et souvent pour des histoires de fric.







Le métier ne disparaît pas pour autant, il se déplace. Si tu veux faire du code proche du hardware, c’est plus dans le jeu vidéo qu’il faut aller, c’est tout. Mais y’a largement de quoi s’éclater avec la prolifération des micro-drones, des objets connectés etc… bref des secteurs où, par nature, le hardware est imposé et peu puissant. Comme le marché des consoles de jeu 10-20 ans en arrière quoi.









Nnexxus a écrit :



Le métier ne disparaît pas pour autant, il se déplace. Si tu veux faire du code proche du hardware, c’est plus dans le jeu vidéo qu’il faut aller, c’est tout. Mais y’a largement de quoi s’éclater avec la prolifération des micro-drones, des objets connectés etc… bref des secteurs où, par nature, le hardware est imposé et peu puissant. Comme le marché des consoles de jeu 10-20 ans en arrière quoi.







Je ne vois pas pourquoi il faudrait qu’il disparaisse dans le jeu vidéo. C’est, et ça restera toujours utile quoi qu’on en dise. Le preuve avec ce qui arrive à la Wii U, elle est boudée pour son aspect spécifique. Ce démontre bien l’état d’esprit actuel en matière de développement de jeu vidéo.









Dr.Wily a écrit :



Je ne vois pas pourquoi il faudrait qu’il disparaisse dans le jeu vidéo. C’est, et ça restera toujours utile quoi qu’on en dise. Le preuve avec ce qui arrive à la Wii U, elle est boudée pour son aspect spécifique. Ce démontre bien l’état d’esprit actuel en matière de développement de jeu vidéo.







Parce que tout simplement les grosses boites de dev ne veulent plus supporter les couts faramineux de portages et qu’elles preferent les solution standard. Et comme ce sont elles qui fournissent le contenu des consoles, les constructeurs sont bien obliges de suivre. L’exemple nintendo montre bien que si tu suis pas, tu es boude et que la chute, qui meme si elle est longue est inevitable … (en tout cas, c’est le chemin qu’ils prennent avec leur mentalite chez nintendo, a moins qu’ils arrivent a ce contenter d’un marche de “niche” et d’une image de console pour enfant)



En soit, je dirais meme qu’il est actuellement incomprehensible qu’un dev lambda soit oblige de rentrer dans des optimisations specifiques a une plateforme pour faire en sorte que ca fonctionne bien. La plateforme elle meme devrait forunir des outils suffisant pour qu’il n’y ait pas besoin d’optimisation.









Lafisk a écrit :



Donc en gros, tu penses que la standardisation en general est une erreur ??? C’est un poil bete quand meme, c’est ce qui fait souvent avancer les choses … au contraire je trouve que ce rendre dependant d’une plateforme que ce soit logicielle ou hard est une absurdite absolue.



Si tu connais un peu la theorie des systemes generaux, un systeme c’est un ensemble d’acteurs dont chacun a des entres/sorties. Un acteur etant lui meme un sous syteme. Une fois tes entrees sortie standardisees, rien ne t’empeche de faire ce que tu veux dans ton sous syteme, l’innovation passe elle par une extension du modele standard, c’est tout.







On vois quand même que la standardisation a fortement freinée l’innovation. Il fu un temps ou c’est le hard qui poussait l’evolution des API, avec des CG qui sortaient beneficiant de fonction inédite uniquement exploitable via des api native ou extensions openGL (directX devais attendre la version suivante), actuellement c’est l’isnverse, les API evolue et les cartes graphiques suivent pour supporter en hard les nouveautées de l’API









jaretlafoudre a écrit :



On vois quand même que la standardisation a fortement freinée l’innovation. Il fu un temps ou c’est le hard qui poussait l’evolution des API, avec des CG qui sortaient beneficiant de fonction inédite uniquement exploitable via des api native ou extensions openGL (directX devais attendre la version suivante), actuellement c’est l’isnverse, les API evolue et les cartes graphiques suivent pour supporter en hard les nouveautées de l’API







Entre autres oui. Mais visiblement c’est difficile à expliquer et à faire comprendre.









jaretlafoudre a écrit :



On vois quand même que la standardisation a fortement freinée l’innovation. Il fu un temps ou c’est le hard qui poussait l’evolution des API, avec des CG qui sortaient beneficiant de fonction inédite uniquement exploitable via des api native ou extensions openGL (directX devais attendre la version suivante), actuellement c’est l’isnverse, les API evolue et les cartes graphiques suivent pour supporter en hard les nouveautées de l’API







Le probleme de la standardisation c’est qu’il faut des intermediaires (a la maniere du W3C) pour les definir, hors cela a aussi ses limites, on voit bien que le W3C met toujours 3 plombe a avance sur les “innovations”.



Aujourd’hui au niveau API 3D, le probleme c’est que les standards sont des solutions independantes ou aucun acteurs majeurs comme crytek etc.. n’interviennent tu as directx d’un cote, openGl de l’autre (je suis pas sur pour openGl ceci dit mais je doute quand meme qu’il y ait une reelle structure derriere)



L’innovation n’est pas freinee par la standardisation mais plutot car celle ci n’est pas organisee, ou a defaut de non organisation, d’un mauvaise organisation.



Si les actuers comme crytek intervenaient dans la standardisation, rien ne les empecheraient de faire des morceaux proprio non standards et de proposer ses morceaux pour une standardisation. C’est comme cela que cela ce passe avec le web et personne ne s’en plaind (la seule vraie plainte est la lenteur du W3C)



Ensuite, il faut que ton API reste extensible pour permettre cette innovation, la clairement opengl l’est









Dr.Wily a écrit :



Que deviendront les développeurs lorsque l’on aura fait abstraction d’eux ? Parce que je ne crois pas que ce ce soit de la SF que de penser qu’un jour un programme “simple” (comme le JV) pourra être développer sans avoir de compétences particulières en développement.



Certaines boites fournissent déjà des kits de construction de jeux comme l’on peut trouver des CMS pour le Web. Chose commune aujourd’hui qui faisait hurler les dev Web à l’époque.



Les CMS sont utilisés partout, de plus en plus et par tout le monde.

Les développeurs web ont disparus ?

Pas du tout, ils sont de plus en plus nombreux et dans de nombreux langages différents.

Pourquoi les développeurs de jeux vidéo disparaîtraient ?

Il est déjà tout à fait possible de faire des jeux sans une seule ligne de code, les dév ont pas pour autant disparus.



De plus, les gens qui veulent jouer, ils veulent un jeu, pas une demo.

C’est sur c’est sympa de dépasser les limites techniques d’une machine, mais c’est certainement pas ce qui fait un bon jeu.









Lyzz a écrit :



Les CMS sont utilisés partout, de plus en plus et par tout le monde.

Les développeurs web ont disparus ?

Pas du tout, ils sont de plus en plus nombreux et dans de nombreux langages différents.

Pourquoi les développeurs de jeux vidéo disparaîtraient ?

Il est déjà tout à fait possible de faire des jeux sans une seule ligne de code, les dév ont pas pour autant disparus.



De plus, les gens qui veulent jouer, ils veulent un jeu, pas une demo.

C’est sur c’est sympa de dépasser les limites techniques d’une machine, mais c’est certainement pas ce qui fait un bon jeu.







oui la standardisation du materiel n’est absolument pas un probleme en soit

c’est la standardisation du contenu (des jeux) qui l’est.



Rien n’empêche de faire (techniquement) des exclus, avec un effort sur la durée de vie solo et un scenario qui tient la route.



Sur PS360 leurs archis n’etaient pas tout a fait les mêmes et les exclus etaient rares, cela montre bien que c’est une volonté commerciale et pas une obligation technique.



l’Amiga, le ST et la MD utilisaient des archis proches et leurs jeux etaient differents ( et ils etaient mieux sur amiga <img data-src=" />)



c’est plus de jeux soignés et variés qu’il faut, et ce quelque soit l’archi.

Je dirais meme que c’est parce que les archis seront proches, que ca pourrait (notez le conditionnel) laisser plus de temps et de budget a l’élaboration du scenar et du mode solo au lieu de perdre du temps que l’optimisation hard



et je ne dis pas que cette optimisation ne doit pas se faire, car si. Mais comme l’a dit quelqun avant, cette charge devrait incomber au développeurs du kit de dev de la console et / ou dans un second temps aux codeurx de moteur de jeux indépendamment d’un quelconque jeu en cour de dev.









Fuinril a écrit :



Qu’est-ce qui t’empêche de faire de l’optimisation sur pc ?



C’est quoi la différence concrète entre les principes de fonctionnement d’une PS4 / XboxOne et d’un PC ?

Dans les deux cas tu as un OS, une couche logicielle pour gérer les I/O…. le temps des gestions purement matérielles des consoles est révolu depuis longtemps, faut se réveiller….





Je suis d’accord avec toi sur le fond.



Mais entre développer un jeu qui va tourner sur 2 configurations spécifiques (PS4 et Xbox One), qui ont un hardware pas trop éloigné l’une de l’autre, et un jeu qui va tourner sur une multitude de configurations possibles (PC), y’a quand même une petite nuance.



Perso, pour avoir un PC plutôt correct niveau puissance, quand je vois tourner les derniers gros jeux sortis, et la consommation en ressources matérielles pour un résultat certes un plus impressionnant que sur console (à définition égale), mais pas tant que ça finalement (y’a qu’à voir Killzone Shadow Fall sur PS4, j’ai été surpris, vraiment), je me dis que l’optimisation sur PC c’est pas franchement la plus grande priorité des devs (ex : Metro Last Light, et pourtant ce jeu a déjà 1 an, autre exemple chez Crytek justement : Crysis 3…, à voir maintenant ce que vont donner les gros hit PC 2014).



Donc oui l’optimisation concerne les deux types de plateforme, mais sur console les devs s’en soucient un peu plus que sur PC. Et la raison est simple : sur console tous les joueurs ont la même config, et elle est connue par les devs, sur PC, les joueurs “n’ont qu’à” adapter (moyennant finances) leur config pour faire tourner les gros jeux correctement.



Y’a qu’à regarder les derniers gros jeux PS3, la config est vraiment très vieillissante, mais les devs ont réussi a sortir des jeux franchement convaincant par rapport à ce qui se faisait lors des premières années de vie de la console (alors oui, on est loin du PC, mais le défi technique est quand même relevé de mon point de vue).



Pour la PS4 et la Xbox One (même si cette dernière est un peu moins bien équipée), le topo sera le même d’ici quelques années, comme toujours : le PC mettra une raclé aux consoles, mais les consoles entre-temps auront bénéficié d’un traitement de faveur de la part des développeurs concernant l’optimisation des jeux, le gouffre sera bien moins important à matériel équivalent PC/consoles.



Enfin, franchement, entre nous, pour du matos à 400€, je pense que le résultat sera déjà bien suffisant, même après quelques années de vie, surtout sur des sorties (tv) en 1080p (démocratisé maintenant).



Parce que la 4K, à par pour se palucher et éclater sa tirelire, franchement c’est useless. Vaut mieux du 1080p bien clinquant que de la 4K (ou autres définitions 2K+) fait à l’arrache.