Xbox One : Une nouvelle API facilite l'utilisation de l'eSRAM

Xbox One : Une nouvelle API facilite l’utilisation de l’eSRAM

1080p à tous les étages (ou pas)

Avatar de l'auteur
Kevin Hottot

Publié dans

Société numérique

31/12/2014 2 minutes
40

Xbox One : Une nouvelle API facilite l'utilisation de l'eSRAM

Microsoft a déployé il y a deux semaines une nouvelle version du SDK (Software Development Kit) de la Xbox One, qui a été mise à disposition des studios de développement. Il est question grâce à elle de permettre d'accéder plus facilement à l'eSRAM présente sur l'APU de la console, et donc d'en tirer un peu plus de performances.

Sur le plan matériel, bien que très semblables, la PlayStation 4 et la Xbox One présentent tout de même un certain nombre de différences. Toutes deux sont bien équipées d'un APU de chez AMD, qui renferme une partie CPU comprenant huit cœurs Jaguar, cadencés à 1,6 GHz sur la PS4 et à 1,75 GHz sur la Xbox One, et une partie graphique, basée sur l'architecture GCN composée de respectivement 1152 et 768 unités de traitement.

Mais la principale différence n'est pas là, elle se cache du côté de la mémoire. En plus de ses différents niveaux de cache, l'APU de la Xbox One comprend 32 Mo d'eSRAM. Un type de mémoire vive qui a pour avantage de proposer une bande passante plus importante que la DDR3, avec une valeur maximale théorique de 192 Go/s, contre 68,3 Go/s pour la DDR3. 

Seul problème, son utilisation est un peu compliquée pour les développeurs, mais les choses ont apparemment changé depuis une mise à jour du SDK de la console, déployée le 12 décembre dernier. Selon Maciej Binkowski, le Lead Game Designer de Dying Light cette nouvelle version a assez largement facilité le travail de ces équipes à ce niveau-là. « La nouvelle API nous permet de faire bien plus de choses avec l'eSRAM. Des choses que les développeurs ont toujours voulu faire, mais qu'ils ne pouvaient pas effectuer facilement. [Cette mise à jour] et de meilleurs outils nous ont permis d'augmenter significativement les performances de notre jeu, et d'ajuster notre utilisation de l'eSRAM », explique-t-il à Gamingbolt.

Il ne reste plus qu'à espérer que cette mise à jour permettra à plusieurs studios de faire fonctionner leurs jeux sur Xbox One, avec une définition native de 1920 x 1080 pixels. Cette fameuse définition que Microsoft estime ne pas être le Saint Graal, même si parfois, le constructeur fait pression sur les studios, aussi gros soient-ils, pour que leurs jeux l'atteignent.

Écrit par Kevin Hottot

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Fermer

Commentaires (40)


Le débit ne fait pas tout. Si eSRAM == <embedded><Static>RAM, la latence doit être au ras des pâquerettes, un vrai bonheur.








levhieu a écrit :



Le débit ne fait pas tout. Si eSRAM == RAM, la latence doit être au ras des pâquerettes, un vrai bonheur.





La SRAM a pourtant souvent une meilleure latence que la DRAM, c’est un bon type de mémoire cache.



Si MS a réfléchit à une architecture si original/complexe ca ne doit pas juste être pour le plaisir de mettre 32Mo d’eSRAM sur la carte mère … J’imagine que DirectX12 et les nouvelles techniques type Tiled Ressources permettront d’en tirer partie d’une bien meilleur maniérè qu’aujourd’hui … Après est ce que les developpeurs multi-plateforme s’embêteront avec des optimisations propre à la machine la moins vendu <img data-src=" /> ?



Sinon la fuites d’un SDK et de sa doc laisserait supposé que n’importe quel développeur pourrait utilisé sa console comme kit de développement comme cela avait été annoncé lors des premières confs (a moins qu’il s’agissait de rumeurs ?) …



Par exemple, seul les apps en JS/HTML ou C++ / DirectX serait admise (quid du C#/xaml ?).

Ca lève aussi le voile sur des techniques pour l’instant non autorisé mais qui le seront surement avec DirectX12 etc ..








arno53 a écrit :



Si MS a réfléchit à une architecture si original/complexe ca ne doit pas juste être pour le plaisir de mettre 32Mo d’eSRAM sur la carte mère … J’imagine que DirectX12 et les nouvelles techniques type Tiled Ressources permettront d’en tirer partie d’une bien meilleur maniérè qu’aujourd’hui … Après est ce que les developpeurs multi-plateforme s’embêteront avec des optimisations propre à la machine la moins vendu <img data-src=" /> ?







pour les exclus xbox one oui ils essaieront de tirer le maximum de la machine



La vrai question est de savoir si le gain de vitesse engendré par une bonne utilisation de l’eSRAM permettra à MS de compenser le retard sur sony lié à l’utilisation de DDR3 contre de la DDR5 chez son concurrent.



Contrairement à beaucoup, je pense que c’est possible (à verifier bien sur), car une mémoire ultra rapide sans latence même en petite quantité peut permettre de débrider un GPU bien plus surement qu’une grande quantité de DDR5 qui sera de toute façon remplie à 90% de textures n’ayant pas l’utilité de tels débits.



Quoi qu’il en soit, savoir que cette API n’est disponible que maintenant montre à quel point MS à lancé sa console dans le rush.



(Je ne possède ni ne posséderais aucune de ces deux consoles)

&nbsp;


Ben oui, ras des pâquerettes pour moi ça veut dire proche de zéro, donc pas de second degré quand je disais «un vrai bonheur»


Je trouve aussi fort curieux que Microsoft mise sur une console moins puissante (sur le papier du moins) en sachant que ça leur portera préjudice de toute manière, les sites et magazines étant friands de gros titres racoleurs et les lecteurs friands de tout ce qui peut être utile à leur “guerre des fans”.



La 360, bien que moins vendue a toujours joui d’une meilleure réputation, car de nombreux jeux multi-supports y étaient bien mieux réalisés/optimisés malgré des caractéristiques techniques en dessous de la PS3.



Pour l’instant la One est non seulement la plus “faible” mais aussi la moins vendue. Je ne sais pas ce que prépare Microsoft mais j’imagine qu’ils ne se laisseront pas couler aussi facilement et que 20152016 nous réserveront quelques surprises (DX12, unification des OS avec Windows 10, un processeur plus fin pour la One,…)


https://fr.wiktionary.org/wiki/au_ras_des_p%C3%A2querettes &lt;&lt; Éviter des utilisations qui n’ont rien à voir avec ce que ça veut dire.








touitboy a écrit :



[…]

Quoi qu’il en soit, savoir que cette API n’est disponible que maintenant montre à quel point MS à lancé sa console dans le rush.



 [...]







Pas forcément. La news dit qu’il était déjà possible d’utiliser l’eSRAM mais que c’était trop difficile.

Peut-être que l’équipe s’est trompé en estimant le niveau de difficulté de la prise en main par des gens extérieurs à elle. J’ai déjà vu ce genre de mauvais calcul maintes et maintes fois dans d’autres domaines.



Surement mais j’ai jamais eu l’impression que MS cherchait a aller dans les entrailles de ses propres consoles … L’une des plus grosse saga de la 360, Gears of War, vient d’Epic et de son moteur Unreal qui était plus ou moins multiplateforme (bien qu’Epic a du optimiser un minimum les Gears pour la 360) mais a coté de ça on a eu des Uncharted, Killzone qui me donnait vraiment l’impression que les équipes étaient a fond dans l’architecture du Cell & co …



Après de ce que j’ai compris, aujourd’hui la référence graphique serait encore Ryse: Son of Rome de Crytek (là encore avec un moteur généraliste, le CryEngine, optimisé) mais je pense que les gars de Naughty Dog ne se laisseront pas faire …









touitboy a écrit :



Quoi qu’il en soit, savoir que cette API n’est disponible que maintenant montre à quel point MS à lancé sa console dans le rush.





Toute les consoles s’optimise avec le temps… 4 ans après sa sortie et après avoir optimisé l’OS, Sony avait réussi a libéré 70 Mo pour les jeux (sur les 256 Mo dispo c’est énorme et ca explique le genre de bon entre Uncharted 1 et 2.)



Perso je trouve que les 2 consoles sont sortie à la rache … par contre coté évolution du système, Microsoft s’en tire bien mieux … Et avec DirectX12 et la base Windows 10 qui arrive, je suis pressé de voir les evolutions car clairement la Xbox One est clairement tres intéressante dans son ingénierie avec le système des 3 OS (1 OS + 2 virtualisé) ; là ou la PS4 n’est qu’un simple PC a base de FreeBSD 9 …



Pas rien à voir.

En fait, j’ai juste quelques siècles de retard, j’en suis resté au point où le sens figuré n’avait pas encore totalement remplacé le sens propre (je n’ai jamais autant mérité mon pseudo <img data-src=" />).


La différence de puissance est là, et pas franchement significative, mais vu que de toute façon les titres sont multi-plateformes et que les deux plateformes sont plus que similaires, ça s’alignera de toute façon sur le plus lent et le moins qualitatif des deux.

Le meilleur exemple est la PS3, vu que les APIs et les moteurs était pas optimisés pour, il y avait un gros écart avec la 360 qui elle était mieux dotée côté développement à la sortie. Le résultat final c’est qu’en dehors de quelques jeux maltraités par les phases d’optimisation, les perfs étaient quasi identiques à moins de regarder sur des captures d’écrans. En plus vu qu’aucun éditeur ne souhaite généralement se fâcher avec Microsoft ou Sony (sauf pression commerciale), ils ont pas intérêt à suggérer qu’une des consoles est moins bonne que l’autre.

Bref, si vous regardez sur des captures d’écrans, vous verrez la différence, si vous jouez, j’espère que vous passez votre temps à faire autre chose que de comparer la qualité des textures…


Le jour où Microsoft/Sony nous sort “un nouveau SDK et de nouvelles API permettant de doubler les performances de leurs machines asthmatiques” on pourra faire péter le champagne, mais là je crois que c’est du rêve…… (Je précise j’ai une PS4 et c’est une énorme deception, quand je tape une course en bagnole dans les rues de GTAV et que ça tombe sous les 20fps j’ai envie de hurler !!!)








Moebius13100 a écrit :



Le jour où Microsoft/Sony nous sort “un nouveau SDK et de nouvelles API permettant de doubler les performances de leurs machines asthmatiques” on pourra faire péter le champagne, mais là je crois que c’est du rêve…… (Je précise j’ai une PS4 et c’est une énorme deception, quand je tape une course en bagnole dans les rues de GTAV et que ça tombe sous les 20fps j’ai envie de hurler !!!)







Alors peut être pas doubler, mais avec DX12 les différences devraient bien visible par rapport à ce que l’on a aujourd’hui.



N’importe quoi la fin de ton commentaire&nbsp;



“Quoi qu’il en soit, savoir que cette API n’est disponible que maintenant

montre à quel point MS à lancé sa console dans le rush.”



(Je ne possède ni ne posséderais aucune de ces deux consoles)



=&gt; Tu as connu le lancement de l’API sur 360 permettant l’accès au 10 MB eDRAM du GPU ? Ce n’est certainement pas 1an après ça sorti ! Alors se faire une telle opinion est ridicule selon-moi


Ca ne changera pas grand chose. Pour la mémoire c’est la quantité qui compte, le type de mémoire n’a quasiment aucune importance. Des benchs ont été fait là dessus en comparant différentes barrettes de DDR2 et DDR3. La DDR3 étant deux fois plus rapide que la DDR2, ils ont montré que la différence était négligeable (généralement 1 fps de différence, 3 fps dans certains cas)








touitboy a écrit :



La vrai question est de savoir si le gain de vitesse engendré par une bonne utilisation de l’eSRAM permettra à MS de compenser le retard sur sony lié à l’utilisation de DDR3 contre de la DDR5 chez son concurrent.





GDDR5 <img data-src=" />



la GDDR5 est basée sur la DDR3 mais avec un bus plus court (les puces sont proches du GPU) permettant d’atteindre un fréquence plus élevée qu’avec la DDR3, donc un débit plus important, en échange d’une latence un peu plus élevée.



MS tente de rattraper le coup comme ils peuvent, c’est bien normal, mais leurs 32mo d’esRAM ne permettront pas de compenser le retard de la DDR3 face à la GDDR5 de la PS4 et les 35% d’unités en moins sur leur GPU. D’autant que pour exploiter l’esRAM avec un semblant de bénéfice, encore faut-il que les devs modifient leur moteur…


Rien à voir.

On est sur une architecture où la mémoire est partagée entre le CPU et le GPU, et les deux ont des besoins différents. Là où le CPU profite bien d’une mémoire pas forcément rapide mais réactive (faible latence), le GPU préfère une grande vitesse (données plus lourdes : textures, vertex,…).

Ca met bien en avant d’ailleurs l’orientation initiale des deux consoles. La PS4 a une mémoire privilégiant la bande passante =&gt; Jeux.

La XOne a une mémoire plus réactive =&gt; console plus généraliste + et eSRAM pour le GPU/jeux.

La différence peut être relativement importante selon ce qu’on cherche à faire. Je ne serai pas étonné de voir la XOne bien plus efficace que la PS4 sur des tâches généralistes (CPU plus rapide + RAM mieux adaptée) alors que la PS4 a un avantage sur le GPU (entre la RAM et les unités supplémentaires).



D’ailleurs, certaines cartes graphiques existent en version DDR3 et GDDR5. La différence de perfs peut être relativement importantes dans certains jeux alors que le GPU est identique.


Oui sauf qu’on pouvait espérer :

&nbsp;

1 -&nbsp;&nbsp;qu’avec le retour d’expérience accumulé sur les dernières générations les constructeurs pensent à documenter leur consoles de façon plus fournie, surtout dans un secteur aussi concurrentiel

&nbsp;

2 - Que le fait de voir leur concurrent mieux doté (sur le papier) leur fasse réaliser l’urgence de mettre en avant le seul élément supérieur de leur configuration.



Donc attendre 1 an avant de sortir une API permettant d’utiliser cette RAM oui, c’est long.

&nbsp;Après il n’y à certes pas mort d’homme vu le peu de jeux dispos pour le moment sur les deux machines, et on imagine qu’une grande partie de leur énergie passe à régler d’autres soucis (installs, kinect, OS, etc…)








sylvere a écrit :



GDDR5 <img data-src=" />



la GDDR5 est basée sur la DDR3 mais avec un bus plus court (les puces sont proches du GPU) permettant d’atteindre un fréquence plus élevée qu’avec la DDR3, donc un débit plus important, en échange d’une latence un peu plus élevée.





Merci, j’en ai mare de cette amalgame gddr5/ddr5.







KGabou a écrit :



MS tente de rattraper le coup comme ils peuvent, c’est bien normal, mais leurs 32mo d’esRAM ne permettront pas de compenser le retard de la DDR3 face à la GDDR5 de la PS4 et les 35% d’unités en moins sur leur GPU. D’autant que pour exploiter l’esRAM avec un semblant de bénéfice, encore faut-il que les devs modifient leur moteur…





La force de Microsoft est le software donc il faut voir si ils arrivent a comblé l’écart hardware avec leurs outils. Vue le coup dur du changement de philosophie de la console, Microsoft a un sacré travaille a fournir.



L’esram a toujours été accessible.. Cette news pointe juste le fait que c’est maintenant plus simple… En vrai y’a rien d’extraordinaire là dedans.. Les constructeurs libère graduellement les possibilités offertes par les machines au fils des années soit par de meilleures API comme ici soit via une optimisation de l’OS etc…


Le niveau des commentaires putain.



Dx12 c’est pour le PC. Aucun intérêt d’avoir Dx12 sur console, A U C U N. La X0 (et X360) font du bas niveau pour discuter avec le GPU et encore heureux.


Non depuis la première xbox il y a directX sur les consoles de MS.


Au fait, qu’en est-il de la partie “calcul dans le cloud” chez Microsoft?

Est-ce que cette fonctionnalité est opérationnelle sur les jeux X1 actuels?

Quelqu’un a des infos la dessus?


Bien que des features DirectX12 soit déjà présente sur la Xbox One, la généralisation de DirectX12 permettra tout de même quelques gains via une parallélisation plus poussé qu’avec DirectX11.2 …









Pretarian a écrit :



Au fait, qu’en est-il de la partie “calcul dans le cloud” chez Microsoft?

Est-ce que cette fonctionnalité est opérationnelle sur les jeux X1 actuels?

Quelqu’un a des infos la dessus?





Crackdown 3 sera le premier jeu a vraiment utilisé cette techno … Pressé de voir les attaque DDoS faire chuter les FPS pendant une session solo <img data-src=" />









Hugues1337 a écrit :



Le niveau des commentaires putain.



Dx12 c’est pour le PC. Aucun intérêt d’avoir Dx12 sur console, A U C U N. La X0 (et X360) font du bas niveau pour discuter avec le GPU et encore heureux.





Ben… Non, pas forcément. Tout dépend de quel studio on parle, de quelle techno est utilisée et de quel budget est alloué aux engine devs… Je connais quelques studios qui reposent sur l’utilisation de dx sur xbox.



&nbsp;





Pretarian a écrit :



Au fait, qu’en est-il de la partie “calcul dans le cloud” chez Microsoft?

Est-ce que cette fonctionnalité est opérationnelle sur les jeux X1 actuels?

Quelqu’un a des infos la dessus?





Y’a quelques jeux qui l’utilisent je crois, de mémoire forza s’en sert pour drivatar, l’IA qui apprend en fonction de ton pilotage. J’ai pas la console, donc je sais pas vraiment ce que ça donne cela dit.









Hugues1337 a écrit :



Le niveau des commentaires putain.



Dx12 c’est pour le PC. Aucun intérêt d’avoir Dx12 sur console, A U C U N. La X0 (et X360) font du bas niveau pour discuter avec le GPU et encore heureux.







Toi tu connais bien le dev jv et Dx12&nbsp;&lt; _ &lt; ‘, l’intéret c’est de n’avoir qu’un code (pc &lt; = &gt; one) et le deuxième c’est que dx12 a pas mal de petits trucs qui simplifient la vie niveau pipeline de rendu (et “théoriquement” un orderless transparency qui marche enfin…). Il apporte aussi un meilleur debug du rendu.



Il y a aussi deux trois “astuces” qui pemettent d’équilibrer la charge cpu / gpu en temps réel mais j’attend de le voir (et de voir le code qu’il faut utiliser) avant de croire aux belles promesses.



Et pour information mikro$oft a déjà annoncé que directx12 serait porté sur one.









Mr.Nox a écrit :



Alors peut être pas doubler, mais avec DX12 les différences devraient bien visible par rapport à ce que l’on a aujourd’hui.







Phil spencer a déjà annoncé en octobre dernier que le passage à DX12 ne changera pas grand chose aux perfs de la X1



Ne vous inquiétez pas les mecs on a désactivé Kinect pour récupérer un peu de puissance

Ne vous inquiétez pas les mecs on va overclocké notre proco

Ne vous inquiétez pas les mecs on à encore 32Mo de ram qui traîne

Ne vous inquiétez pas les mecs on va faire pression sur les studios pour qu’ils optimisent leur jeux.

Ne vous inquiétez pas les mecs, le 1080p ne sert à rien, le 900p c’est l’avenir

Ne vous inquiétez pas les mecs DirectX 12 vas tout changer



Sa sent pas bon.

&nbsp;

&nbsp;Avec la X1, la WiiU, la PS4, la PSVita, cette génération de console est raté. Pour la PS4 je dis qu’elle est ratée par ce que niveau multimédia c’est la misère, enfin pour l’instant…j’espère.








touitboy a écrit :



La vrai question est de savoir si le gain de vitesse engendré par une bonne utilisation de l’eSRAM permettra à MS de compenser le retard sur sony lié à l’utilisation de DDR3 contre de la DDR5 chez son concurrent.




 Contrairement à beaucoup, je pense que c'est possible (à verifier bien sur), car une mémoire ultra rapide sans latence même en petite quantité peut permettre de débrider un GPU bien plus surement qu'une grande quantité de DDR5 qui sera de toute façon remplie à 90% de textures n'ayant pas l'utilité de tels débits.       






 Quoi qu'il en soit, savoir que cette API n'est disponible que maintenant montre à quel point MS à lancé sa console dans le rush.       






(Je ne possède ni ne posséderais aucune de ces deux consoles)      

&nbsp;





Arg non…



Ce&nbsp; n’est pas de la DDR5 sur la PS3 c’est de la GDDR5 et le principal avantage de la PS4 n’est pas là il est dans son GPU bien plus puissant.



Pour faire simple la GDDR5 c’est de la mémoire pensée pour les débits avec des temps de latences pourris. C’est de la mémoire de carte graphique.



La DDR3 a des débits beaucoup plus faibles mais des temps d’accès bien bien meilleurs.



Dans ton PC la GDDR se trouve utilisé pour la mémoire de ta carte graphique, la DDR pour celle de ton processeur. Sur les consoles ces mémoires sont partagées pour des raisons de coûts et de flexibilité, ensuite c’est un arbitrage d’architecture à faire (GDDR pour les PS4 comme pour la Xbox 360, DDR pour la Xbox One).



L’un n’est pas meilleur que l’autre, ça va dépendre des usages.



Sinon la eSRAM intégrée à la carte graphique c’est pas quelque chose de nouveau. C’est même sensiblement la même chose que eRAM que l’on trouvait dans le GPU “Xenos” de la Xbox 360.



Sinon ca devrait permettre la même chose que ça permettait sur 360: proposer un antialiasing sans perte de framerate en 1080p. A confirmer par des personnes plus pointues si il y en sur les commentaires de PCI.<img data-src=" />



C’est également une expression familière dans le milieu aéronautique.

Voler au ras des pâquerettes -&gt; voler très bas.&nbsp;

Ou en plus courant, faire du rase-motte.

&nbsp;

<img data-src=" />


Il faut mettre à jour l’article <img data-src=" />








Alucard63 a écrit :



Arg non…




Ce&nbsp; n'est pas de la DDR5 sur la PS3 c'est de la GDDR5 et le principal avantage de la PS4 n'est pas là il est dans son GPU bien plus puissant.      






Pour faire simple la GDDR5 c'est de la mémoire pensée pour les débits avec des temps de latences pourris. C'est de la mémoire de carte graphique.      






La DDR3 a des débits beaucoup plus faibles mais des temps d'accès bien bien meilleurs.      






Dans ton PC la GDDR se trouve utilisé pour la mémoire de ta carte graphique, la DDR pour celle de ton processeur.  Sur les consoles ces mémoires sont partagées pour des raisons de coûts et de flexibilité, ensuite c'est un arbitrage d'architecture à faire (GDDR pour les PS4 comme pour la Xbox 360, DDR pour la Xbox One).    






L'un n'est pas meilleur que l'autre, ça va dépendre des usages.      






Sinon la eSRAM intégrée à la carte graphique c'est pas quelque chose de nouveau. C'est même sensiblement la même chose que eRAM que l'on trouvait dans le GPU "Xenos" de la Xbox 360.       






Sinon ca devrait permettre la même chose que ça permettait sur 360: proposer un antialiasing sans perte de framerate en 1080p. A confirmer par des personnes plus pointues si il y en sur les commentaires de PCI.<img data-src=">







pour l’anti aliasing gratuit &nbsp;ce ne sera pas possible comme sur 360 car les 32mo d’edram ne sont pas suffisant pour contenir un buffer entier en 1080p du coup faudra qu’ils trouvent autre chose pour faire ça ou une autre méthode :)



Ils ne pourront augmenter les perfs brut de la console, mais ils pourront optimiser de bien meilleures manière qu’actuellement. DX12 permet d’être bien plus proche du hard et de pouvoir gérer bien plus finement l’utilisation dudit hard.








boglob a écrit :



Phil spencer a déjà annoncé en octobre dernier que le passage à DX12 ne changera pas grand chose aux perfs de la X1





Evidemment. :-)





XMalek a écrit :



Toi tu connais bien le dev jv et Dx12&nbsp; one) et le deuxième c’est que dx12 a pas mal de petits trucs qui simplifient la vie niveau pipeline de rendu (et “théoriquement” un orderless transparency qui marche enfin…). Il apporte aussi un meilleur debug du rendu.



Il y a aussi deux trois “astuces” qui pemettent d’équilibrer la charge cpu / gpu en temps réel mais j’attend de le voir (et de voir le code qu’il faut utiliser) avant de croire aux belles promesses.



Et pour information mikro\(oft a déjà annoncé que directx12 serait porté sur one.







Les Dx console et PC ne sont pas comparables. Ceux qui utilisent Dx sur x360 et x0 n'ont pas besoin de perf'. Les autres font du natif.



PS : &nbsp;Y'a encore des gogols qui écrivent Microsoft avec un \)
, ce combat d’arrière garde. :|









kyhkyh a écrit :



Je trouve aussi fort curieux que Microsoft mise sur une console moins puissante (sur le papier du moins) en sachant que ça leur portera préjudice de toute manière, les sites et magazines étant friands de gros titres racoleurs et les lecteurs friands de tout ce qui peut être utile à leur “guerre des fans”.



La 360, bien que moins vendue a toujours joui d’une meilleure réputation, car de nombreux jeux multi-supports y étaient bien mieux réalisés/optimisés malgré des caractéristiques techniques en dessous de la PS3.



Pour l’instant la One est non seulement la plus “faible” mais aussi la moins vendue. Je ne sais pas ce que prépare Microsoft mais j’imagine qu’ils ne se laisseront pas couler aussi facilement et que 20152016 nous réserveront quelques surprises (DX12, unification des OS avec Windows 10, un processeur plus fin pour la One,…)







Tu pense bien qu’il ont pas misé par volonté sur une console moins puissantes



ils se sont un peut planté et voilà tout (ils ont misé sur plein de mémoire et se sont fait couper l’herbe sous les pied par Sony)

maintenant ils essayent de faire avec ce qu’ils ont









arno53 a écrit :



Si MS a réfléchit à une architecture si original/complexe ca ne doit pas juste être pour le plaisir de mettre 32Mo d’eSRAM sur la carte mère … J’imagine que DirectX12 et les nouvelles techniques type Tiled Ressources permettront d’en tirer partie d’une bien meilleur maniérè qu’aujourd’hui … Après est ce que les developpeurs multi-plateforme s’embêteront avec des optimisations propre à la machine la moins vendu <img data-src=" /> ?



Sinon la fuites d’un SDK et de sa doc laisserait supposé que n’importe quel développeur pourrait utilisé sa console comme kit de développement comme cela avait été annoncé lors des premières confs (a moins qu’il s’agissait de rumeurs ?) …



Par exemple, seul les apps en JS/HTML ou C++ / DirectX serait admise (quid du C#/xaml ?).

Ca lève aussi le voile sur des techniques pour l’instant non autorisé mais qui le seront surement avec DirectX12 etc ..





Rien d’original c’est déjà des méthode utilisé dans la XBOX 360



ils ont continué sur cette façon de faire pour permettre d’avoir plein de rame pas cher&nbsp;

bref ils ont fait un truc très “console”



sauf que le paris de sony de faire + simple + puissance brut (façon PC) à mieux marché&nbsp;



&nbsp;









touitboy a écrit :



La vrai question est de savoir si le gain de vitesse engendré par une bonne utilisation de l’eSRAM permettra à MS de compenser le retard sur sony lié à l’utilisation de DDR3 contre de la DDR5 chez son concurrent.




Contrairement à beaucoup, je pense que c'est possible (à verifier bien sur), car une mémoire ultra rapide sans latence même en petite quantité peut permettre de débrider un GPU bien plus surement qu'une grande quantité de DDR5 qui sera de toute façon remplie à 90% de textures n'ayant pas l'utilité de tels débits.      






Quoi qu'il en soit, savoir que cette API n'est disponible que maintenant montre à quel point MS à lancé sa console dans le rush.      





(Je ne possède ni ne posséderais aucune de ces deux consoles)



&nbsp;







le truc c’est que le débit de la GGDR5 est casi aussi élevé que la eSRAM et à le gros aventage de simplifié la chose (tout est là et tout vas à la même vitesse)



la eSRAM n’a&nbsp; pour elle que la latence bien plus faible. Mais pour un GPU c’est le débit qui est le plus crucial









linconnu a écrit :



Ca ne changera pas grand chose. Pour la mémoire c’est la quantité qui compte, le type de mémoire n’a quasiment aucune importance. Des benchs ont été fait là dessus en comparant différentes barrettes de DDR2 et DDR3. La DDR3 étant deux fois plus rapide que la DDR2, ils ont montré que la différence était négligeable (généralement 1 fps de différence, 3 fps dans certains cas)





Dsl de t’annoncer que tu dit n’importe quoi



on parle de mémoire certe centrale mais surtout video

&nbsp;

&nbsp;