L'architecture de la PlayStation 4 décortiquée par son concepteur

L’architecture de la PlayStation 4 décortiquée par son concepteur

Ça ressemble à un PC, mais ce n'est pas un PC

Avatar de l'auteur
Kevin Hottot

Publié dans

Société numérique

25/04/2013 4 minutes
168

L'architecture de la PlayStation 4 décortiquée par son concepteur

Mark Cerny le lead architect de la PlayStation 4 s'est très longuement entretenu « sans retenue » avec nos confrères de Gamasutra sur l'architecture matérielle de la PlayStation 4. Celle-ci est héritée du monde du PC, mais de nombreuses différences existent.

logo playstation 4

 

Si Mark Cerny est assez peu connu du grand public, c'est pourtant un des employés les plus importants de chez Sony. L'homme n'est ni plus ni moins que le cerveau derrière l'architecture matérielle et logicielle de la PlayStation 4. Dans un entretien avec Gamasutra, il revient en détail sur chacun des choix qui ont été opérés par le géant nippon sur la future console. 

Un « PC Supercharged », qu'est-ce que c'est ?

Du point de vue de Cerny, l'appellation « Supercharged » se justifie par rapport à certains choix faits au niveau de l'architecture de la console. Certes, elle est très proche d'un PC, mais le constructeur y a apporté des améliorations afin de gagner en performances. 

 

« L'appellation Supercharged vient surtout du fait de l'utilisation d'un pool unifié avec de la mémoire rapide », affirme l'homme assurant que c'est un point crucial de la différenciation avec un PC. « Prenez un PC avec 8 Go de RAM, le CPU et le GPU ne peuvent partager qu'un pour cent de cette mémoire sur une image donnée. C'est une limite imposée par la vitesse de l'interface PCI Express. Donc oui, il y a un avantage substantiel à disposer d'une architecture unifiée, et on peut en profiter dés le premier jour où vous codez pour la console ».


Concernant le CPU et le GPU qui animent la PlayStation 4, le responsable confirme qu'il s'agit d'une puce créée spécialement par AMD pour Sony, composée de huit coeurs Jaguar et d'un  GPU avec un « grand nombre d'unités de calcul », le tout sur le même die. La mémoire ne se trouve pas sur le die, mais communique via un bus à 256 bits avec l'APU, avec un débit théorique de 176 Go/s. « Nous aurions pu nous contenter d'un bus 128 bits qui aurait apporté une bande passante de 88 Go/s et avoir de l'eDRAM directement sur le die pour obtenir de meilleures performances, mais cela aurait été plus compliqué à gérer pour les développeurs », tranche Cerny. 

 

Par contre nous n'en apprendrons pas davantage au sujet du GPU qu'intègre la PlayStation 4, nous saurons seulement qu'il s'agit d'une puce AMD de dernière génération ayant subi de « nombreuses modifications ». 

Un GPU lourdement modifié, pour effectuer des calculs en parallèle de l'affichage

Parmi les changements apportés à la partie graphique de la PlayStation 4, par rapport à celle d'un PC classique, Cerny décrit l'ajout d'un second bus de données au GPU. Celui-ci lui permettrait de lire et écrire directement dans la mémoire système, court-circuitant ses propres caches de premier et second niveau. Ceci permettrait de ne pas avoir de problèmes de synchronisation entre le GPU et le CPU sur l'échange de petites données. Toutefois l'architecte précise que s'il est question de petites données, le bus sera quand même capable d'engloutir 20 Go/s de données, c'est davantage que les 16 Go/s permis par un bus PCIe 3.0 x16.

 

L'architecture GCN des dernières Radeon permet de disposer d'une source de commandes pour les graphismes et de deux pour les calculs. Sony a travaillé avec AMD pour porter cette limite pour les calculs à 64 sources. Le but étant de permettre plus facilement au GPU d'effectuer les calculs concernant la physique.

 

« Il y a de nombreuses façons de gérer comment les ressources du GPU sont allouées entre les graphismes et le calcul. Bien sûr, ce que vous pouvez faire, comme pour la plupart des jeux disponibles au lancement, c'est de tout attribuer aux graphismes. Et ça marche très bien. Mais je pense qu'au milieu du cycle de vie de la console, les studios se pencheront un peu plus sur les calculs », affirme Cerny.

 

Il reste maintenant à savoir comment les studios parviendront à tirer profit de cette architecture. Il faudra cependant faire preuve de patience avant de la découvrir, étant donné que la PlayStation 4 ne devrait pas être disponible avant cet hiver. Dans le meilleur des cas, il faudra attendre l'E3 pour en apprendre davantage.

Écrit par Kevin Hottot

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Un « PC Supercharged », qu'est-ce que c'est ?

Commentaires (168)


est ce que les 8 cœur jaguar ne suffisent pas pour finalement tout mouliner



faire faire du boulot au GPU pour l’instant ça n’a pas percé



ça marche que quand le GPU n’a rien à faire hoirs on veut toujours + de graphisme





donc à part via un GPU annexe comme sur PC en fait j’y crois pas trop sur console



enfin au pire ça laisse le choix



Tout ça pour dire au final que la PS4 est bien meilleur qu’un PC malgré une configuration qui parait plus faible.



J’ai rien compris.

En gros, la PS4 utilise 100% de sa puissance pour afficher une image.

Mais que se passe t’il s’il faut afficher plusieurs images ?

Par exemple il en faut 2 pour la 3D.



Et est-ce que c’est une image par seconde qui occupe 100% de la PS4 ?

Si on veut afficher 120 images par seconde ? il faut 12000% de PS4 ?


J’ai pas compris l’intérêt de la mémoire unifié comparé aux PC classiques








Brodie a écrit :



J’ai rien compris.

En gros, la PS4 utilise 100% de sa puissance pour afficher une image.

Mais que se passe t’il s’il faut afficher plusieurs images ?

Par exemple il en faut 2 pour la 3D.



Et est-ce que c’est une image par seconde qui occupe 100% de la PS4 ?

Si on veut afficher 120 images par seconde ? il faut 12000% de PS4 ?









t’as vraiment rien compris ^^










calimero1 a écrit :



J’ai pas compris l’intérêt de la mémoire unifié comparé aux PC classiques







Très grossièrement : tu peux piocher autant de données que tu veux d’un coup, alors que le bus PCI-E d’un PC limite les échanges CPU/CG









calimero1 a écrit :



J’ai pas compris l’intérêt de la mémoire unifié comparé aux PC classiques







Deux intérêts :




  • Pouvoir moduler la répartition de la mémoire en fonction des besoins (par exemple, utiliser 4 go de mémoire graphique et 4 go de mémoire applicative pour un jeu gourmand graphiquement, et 26 pour un autre jeu)

  • Simplifier l’utilisation du GPU pour les calculs (pas besoin de synchroniser les données entre le GPU et le CPU, vu qu’ils utilisent la même mémoire)



    Après, ce n’est intéressant que si la mémoire partagée est très rapide. Sur les PC, la mémoire intégrée à la carte graphique est beaucoup plus rapide que la RAM “ordinaire”.









Brodie a écrit :



J’ai rien compris.

En gros, la PS4 utilise 100% de sa puissance pour afficher une image.

Mais que se passe t’il s’il faut afficher plusieurs images ?

Par exemple il en faut 2 pour la 3D.



Et est-ce que c’est une image par seconde qui occupe 100% de la PS4 ?

Si on veut afficher 120 images par seconde ? il faut 12000% de PS4 ?







Il n’a jamais été dit qu’avec 100 % de la puissance utilisée, la console mettrait une seconde a calculer son image <img data-src=" />



Le 25/04/2013 à 15h 21







Brodie a écrit :



J’ai rien compris.

En gros, la PS4 utilise 100% de sa puissance pour afficher une image.

Mais que se passe t’il s’il faut afficher plusieurs images ?

Par exemple il en faut 2 pour la 3D.



Et est-ce que c’est une image par seconde qui occupe 100% de la PS4 ?

Si on veut afficher 120 images par seconde ? il faut 12000% de PS4 ?







ca repond aussi a tes questions <img data-src=" />



« Prenez un PC avec 8 Go de RAM, le CPU et le GPU ne peuvent partager qu’un pour cent de cette mémoire sur une image donnée.»



Soit tout de même 80Mo pour une seule image.

En quoi est-ce limitant?


sinon une façon “simple” d’ammener au PC un peut de ces avantage



intégrer directement des unitées de GPU dans le CPU avec un lien direct



enfin j’imagine qu’ils y travail








regis183 a écrit :



« Prenez un PC avec 8 Go de RAM, le CPU et le GPU ne peuvent partager qu’un pour cent de cette mémoire sur une image donnée.»



Soit tout de même 80Mo pour une seule image.

En quoi est-ce limitant?







Il parle un peu plus loin de pouvoir appliquer une dizaine de textures sur une seule surface. Avec des textures en haute définition ça peut commencer à prendre de la place. Surtout si tu traites du 4K :)



Et en utilisant 2 bus PCI-E pour le GPU ça suffit pas?








copaz a écrit :



Et en utilisant 2 bus PCI-E pour le GPU ça suffit pas?







Tu veux dire 2 fois 16 lignes ? On arriverait à 32 Go/s là ils ont un lien à 176 Go/s









Reparateur a écrit :



sinon une façon “simple” d’ammener au PC un peut de ces avantage



intégrer directement des unitées de GPU dans le CPU avec un lien direct



enfin j’imagine qu’ils y travail







Larrabee ? <img data-src=" />









KooKiz a écrit :



Larrabee ? <img data-src=" />







non ça c’est l’inverse



mettre du CPU dans le GPU



ça n’a pas marché



L’unification permet surtout de ne pas avoir de copy entre la mémoire cpu et la mémoire du GPU. C’est cela qui a limité pendant longtemps le nombre de triangle gérer pour une seul scène. Ici, le CPU filera un pointeur au GPU et il se débrouille.



La bande passante mémoire énorme est nécessaire pour ne pas brider le GPU, car pour être compétitive, elle doit être supérieur à celle combiner du CPU et du GPU sur PC classique.


par contre y a un gros avantage de cette archi



elle consommera peut et coutera pas trop cher au final









Ellierys a écrit :



Tu veux dire 2 fois 16 lignes ? On arriverait à 32 Go/s là ils ont un lien à 176 Go/s







Plus bas, il parle de 20Go/s, donc 32Go/s max devrait suffir ?



le bus sera quand même capable d’engloutir 20 Go/s de données, c’est davantage que les 16 Go/s permis par un bus PCIe 3.0 x16



Je suis peut être totalement hors sujet mais lors de la sortie des bus PCIexpress 2 et 3 on a mis des années à les exploiter à fond.

Ce bus est-il si limitant que ça finalement?


Boarf. A l’heure où pas mal de jeux consoles sont portés sur PC, led avantages de ce bus unifié risquent d’être sous utilisé, car il faudra développer son propre moteur graphique.



A moins que Sony n’en fournisse un ?








copaz a écrit :



Plus bas, il parle de 20Go/s, donc 32Go/s max devrait suffir ?







Ah, pour celle-là en particulier, il y a peut être une question de taille de la puce qui ne permet pas de coller 32 ou même 16 lignes PCI-E au milieu, c’est pas très clair (pour moi) dans son exposé









Goldoark a écrit :



Boarf. A l’heure où pas mal de jeux consoles sont portés sur PC, led avantages de ce bus unifié risquent d’être sous utilisé, car il faudra développer son propre moteur graphique.



A moins que Sony n’en fournisse un ?





Sony fourni les kits de développement et les sources mais il me semble pas de moteur graphique.



ça me fait penser à Konami qui a développé son propre moteur graphique pour la PS4, le Fox Engine.



J’ai un peu de mal a comprendre le réel plus,d’avoir une mémoire partager entre le CPU et le GPU. En effet, le GPU ayant sa propre mémoire juste à coté d’elle généralement en DDR5 ou j’ose imaginer que les textures y sont stockées (généralement, ça ça ne se modifie pas). Donc il ne lui manque que les instructions sur le modèle 3D à dessiner qui ne doivent pas être aussi gourmand.



Ceux qui disaient d’avance que la PS4 n’était qu’un sous PC aux performances dépassées au bout de 2 ans et qu’ils serait très probable sans doute de l’émuler risquent de s’être trompés.



La console utilise des composants de type PC (qui seront fortement modifiés) mais une architecture et une optimisation de type console.



Et puis avec un soft et un hardware 100% optimisé pour le jeu, on sera loin des problèmes que l’on rencontre sur PC entre les soucis d’optimisations que l’on retrouve au niveau du système d’exploitation et des drivers.


Je l’ai trouvée ma future config, c’est la PS4 <img data-src=" />



Question con : Sony permettra d’ installer Linux (voire Windows) sur la PS4 ?

Même si ils ont fait machine arrière durant la carrière de la PS3…








tazvld a écrit :



J’ai un peu de mal a comprendre le réel plus,d’avoir une mémoire partager entre le CPU et le GPU. En effet, le GPU ayant sa propre mémoire juste à coté d’elle généralement en DDR5 ou j’ose imaginer que les textures y sont stockées (généralement, ça ça ne se modifie pas). Donc il ne lui manque que les instructions sur le modèle 3D à dessiner qui ne doivent pas être aussi gourmand.





ah bon ? tu crois que le GPU il a pas besoin de communiquer avec le CPU ?

synchro, son, ia, physique … ?









pxidr a écrit :



Je l’ai trouvée ma future config, c’est la PS4 <img data-src=" />



Question con : Sony permettra d’ installer Linux (voire Windows) sur la PS4 ?

Même si ils ont fait machine arrière durant la carrière de la PS3…







Probablement pas. Le piratage de la console ayant été largement facilité par la présence de cette fonctionnalité, je doute qu’ils refassent l’erreur une seconde fois.









pxidr a écrit :



Je l’ai trouvée ma future config, c’est la PS4 <img data-src=" />



Question con : Sony permettra d’ installer Linux (voire Windows) sur la PS4 ?

Même si ils ont fait machine arrière durant la carrière de la PS3…





Je pense pas, ils vont utiliser l’argument du piratage pour dire qu’ils veulent pas. A la base la PS3 ils avaient mis ça pour permettre à ceux qui le voulaient de profiter du processeur pour faire du calcul, mais du coups ça a permis aux hackers d’accéder à des endroits de la mémoire qu’ils voulaient surement cacher.



GRILLE <img data-src=" />









pxidr a écrit :



Je l’ai trouvée ma future config, c’est la PS4 <img data-src=" />



Question con : Sony permettra d’ installer Linux (voire Windows) sur la PS4 ?

Même si ils ont fait machine arrière durant la carrière de la PS3…







Je crois que c’est pas la peine de se poser la question…<img data-src=" />



Et même si c’était possible, avec un GPU et CPU personnalisé de la sorte, quid des pilotes pour faire tourner le tout? jamais se serait possible.



Mais au fait, il est inutile de continuer d’opposer PC/Console, ces machines serviront dans leur domaine respectif.



Dommage, une PS4 en dual-boot avec Linux pour une utilisation en PC de bureau, et l’OS de la PS4 pour en faire une machine de jeu.



C’est beau de rêver… <img data-src=" />


Disons que l’avantage du PC c’est qu’il couvre tout les domaines ^^



mais ça fait plaisir de voir que sony est retournée en arrière

on se rappelle de la PS2 certe intéressante de conception mais une horreur pour les devs








pxidr a écrit :



Dommage, une PS4 en dual-boot avec Linux pour une utilisation en PC de bureau, et l’OS de la PS4 pour en faire une machine de jeu.



C’est beau de rêver… <img data-src=" />









pourquoi pas prendre un PC tout simplement ?









Brodie a écrit :



J’ai rien compris.

En gros, la PS4 utilise 100% de sa puissance pour afficher une image.

Mais que se passe t’il s’il faut afficher plusieurs images ?

Par exemple il en faut 2 pour la 3D.



Et est-ce que c’est une image par seconde qui occupe 100% de la PS4 ?

Si on veut afficher 120 images par seconde ? il faut 12000% de PS4 ?





<img data-src=" />





on peut utiliser 10% de la puissance sur 1 seconde ou 100% de la puissance pendant 6sec pour obtenir un même résultat: donc à puissance égale on gagne en temps d’execution!









after_burner a écrit :



Mais au fait, il est inutile de continuer d’opposer PC/Console, ces machines serviront dans leur domaine respectif.







opposer non, comparer oui pour savoir si notre matos de gamer va être vite obsolète ou très vite obsolète



c’est aussi utile pour monter des nouvelles configue



en l’occurrence ça dit de prendre du full AMD ^^



et pas lésiner sur la quantité de ram video


Dans l’interview, il parle aussi de système audio indépendant pour le que le chat audio soit “gratuit” en terme de cpu. Idem pour un téléchargement en arrière plan, ou la compression/décompression de vidéo.


Je doute de la réelle utilisé de la mémoire partagée entre CPU et GPU pour faire du graphisme, pour du GPGPU oui mais pour du graphisme. A l’époque des 8800, j’avais un bug sur ma carte mère qui forçait mon bus PCI express 1.0 à fonctionner en 1x (250mo/s) , l’ai réussi à corriger partiellement le bug et à repasser en 8x (2Go/s), j’ai gagner 20% d’ips sous crysis 1, le jeux en 1x était déjà fluide.



A la limite ca peut augmenter les perf CPU car celui ci disposera de plus de bande passante et en utilisera moins pour les transfert avec la carte graphique. Mais aussi ca laisse plus de liberté dans la répartition de la mémoire entre CPU et GPU.

Là où ca aurait pu etre vraiment impressionnant c’est s’il avait fait un contrôleur mémoire commun avec un joli cache.



Enfin petite précision: les débits théorique affiché sur les bus sont joli mais aprés faut voir ce qu’il en est dans la pratique, car le débit entre deux zone mémoire ne dépend pas uniquement du bus. Par exemple sur mon PC (i5 3550k, HD78870, PCIex 3.0) le débit RAM VRAM est de 9Go/s et non de 16Go/s. Du coup à 60 ips on a 153Mo/image de transfert entre CPU et GPU 300Mo à 30ips (ce qui est plus la norme pour les console)




metaphore54 Le jeudi 25 avril 2013 à 17:14:56 #2



Tout ça pour dire au final que la PS4 est bien meilleur qu’un PC malgré une configuration qui parait plus faible.





Ouais enfin ça dépend de ce qu’ on entend par PC hein face à une bonne config de joueur ça pèse pas lourd.. <img data-src=" />








Reparateur a écrit :



pourquoi pas prendre un PC tout simplement ?







Pour avoir une seule machine tout simplement ?



Puis vu la puissance de la PS4, à 500-600€, peu de PC peuvent prétendre en faire autant…









pxidr a écrit :



Pour avoir une seule machine tout simplement ?



Puis vu la puissance de la PS4, à 500-600€, peu de PC peuvent prétendre en faire autant…





Si

je pense que pour 700€ (sans Windows) tu peux faire mieux

Si tu veux un exemple demande .









pxidr a écrit :



Pour avoir une seule machine tout simplement ?



Puis vu la puissance de la PS4, à 500-600€, peu de PC peuvent prétendre en faire autant…







Une Radeon HD7850 + un Core i3 ça coute le même prix et ça peut prétendre aux même performances ! (c’est des Core Jaguar le CPU pas des core Piledriver…)







typhoon006 a écrit :



ah bon ? tu crois que le GPU il a pas besoin de communiquer avec le CPU ?

synchro, son, ia, physique … ?







Je ne vois pas ce que le GPU pourrait bien foutre avec des données Sonores, de l’IA qui est plutôt du Game Engine, et de la physique qui n’est toujours pas utilisé fortement en calcul GPU…



Un GPU malgré toute les évolutions des dernières années ça dessine l’image et Basta !









Ellierys a écrit :



Il parle un peu plus loin de pouvoir appliquer une dizaine de textures sur une seule surface. Avec des textures en haute définition ça peut commencer à prendre de la place. Surtout si tu traites du 4K :)









Sauf que la PS4 ne fera du 4K que sur les BR , et non sur les jeux









kypd a écrit :



Une Radeon HD7850 + un Core i3 ça coute le même prix et ça peut prétendre aux même performances ! (c’est des Core Jaguar le CPU pas des core Piledriver…)







Je ne vois pas ce que le GPU pourrait bien foutre avec des données Sonores, de l’IA qui est plutôt du Game Engine, et de la physique qui n’est toujours pas utilisé fortement en calcul GPU…



Un GPU malgré toute les évolutions des dernières années ça dessine l’image et Basta !







Avec mémoire unifiée et tout le bastrin ? Non je crois pas. La PS4 va se mettre une petite avance par rapport aux PC actuels.



Je ne sais pas pourquoi Intel/AMD n’utilise pas ce concept de mémoire unifiée pour les archis PC de bureau… les gains de perfs sont énormes. La 360 utilisait déjà ce concept (les 512Mo de GDDR3 était utilisables aussi bien par le CPU que le GPU).



L’avantage énorme de la mémoire unifié comme ca a déja été expliqué c’est surtout que contrairement aux mémoire PC utilisés actuellement ils faut deux fois moins d’instructions pour faire communiquer le CPU et le GPU.



Sur PC ya deux espaces mémoires, la mémoire GPU VRAM, et la mémoire interne au PC permettant notamment de faire communiquer le GPU et le CPU entre eux, qui est la DDR3.



Outre les débits bien supérieur, la différence se joue au niveau de la transmission des instructions. Lorsque dans une scène sont chargé en mémoire les instructions demandé par le CPU, une autre instruction droit être lancée pour le GPU pour être chargé en VRAM et traité par le GPU.



Donc au delà du partage de la mémoire à la volé sa permet de gagner en vitesse de traitement, et sur des scènes chargés et gourmandes cela peut avoir un impact non négligeable que se soit sur du high poly ou sur des instructions lié à la physique des particules.



C’est d’autant plus intéressant la mémoire unifié ici, et malin que les débits sont élevés, et que ces spécifications ai été pensé pour une utilisation dite “GPGPU”, c’est à dire des tâches que le GPU peut prendre en charge et qui sont pourtant dévolue au CPU. En gros la PS4 a vraiment été bien pensé et ca fait plaisir après une PS3 qui était un calvaire à ce niveau la.








eightG4 a écrit :



L’avantage énorme de la mémoire unifié comme ca a déja été expliqué c’est surtout que contrairement aux mémoire PC utilisés actuellement ils faut deux fois moins d’instructions pour faire communiquer le CPU et le GPU.



Sur PC ya deux espaces mémoires, la mémoire GPU VRAM, et la mémoire interne au PC permettant notamment de faire communiquer le GPU et le CPU entre eux, qui est la DDR3.



Outre les débits bien supérieur, la différence se joue au niveau de la transmission des instructions. Lorsque dans une scène sont chargé en mémoire les instructions demandé par le CPU, une autre instruction droit être lancée pour le GPU pour être chargé en VRAM et traité par le GPU.



Donc au delà du partage de la mémoire à la volé sa permet de gagner en vitesse de traitement, et sur des scènes chargés et gourmandes cela peut avoir un impact non négligeable que se soit sur du high poly ou sur des instructions lié à la physique des particules.



C’est d’autant plus intéressant la mémoire unifié ici, et malin que les débits sont élevés, et que ces spécifications ai été pensé pour une utilisation dite “GPGPU”, c’est à dire des tâches que le GPU peut prendre en charge et qui sont pourtant dévolue au CPU. En gros la PS4 a vraiment été bien pensé et ca fait plaisir après une PS3 qui était un calvaire à ce niveau la.







Je dirais que ce qui se rapproche le plus de l’archi de la PS4 c’est les APU Fusion d’AMD… Un CPU+GPU qui se partagent tous les deux la mémoire système, à savoir de la DDR3.





Ellierys a écrit :







Il parle un peu plus loin de pouvoir appliquer une dizaine de textures sur une seule surface. Avec des textures en haute définition ça peut commencer à prendre de la place. Surtout si tu traites du 4K :)





T’ en connais beaucoup des jeux ou y’ a 10 textures sur une seule face et en 4k ? perso j’ en ait jamais vu mais je met au défi d’ en trouver in-game <img data-src=" />








pxidr a écrit :



Je dirais que ce qui se rapproche le plus de l’archi de la PS4 c’est les APU Fusion d’AMD… Un CPU+GPU qui se partagent tous les deux la mémoire système, à savoir de la DDR3.







Oui bien sur la PS4 a aussi un GPU et CPU sur le meme die, mais la GDDR5 permet de pousser cette échange plus loin puisque on a de bien meilleur débits avec cette ram.









pxidr a écrit :



Pour avoir une seule machine tout simplement ?



Puis vu la puissance de la PS4, à 500-600€, peu de PC peuvent prétendre en faire autant…







Eu tu te contredit dans ta réponse

pour avoir une seul machine…. donc pourquoi prendre une console alors qu’un PC fait tout?



et pour 600€ en 2014 tu aura casi la même puissance sur PC





sinon comme dit plus haut le PCIe n’est pas limitatif dans 99% des jeux actuellement



après pour faire du calcule CPGPU c’est une autre histoire



ça n’enlève en rien que la PS4 est pensée intelligemment



et ça n’enlève en rien qu’un PC top gamme sera toujours + puissant que n’importe quel console

et qu’un PC a 600€ fera tout tourner sans problème dans son année d’achat
















eightG4 a écrit :



Oui bien sur la PS4 a aussi un GPU et CPU sur le meme die, mais la GDDR5 permet de pousser cette échange plus loin puisque on a de bien meilleur débits avec cette ram.







de la latence en plus aussi

pour ça que la GDDR n’est pas utilisé pour les CPU





faut bien se mettre un truc en tête

la PS4 est bien pensée mais bien pensé pour avoir un truc pas cher à produire et qui tient dans une petite boite










boontiikiller a écrit :



Je pense pas, ils vont utiliser l’argument du piratage pour dire qu’ils veulent pas.

GRILLE <img data-src=" />







Ils n’ont pas besoin de tourner autour du pot pour s’expliquer, et simplement dire la vérité, Sony n’avait aucunement annoncé la PS3 comme une machine à linux, de deux, c’est Kutaragi qui soulignait que la PS3 n’était pas qu’une console de jeux, avec l’installation d’un OS ( et donc pas forcément linux ) cela appuyait son discours.



Kutaragi n’étant plus la, Sony dira simplement qu’ils fabriquent la nouvelle Playstation, que si les gens veulent un ordinateur Sony fabrique une sympathique gamme de Laptop Vaio <img data-src=" />









Reparateur a écrit :



Eu tu te contredit dans ta réponse

pour avoir une seul machine…. donc pourquoi prendre une console alors qu’un PC fait tout?



et pour 600€ en 2014 tu aura casi la même puissance sur PC





sinon comme dit plus haut le PCIe n’est pas limitatif dans 99% des jeux actuellement



après pour faire du calcule CPGPU c’est une autre histoire



ça n’enlève en rien que la PS4 est pensée intelligemment



et ça n’enlève en rien qu’un PC top gamme sera toujours + puissant que n’importe quel console

et qu’un PC a 600€ fera tout tourner sans problème dans son année d’achat







Le truc c’est qu’une PS4 est assemblée d’usine, et ça sera du matos très fiable, silencieux et parfaitement “intégré” dans un petit boitier… le tout dans un prix contenu.









Reparateur a écrit :



de la latence en plus aussi

pour ça que la GDDR n’est pas utilisé pour les CPU





faut bien se mettre un truc en tête

la PS4 est bien pensée mais bien pensé pour avoir un truc pas cher à produire et qui tient dans une petite boite









Il y a quelque chose qui m’échappe, quelle mémoire utilise le CPU en ces cas la ?









Reparateur a écrit :



de la latence en plus aussi

pour ça que la GDDR n’est pas utilisé pour les CPU





faut bien se mettre un truc en tête

la PS4 est bien pensée mais bien pensé pour avoir un truc pas cher à produire et qui tient dans une petite boite











Il est clair que la question de la gddr5 doivent les trotés dans leur têtes pour la réduction des coups de fabrications dans les prochaines années à venir.



C’est un paris aussi de la part de Sony sur ce coup la, il avait moins cher je suis d’accord la dessus. Après je sais que Sony à commander des millards de chip de GDDR5, après est ce qu’ils arriverons à faire produires des chips de 4Go pour réduire les couts ont verras.





Les studios cherchent déjà à minimiser au maximum les coûts de production.

Ils vont à coup sûr unifier le developemment Xbox/Ps4/PC.



Les technologies exclusives à un seul support ne seront donc jamais exploitées.








Reparateur a écrit :



Eu tu te contredit dans ta réponse

pour avoir une seul machine…. donc pourquoi prendre une console alors qu’un PC fait tout?



et pour 600€ en 2014 tu aura casi la même puissance sur PC







Il reste des différences…





  • Le tout intégré qui marche comme il faut.

  • Les jeux disponibles (exclus…)

  • La possibilité de jouer à 4 sur une même machine









pxidr a écrit :



Le truc c’est qu’une PS4 est assemblée d’usine, et ça sera du matos très fiable, silencieux et parfaitement “intégré” dans un petit boitier… le tout dans un prix contenu.







ça personne ne le sait, certaines versions de playstation ont eu de gros soucis de fiabilité.



Tiens, question idiote : on parle d’unification des codes du même jeu pour le PC et les consoles nextgen, mais avec cette archi les devs vont coder les échanges mémoire comme des porcasses (“allez, on peut, pas besoin d’optimiser”)…



En gros, au niveau du code pur, ca va quand même rester assez différent dans l’approche, non, entre un PC et ce type de bécane ?

Ou bien les grosses différences vont se faire à la compilation ?

Un dev gentil pour éclairer ?








Drepanocytose a écrit :



Tiens, question idiote : on parle d’unification des codes du même jeu pour le PC et les consoles nextgen, mais avec cette archi les devs vont coder les échanges mémoire comme des porcasses (“allez, on peut, pas besoin d’optimiser”)…



En gros, au niveau du code pur, ca va quand même rester assez différent dans l’approche, non, entre un PC et ce type de bécane ?

Ou bien les grosses différences vont se faire à la compilation ?

Un dev gentil pour éclairer ?







L’apport principale de cette architecture, c’est de traiter de gros volume de données plus rapidement.

Plus gros volume traitée = image plus fines, textures plus belles, sons plus fin, vidéos plus lourdes…

Même si la PS4 n’a pas à rougir non plus de sa puissance de calcul, cette nouvelle architecture ne devrait quasiment pas agir sur celle-ci.



Donc pour répondre à ta question, ça ne devrait pas influencer le comportement des développeurs en terme d’algorithmie. <img data-src=" />



De la même manière, aura-t-on le droit à des PC à base d’APU avec une mémoire unifiée?


Le 25/04/2013 à 17h 56







Glubglub a écrit :



Les studios cherchent déjà à minimiser au maximum les coûts de production.

Ils vont à coup sûr unifier le developemment Xbox/Ps4/PC.



Les technologies exclusives à un seul support ne seront donc jamais exploitées.







Si dans les jeux exclus, d’où un monde de différence sur PS3 entre Uncharted 3 ou God of War 3 et les jeux des éditeurs tiers…









Ellierys a écrit :



Tu veux dire 2 fois 16 lignes ? On arriverait à 32 Go/s là ils ont un lien à 176 Go/s







On a pourtant pas eu,en pratique, de gains significatifs en passant de AGP4x à AGP8x à Pci express 16x









kail a écrit :



De la même manière, aura-t-on le droit à des PC à base d’APU avec une mémoire unifiée?





Je précise, unifiée au sens de la PS4 càd avec de la GDDR<img data-src=" />









AxelDG a écrit :



Donc pour répondre à ta question, ça ne devrait pas influencer le comportement des développeurs en terme d’algorithmie. <img data-src=" />







Objection !!!



Je pensais comme toi il y a peu que l’archi osf qu’il n’y avait que l’algo utilisé qui importait et que de toute façon c’était à ton compilo de faire bien bien les choses pour supporter ton archi.



Sauf qu’un jour j’ai commencé à faire de l’OpenCL sur GPU. Je ne suis pas encore un expert du calcul haute performance, mais j’ai tenté de faire un algo de produit de matrice le plus perf possible (pour moi). J’ai donc commencé à faire un con algo en n^3 en C puis en OpenCL, et à constater que c’était 20x plus rapide sur GPU. Puis un jour j’ai décider d’inverser 2 ligne dans mon code en C: inverser l’ordre de 2 boucles !! c’est rien, ca ne change pas la complexité, ca ne change pas le nombre d’opération à faire, en théorie ca ne change rien !!



En pratique ca divise par 5 le temps de calcul sur CPU parce que du coup celui ci arrive à bien charger dans le cache les données. Du coup j’ai tenté l’astuce sur GPU: ben ca diminue les perf de 20% <img data-src=" /> .









kail a écrit :



De la même manière, aura-t-on le droit à des PC à base d’APU avec une mémoire unifiée?







Ca exite depuis les geforce 6200LE Turbocache <img data-src=" />

Ca fait tourner Crysis 3 à fond il parait <img data-src=" />









kail a écrit :



Je précise, unifiée au sens de la PS4 càd avec de la GDDR<img data-src=" />





Possible mais peu probable…



Sur PC, la carte graphique n’est qu’un accessoire parmi tant d’autres…



Il ne faut pas oublier que cette architecture est commune à des serveurs de base de données, des serveurs d’applications, des serveurs de fichiers, serveurs de données… bref tout autant d’ordinateurs très couteux aux fonctions très diverses qui laissent peu de place au multimédia.



Donc à part créer une nouvelle architecture de PC spécialisée dans le jeu ce qui est peu probable étant donnée la crise qu’il rencontre, il reste carrément de passer à une nouvelle génération de techno pour les échanges de données entre les composants… et ça je pense que c’est pour très bientôt. <img data-src=" />









Tkop a écrit :



Ca exite depuis les geforce 6200LE Turbocache <img data-src=" />

Ca fait tourner Crysis 3 à fond il parait <img data-src=" />







Regarde le cheminement de la mémoire avec une 6200LE Turbocache :



Interface PCIe &gt; Northbridge &gt; RAM.

Ou pire, si tu avais un Athlon 64 : Interface PCIe &gt; Northbridge &gt; CPU &gt; RAM.



(et DDR1 à l’époque !)



Pas super efficace <img data-src=" />









Tkop a écrit :



Objection !!!



Je pensais comme toi il y a peu que l’archi osf qu’il n’y avait que l’algo utilisé qui importait et que de toute façon c’était à ton compilo de faire bien bien les choses pour supporter ton archi.



Sauf qu’un jour j’ai commencé à faire de l’OpenCL sur GPU. Je ne suis pas encore un expert du calcul haute performance, mais j’ai tenté de faire un algo de produit de matrice le plus perf possible (pour moi). J’ai donc commencé à faire un con algo en n^3 en C puis en OpenCL, et à constater que c’était 20x plus rapide sur GPU. Puis un jour j’ai décider d’inverser 2 ligne dans mon code en C: inverser l’ordre de 2 boucles !! c’est rien, ca ne change pas la complexité, ca ne change pas le nombre d’opération à faire, en théorie ca ne change rien !!



En pratique ca divise par 5 le temps de calcul sur CPU parce que du coup celui ci arrive à bien charger dans le cache les données. Du coup j’ai tenté l’astuce sur GPU: ben ca diminue les perf de 20% <img data-src=" /> .







En même temps, ce genre de considération revient surtout aux développeurs de moteurs 3D et y’en a pas tant que ça.

Si ça représente 3% des équipes de développement dans le jeu vidéo, c’est le bout du monde.

Aujourd’hui chaque boite de développement utilise un framework tiers ou développe le sien pour plusieurs années, bref même si on voit encore de belles merdes poindre, ce n’est plus vraiment de la que viennent les problèmes les plus fréquents.









Tkop a écrit :



Objection !!!



Je pensais comme toi il y a peu que l’archi osf qu’il n’y avait que l’algo utilisé qui importait et que de toute façon c’était à ton compilo de faire bien bien les choses pour supporter ton archi.



Sauf qu’un jour j’ai commencé à faire de l’OpenCL sur GPU. Je ne suis pas encore un expert du calcul haute performance, mais j’ai tenté de faire un algo de produit de matrice le plus perf possible (pour moi). J’ai donc commencé à faire un con algo en n^3 en C puis en OpenCL, et à constater que c’était 20x plus rapide sur GPU. Puis un jour j’ai décider d’inverser 2 ligne dans mon code en C: inverser l’ordre de 2 boucles !! c’est rien, ca ne change pas la complexité, ca ne change pas le nombre d’opération à faire, en théorie ca ne change rien !!



En pratique ca divise par 5 le temps de calcul sur CPU parce que du coup celui ci arrive à bien charger dans le cache les données. Du coup j’ai tenté l’astuce sur GPU: ben ca diminue les perf de 20% <img data-src=" /> .





Bienvenue dans le monde merveilleux des compilateurs. <img data-src=" />









AxelDG a écrit :



Possible mais peu probable…



Sur PC, la carte graphique n’est qu’un accessoire parmi tant d’autres…



Il ne faut pas oublier que cette architecture est commune à des serveurs de base de données, des serveurs d’applications, des serveurs de fichiers, serveurs de données… bref tout autant d’ordinateurs très couteux aux fonctions très diverses qui laissent peu de place au multimédia.



Donc à part créer une nouvelle architecture de PC spécialisée dans le jeu ce qui est peu probable étant donnée la crise qu’il rencontre, il reste carrément de passer à une nouvelle génération de techno pour les échanges de données entre les composants… et ça je pense que c’est pour très bientôt. <img data-src=" />





On peut imaginer une tres forte augmentation de la memoire GPU et des ameliorations du GPGPU sur les cartes graphiques. La bande passante du PCI-E etant plus que suffisante pour les IA, son et co.



En gros deporter le travail du CPU sur le GPU.









abitbool a écrit :



Il reste des différences…





  • Le tout intégré qui marche comme il faut.





    Avec un peu de volonté, on peut se faire un PC personnalisé pas trop mal à ce niveau, mais clairement oui c’est un avantage. <img data-src=" /> Notamment à cause des standards de carte-mère totalement figé dans le passé à cause du besoin de compatibilité avec l’existant. Souci que ne risque pas d’avoir la PS4, vu que les consoles sont toutes monolithiques et non modulaire (donc pas besoin de compatibilité matérielle). Et si les jeux PS3, 2 ou 1 ne fonctionnent pas, Sony sera ravis de les revendre une N-ième fois au possesseur du jeu… (Ôoooh oui, uploade-moi ton gros CD dans mon mange-disque…)



    Jusque-là je te suis. Mais après…





    abitbool a écrit :



  • Les jeux disponibles (exclus…)





    Là je ne vois absolument pas le rapport avec l’architecture de la console ou celle du PC… Le fait que Sony décide de se faire un matos exotique pour se créer un écosystème fermé et y rendre captif les utilisateurs est une bonne chose ?? <img data-src=" /> C’est précisément la seule chose qui me fait regarder les consoles non pas avec désintérêt, mais bien dégoût et colère : L’obligation d’acheter X consoles pour avoir la possibilité de jouer aux exclus qui nous intéressent (que ce soit par marque ou par génération), et si t’as pas les sous à claquer là-dedans, crève comme un pariât dans un lac vidéoludique asséché. <img data-src=" /> Tout ça alors qu’on pourrait très bien faire la même chose de façon standard sur PC, de manière beaucoup plus pérenne dans le temps, moddable, et que tout le monde puisse en profiter avec juste une seule machine, que ce soit une bécane du prix des différentes consoles qu’on aurait dû acheter ou d’un grille-pain abordable au prix de graphismes plus humbles (le menu “Options” il sert à ça, vous savez ce menu que les studios sont devenus trop feignants pour garnir correctement ?).





    abitbool a écrit :



  • La possibilité de jouer à 4 sur une même machine





    Là encore il n’y a aucune limite technique. Le monde PC a évolué historiquement sur le modèle “un utilisateur = une machine”, qui est plus qualitatif (mais un chouïa plus coûteux certes <img data-src=" />). Je présume que c’est dû parce qu’à son origine, le multijoueur n’existait tout simplement pas et que lorsqu’il est apparu, les gens (n’ayant pas à jeter leur matériel à chaque génération comme sur console) étaient très bien équipés. Mais absolument RIEN n’empêche de faire des jeux multijoueurs mono-machine sur PC. La preuve ? Les émulateurs, tout bêtement. Deux architectures, et pourtant exactement le même jeu (qui tourne malgré la couche d’émulation en plus). Et je suis persuadé qu’il doit exister des jeux PC (peut-être anciens) qui faisait du multijoueur mono-machine.



    Si au lieu de travailler chacun dans leur coin, tout ces acteurs pouvaient lâcher cette mode des consoles et de “walled garden”, pour recommencer enfin à participer à l’évolution de l’architecture de nos PC… En plus c’est pas comme si ils gagnaient un max d’argent sur le hardware, alors pourquoi semer d’embûche le software (alias leur source de revenue principale) avec du matos figé et des parcs limités ? Sérieux… -___- A part pour avoir un gros DRM matériel pour paranoïaque et scinder le marché en sous-marchés indépendant pour anéantir le principe de concurrence, je vois rien d’autres, et c’est pas des bonnes raisons. (Le libéralisme c’est bien, surtout quand il n’y a qu’un unique acteur qui contrôle tout. Wait)









Brodie a écrit :



J’ai rien compris.

En gros, la PS4 utilise 100% de sa puissance pour afficher une image.

Mais que se passe t’il s’il faut afficher plusieurs images ?

Par exemple il en faut 2 pour la 3D.



Et est-ce que c’est une image par seconde qui occupe 100% de la PS4 ?

Si on veut afficher 120 images par seconde ? il faut 12000% de PS4 ?









A ce point c’est grave. <img data-src=" />

Merci pour le fou rire.









Oungawak a écrit :











Quelle déformation de mes propos !



Il disait qu’un PC fais tout ce que fait une console, j’ai mis trois avantages de la console pour montrer que c’est faux



J’ai pas dis que c’était mieux… mais actuellement c’est comme ça, la console a aussi ses avantages.









Oungawak a écrit :



Là je ne vois absolument pas le rapport avec l’architecture de la console ou celle du PC… Le fait que Sony décide de se faire un matos exotique pour se créer un écosystème fermé et y rendre captif les utilisateurs est une bonne chose ?? <img data-src=" /> C’est précisément la seule chose qui me fait regarder les consoles non pas avec désintérêt, mais bien dégoût et colère : L’obligation d’acheter X consoles pour avoir la possibilité de jouer aux exclus qui nous intéressent (que ce soit par marque ou par génération), et si t’as pas les sous à claquer là-dedans, crève comme un pariât dans un lac vidéoludique asséché. <img data-src=" /> Tout ça alors qu’on pourrait très bien faire la même chose de façon standard sur PC, de manière beaucoup plus pérenne dans le temps, moddable, et que tout le monde puisse en profiter avec juste une seule machine, que ce soit une bécane du prix des différentes consoles qu’on aurait dû acheter ou d’un grille-pain abordable au prix de graphismes plus humbles (le menu “Options” il sert à ça, vous savez ce menu que les studios sont devenus trop feignants pour garnir correctement ?).











abitbool a écrit :



Quelle déformation de mes propos !



Il disait qu’un PC fais tout ce que fait une console, j’ai mis trois avantages de la console pour montrer que c’est faux



J’ai pas dis que c’était mieux… mais actuellement c’est comme ça, la console a aussi ses avantages.









Il parle des exclus console…

Argument complétement débile pour un utilisateur PC puisque ça ne concerne qu’une dizaine de jeux grand maximum par plateforme.

Sachant que les PCs ont eux aussi leurs exclus et souvent largement moins commerciales et au combien plus innovatrices que celles des consoles.



Genre, si t’es fan de Zelda faut acheter la dernière Nintendo, si t’es fan de Grand Turismo la dernière Playstation… etc… etc…



Et quand tu regardes bien, chacune de ces licences ont réellement un intérêt, sauf que si tu les veux toutes… bin t’achètes 3 consoles tous les 5ans minimum.









metaphore54 a écrit :



Tout ça pour dire au final que la PS4 est bien meilleur qu’un PC malgré une configuration qui parait plus faible.





La PS4 n’est pas meilleure qu’un PC. Elle est différente.



Elle sera sans aucun doute meilleure pour le jeu puisqu’elle est faite pour ça, c’est tout.<img data-src=" />









AxelDG a écrit :



En même temps, ce genre de considération revient surtout aux développeurs de moteurs 3D et y’en a pas tant que ça.

Si ça représente 3% des équipes de développement dans le jeu vidéo, c’est le bout du monde. (…).







Désolé, mais ça fait deux fois que tu fais fausse route sur des questions techniques…

Lorsqu’on parle de l’architecture de la machine, on s’adresse uniquement aux développeurs qui touchent au moteur de jeu !

… Ça concerne qui d’autre ?



Le sound designer (qui passe son temps sur FMOD-Ex), ou les graphistes (sur 3DSMax ou Maya), ne s’en préoccupent pas de l’architecture de la machine.

Et ils sont loin de représenter 97%…



Ceux qui travaillent sur le moteur (qui le développent ou qui l’implémentent) représentent au contraire l’immense majorité du personnel (et du budget) de développement.

Et ce sont les premiers concernés par l’architecture de la bécane.



Donc oui, l’architecture de la machine est importante dans le code, ce n’est pas le compilateur qui fait magiquement tout le travail. Sauf en Java…

Et oui, les développeurs concernés représentent la majeure majorité du budget développement d’un jeu. Même les développeurs d’IA doivent en tenir compte. (C’est mon travail !)



Donc pour résumer, pas grand monde ne prendra la peine d’exploiter les spécificités exclusives à une machine, aussi sympathiques soient-elles.

Seuls les jeux first et second-party prendront cette peine, et ils ne sont jamais très nombreux. Sauf chez Nintendo…









Glubglub a écrit :



Désolé, mais ça fait deux fois que tu fais fausse route sur des questions techniques…

Lorsqu’on parle de l’architecture de la machine, on s’adresse uniquement aux développeurs qui touchent au moteur de jeu !

… Ça concerne qui d’autre ?





Ca concerne aussi des utilisateurs à qui ont fait miroiter des performances exceptionnelles fondées sur des gros chiffres alors qu’au final… je vais reprendre une phrase toute faite :

“sans maîtrise la puissance n’est rien”.



Et il est clair que si la PS4 est la seule à suivre ce chemin, il est certain que ses capacités seront largement sous exploitées.



Maintenant j’ai beau être développeur, je ne le suis pas dans le jeu vidéo même si c’était un rêve de gosse pour moi… j’admire les gens qui y reste.. mais c’est trop ingrat et instable à mon goût. <img data-src=" />

Et je pense que, n’en déplaise aux perfectionnistes… tout secteur confondu, il faut rester conscient que le coût du matos est bien moindre que de payer 50 docteurs en mathématiques pour pondre un algorithme 0.05 % plus performant.









Glubglub a écrit :



Ceux qui travaillent sur le moteur (qui le développent ou qui l’implémentent) représentent au contraire l’immense majorité du personnel (et du budget) de développement.





Aujourd’hui sur CoD (et certains autres AAA) le premier budget c’est le marketing. <img data-src=" />









AxelDG a écrit :



Et quand tu regardes bien, chacune de ces licences ont réellement un intérêt, sauf que si tu les veux toutes… bin t’achètes 3 consoles tous les 5ans minimum.







Nintendo m a sauvé la mise en sortant twilight princess sur GC, je n’ai pas eu à acheter une Wii grâce à ça :)



@ DTL : Call of Duty c’est pire que tout, il est basé sur le moteur de Quake 3.

Le pauvre moteur est sous perfusion depuis plus de 10 ans.



Le pire, c’est que c’est vrai…


Le pire c est qu aucun autre jeu n a pu remplacer l excellente communauté qu il y avait sur quake 3


Juste une petite question: l’architecture unifiée n’a t’elle que des avantages? Parce que si c’est le cas, pourquoi ne pas l’utiliser partout (bon hormis question de coûts je suppose?) Autre question, j’ai lu que le jaguar ext x86. Pourquoi ne pas avoir utilisé ici un x64?








kail a écrit :



De la même manière, aura-t-on le droit à des PC à base d’APU avec une mémoire unifiée?









Non car ya un bus PCIE de toute facon ente le CPU et le GPU sur console ce genre de barrière tu peux t’en affranchir .









AzaByte a écrit :



Juste une petite question: l’architecture unifiée n’a t’elle que des avantages? Parce que si c’est le cas, pourquoi ne pas l’utiliser partout (bon hormis question de coûts je suppose?) Autre question, j’ai lu que le jaguar ext x86. Pourquoi ne pas avoir utilisé ici un x64?





X86 c’est la famille de proc. X64 est un subdiv de cette famille. Normalement on devrait dire X86-64 et X86-32.



L’architecture unifié a des avantages pour le jeu, pour le reste c’est moins probant Un PC se sert plus de son CPU que de son GPU.









eightG4 a écrit :



Non car ya un bus PCIE de toute facon ente le CPU et le GPU sur console ce genre de barrière tu peux t’en affranchir .





Rien n’empeche de mettre sur la carte GPU un cpu qui partagerait sa memoire.









yeagermach1 a écrit :



Rien n’empeche de mettre sur la carte GPU un cpu qui partagerait sa memoire.





Le cout est la seule limite sur PC.



En tout cas étant donné le cout de la mémoire en ce moment, je pense que la PS4 sera, tout comme ses sœurs, dépassée par les PC du moment avant même sa sortie… <img data-src=" />









AzaByte a écrit :



Juste une petite question: l’architecture unifiée n’a t’elle que des avantages? Parce que si c’est le cas, pourquoi ne pas l’utiliser partout (bon hormis question de coûts je suppose?) Autre question, j’ai lu que le jaguar ext x86. Pourquoi ne pas avoir utilisé ici un x64?





Le jaguar est X64 AMHA sachant que le bobcat( génération précédente ) est X64.



Sinon la GDDR privilégie la BP face aux temps de latences( inverse de la DDR ) et coûte un blinde.



Ca va bien pour une machine flexible dédiée au jeu tout en conservant un coût réduit. Mais, pour une machine généraliste comme un PC ça n’a pas de sens.<img data-src=" />









metaphore54 a écrit :



Tout ça pour dire au final que la PS4 est bien meilleur qu’un PC malgré une configuration qui parait plus faible.













C’est une blague ? Dire deux fois la même chose en se répétant comme pour la sortie de la PS3 ça n’a pas de sens !



peux-tu m’expliquer comment j’arrive dans le passé à joué en 7680x1600 à Crysis 1 en 2007, alors que la PS4 ne gère que le 1080 ?



Donc en espérant que la PS4 Gère tout ceci



La qualité d’un jeu sur PC



-Graphisme, :d

-Rapidité, fluidité

-mods

-Development Kit, sdk etc…

-Gameplay

-jouabilité

-Combo Souris/clavier

-réglage du FOV




  • Résolution infini 5760x1080 5760x1200 2560x1600 1920x1200 7680x1600 etc etc…..

    -Eyefinity Videoprojector

    -Nvidia Surround





    Sony nous a déjà fais la même blague en 2005





    http://www.youtube.com/watch?v=b-4HNmuEAKg<img data-src=" />



Ça fait tout beau sur papier… et lorsque la console sortira, les desktops gamers seront déjà plus puissants <img data-src=" />


Sony a enfin écouté le discours connu de Steve Ballmer: “Developers Developers Developers Developers Developers Developers Developers!” <img data-src=" />

moi ça me fait saliver tout ça, à la fois en tant que dev et utilisateur final !








Glubglub a écrit :



Les technologies exclusives à un seul support ne seront donc jamais exploitées.





Sauf par les studio first party, comme ça a toujours été le cas.









myxomatosis a écrit :



Ça fait tout beau sur papier… et lorsque la console sortira, les desktops gamers seront déjà plus puissants <img data-src=" />





Tirais te payer un « desktops gamers » pour le foutre sous ta TV ? J’espère que t’as de la place.







AngelSword a écrit :



Sauf par les studio first party, comme ça a toujours été le cas.





Maintenant, il faut voir combien de Sony a de studio first party et ce qu’il en sort niveau qualité de jeux.



Why not après tout, il y a des jeux qui sauront pleinement exploité cette puissance.



Par contre sérieusement, dire qu’une console est plus opti qu’un PC car elle est dédiée, c’est un argument d’époque, ça fait longtemps qu’avec 8go de ram, un bon CPU/GPU y’a AUCUN soucis d’opti pour n’importe quel jeu sur PC.



Ah et je trouve abjecte de venir souligner l’architecture d’une console quand on voit la pub à côté: Premier jeu sur PS4, 30 FPS.








xxSeize a écrit :



Why not après tout, il y a des jeux qui sauront pleinement exploité cette puissance.



Par contre sérieusement, dire qu’une console est plus opti qu’un PC car elle est dédiée, c’est un argument d’époque, ça fait longtemps qu’avec 8go de ram, un bon CPU/GPU y’a AUCUN soucis d’opti pour n’importe quel jeu sur PC.



Ah et je trouve abjecte de venir souligner l’architecture d’une console quand on voit la pub à côté: Premier jeu sur PS4, 30 FPS.







c’est ce qui me dérange le plus, on va encore tout mettre sur la qualité graphique au détriment de la fluidité, 30fps sur des consoles comme ça c’est a la limite du foutage de g*. Le pire c’est qu’en voyant les commentaires sur d’autre site plus généraliste ça n’a meme pas l’air de choquer les gens.





« Il y a de nombreuses façons de gérer comment les ressources du GPU sont allouées entre les graphismes et le calcul. Bien sûr, ce que vous pouvez faire, comme pour la plupart des jeux disponibles au lancement, c’est de tout attribuer aux graphismes. Et ça marche très bien. Mais je pense qu’au milieu du cycle de vie de la console, les studios se pencheront un peu plus sur les calculs », affirme Cerny.





Il rêve éveillé là… Au lancement, tout sera attribué aux graphismes de manière bancale, au milieu du cycle tout sera attribué aux graphismes de manière réfléchie, et pour la fin de gen tout sera attribué aux graphismes et les développeur trouveront des techniques de cache misère pour faire croire qu’on a encore atteint un petit palier graphique.

Ce qui fait vendre aujourd’hui (grand publique oblige), ce sont les graphismes tape-à-l’oeil, ça ne sert à rien de trouver des trucs bien pensés pour améliorer la gestion de l’IA ou la physique dans un jeu, c’est pas vendeur.








xxSeize a écrit :



Why not après tout, il y a des jeux qui sauront pleinement exploité cette puissance.



Par contre sérieusement, dire qu’une console est plus opti qu’un PC car elle est dédiée, c’est un argument d’époque, ça fait longtemps qu’avec 8go de ram, un bon CPU/GPU y’a AUCUN soucis d’opti pour n’importe quel jeu sur PC.



Ah et je trouve abjecte de venir souligner l’architecture d’une console quand on voit la pub à côté: Premier jeu sur PS4, 30 FPS.







Il faut bien que Sony justifie son budget R&D. Quel est le coùt comparé entre un matériel “supercharged” avec de la R&D et des composants standards ?



Si la PS4 avait été un vrai PC assemblé, l’intérêt marketing aurait été moindre. Là, on te vend un truc “mieux qu’un PC”, qui justifie le fait de passer à la caisse.



Juste pour ne pas dire que ce n’est pas un vulgaire PC <img data-src=" />








AxelDG a écrit :



Le cout est la seule limite sur PC.



En tout cas étant donné le cout de la mémoire en ce moment, je pense que la PS4 sera, tout comme ses sœurs, dépassée par les PC du moment avant même sa sortie… <img data-src=" />







A mon avis c’est la première gen de consoles qui sera battue par des PC sortis 1-2 an avant elles. Tout simplement car la mode du Crossfire/SLI ne battait pas son plein en 20052006.



Un core i7 3960X (6c/12 T) Sandy Bridge associé à 16 Go de DDR3 et un crossfire de 6990 doit déjà poutrer ces consoles. Mémoire unifiée ou non. Et pourtant la config date de fin 2011.









mononokehime a écrit :



c’est ce qui me dérange le plus, on va encore tout mettre sur la qualité graphique au détriment de la fluidité, 30fps sur des consoles comme ça c’est a la limite du foutage de g*. Le pire c’est qu’en voyant les commentaires sur d’autre site plus généraliste ça n’a meme pas l’air de choquer les gens.







C’est la faute aux grands gouroux du marketing.

Il n’y a pas si longtemps il y avait une news sur pcInpact où un sorte d’analyste financier disait que le public console ne savait pas faire la difference entre du 30fps et du 60fps.

C’est un peu du foutage de gueule car les joueurs de wipeout HD adorent sa grande fluidité, et je me rappelle que sur mes dernière consoles (PS2 et Dreamcast) je disais YES! quand l’option 60Hz était dispo.



En ce qui concerne cette memoire unifié après avoir lu tous les coms j’ai l’impression qu’elle va doper la console en lui économisant certaines latences ou calculs inutiles.



AMHA, elle risque donc d’être bien plus puissante qu’une config à base de HD7850 ou de GTX660. (ma config actuelle est à base de GTX660)

Mais elle ne creusera pas l’eccart avec des configs très haut de gamme qui combleront leur manque d’optimisation par leur puissance brute.

Disons que le matos moyen de gamme va rattraper plus rapidement cette PS4 qu’à l’époque de la PS2 ou de la xbox360.









AngelSword a écrit :



Il y a quelque chose qui m’échappe, quelle mémoire utilise le CPU en ces cas la ?









Sur PC, de la DDR, sur la PS4, de le GDDR









calimero1 a écrit :



AMHA, elle risque donc d’être bien plus puissante qu’une config à base de HD7850 ou de GTX660. (ma config actuelle est à base de GTX660)

Mais elle ne creusera pas l’eccart avec des configs très haut de gamme qui combleront leur manque d’optimisation par leur puissance brute.

Disons que le matos moyen de gamme va rattraper plus rapidement cette PS4 qu’à l’époque de la PS2 ou de la xbox360.







Le plus drole c’est la PS3. Sortie en europe 3 moi après le G80, ou comment se faire pré-poutrer. La console n’est pas sortie que la technologie est pire que démodée, mais plutôt totalement obsolète quand on voit la différence technologique entre G70/RSX et G80









arkansis a écrit :



Ceux qui disaient d’avance que la PS4 n’était qu’un sous PC aux performances dépassées au bout de 2 ans et qu’ils serait très probable sans doute de l’émuler risquent de s’être trompés.



La console utilise des composants de type PC (qui seront fortement modifiés) mais une architecture et une optimisation de type console.



Et puis avec un soft et un hardware 100% optimisé pour le jeu, on sera loin des problèmes que l’on rencontre sur PC entre les soucis d’optimisations que l’on retrouve au niveau du système d’exploitation et des drivers.





anéfet <img data-src=" />









Tourner.lapache a écrit :



A mon avis c’est la première gen de consoles qui sera battue par des PC sortis 1-2 an avant elles. Tout simplement car la mode du Crossfire/SLI ne battait pas son plein en 20052006.



Un core i7 3960X (6c/12 T) Sandy Bridge associé à 16 Go de DDR3 et un crossfire de 6990 doit déjà poutrer ces consoles. Mémoire unifiée ou non. Et pourtant la config date de fin 2011.







Et elle coute combien cette config ? rien que le 3960x coute minimum 900€… la PS4 dépassera pas 500€ à sa sortie et se trouvera à 300€ dans 2 ans. Comparons ce qui est comparable



A-t-on des info concernant les éventuels problèmes de surchauffe si CPU et GPU sont sur la même puce?



(et si ya pas de problème de surchauffe ca sera peut-être des problème de bruit avec la turbine ^^)








PPN a écrit :



A-t-on des info concernant les éventuels problèmes de surchauffe si CPU et GPU sont sur la même puce?



(et si ya pas de problème de surchauffe ca sera peut-être des problème de bruit avec la turbine ^^)







On ne connait même pas les dimensions de la console donc pour le moment c’est un grand mystère.

Qui a déjà eu un prescott entre le mains se dit tout peux se refroidir en informatique, c’est la taille du ventirad qui compte!









calimero1 a écrit :



Qui a déjà eu un prescott entre le mains se dit tout peux se refroidir en informatique, c’est la taille du ventirad qui compte!







+1









azedrummer a écrit :



Et elle coute combien cette config ? rien que le 3960x coute minimum 900€… la PS4 dépassera pas 500€ à sa sortie et se trouvera à 300€ dans 2 ans. Comparons ce qui est comparable







En quoi ce n’est pas comparable ? On parle de puissance brute. Et à l’époque ou la Playstation, la xbox ou la xbox 360 sont sorties, leurs puissances étaient comparable aux meilleurs PC de l’époque, quel que soit leur prix…



Après évidemment la performance de ces machines va résider dans l’équilibre entre prix, encombrement et puissance. Il faut aussi savoir que sony et MS vont subventionner à mort leurs consoles en espérant se rattraper sur les jeux, les services et les accessoires. D’où l’épineux problème de l’occasion, du piratage ou encore de linux à l’époque de la PS3.



Bref comparer le prix d’un PC et d’une console à puissance équivalente est aussi pertinent que de comparer le prix de deux smartphones dont l’un est subventionné par Orange et pas l’autre ! <img data-src=" />









Tourner.lapache a écrit :



En quoi ce n’est pas comparable ? On parle de puissance brute. Et à l’époque ou la Playstation, la xbox ou la xbox 360 sont sorties, leurs puissances étaient comparable aux meilleurs PC de l’époque, quel que soit leur prix…



Après évidemment la performance de ces machines va résider dans l’équilibre entre prix, encombrement et puissance. Il faut aussi savoir que sony et MS vont subventionner à mort leurs consoles en espérant se rattraper sur les jeux, les services et les accessoires. D’où l’épineux problème de l’occasion, du piratage ou encore de linux à l’époque de la PS3.



Bref comparer le prix d’un PC et d’une console à puissance équivalente est aussi pertinent que de comparer le prix de deux smartphones dont l’un est subventionné par Orange et pas l’autre ! <img data-src=" />







Euh… La xbox avec son PIII à 733MHz plus puissant que les PC de 2002 ? La X360 avec son Xenon aussi puissant qu’un core 2 duo 2GHz ? sans parler du GPU qui était à la ramasse par rapport aux GeForce 88xx et radeon HD29XX sorties dans la foulée…. C’était le même problème qu’aujourd’hui !



Je comprend ce que tu veux dire par ton analogie avec les smartphones, mais la t’as pas de forfait à payer, t’achètes la console une fois et c’est ok (sans compter les jeux évidemment) mais bon pour le coup, le 3960x + le CFX de 6990 + le reste on dépasse facilement les 2000€. c’est une grosse somme tout de même. Bref, même si les constructeurs réduisent fortement leur marge, ça n’empêche que demain je vais en boutique je vois la nouvelle console à 500€ plutôt bien équipée pour le prix, bah c’est possible que j’achète. Oui il y a plus puissant, mais pour moi il faut tout le temps associer la rapport puissance/prix. Il y aura toujours plus puissant, tu peux te monter un PC avec 2 processeurs, un quad SLI et cie, oui tu dépasseras n’importe quelle console et même une grande majorité dans PC qui sortira dans les 3-4 ans à venir, mais à quel prix ?









Tourner.lapache a écrit :



En quoi ce n’est pas comparable ? On parle de puissance brute. Et à l’époque ou la Playstation, la xbox ou la xbox 360 sont sorties, leurs puissances étaient comparable aux meilleurs PC de l’époque, quel que soit leur prix…



Après évidemment la performance de ces machines va résider dans l’équilibre entre prix, encombrement et puissance. Il faut aussi savoir que sony et MS vont subventionner à mort leurs consoles en espérant se rattraper sur les jeux, les services et les accessoires. D’où l’épineux problème de l’occasion, du piratage ou encore de linux à l’époque de la PS3.



Bref comparer le prix d’un PC et d’une console à puissance équivalente est aussi pertinent que de comparer le prix de deux smartphones dont l’un est subventionné par Orange et pas l’autre ! <img data-src=" />







En puissance brut, si on annonce du 2 téraflops de calcul sur la CG de la PS4 alors que la titan en fait déja 8 ce n’est pas l’unification de la mémoire qui y changera grand chose non ?









azedrummer a écrit :



Je comprend ce que tu veux dire par ton analogie avec les smartphones, mais la t’as pas de forfait à payer, t’achètes la console une fois et c’est ok (sans compter les jeux évidemment) mais bon pour le coup, le 3960x + le CFX de 6990 + le reste on dépasse facilement les 2000€. c’est une grosse somme tout de même. Bref, même si les constructeurs réduisent fortement leur marge, ça n’empêche que demain je vais en boutique je vois la nouvelle console à 500€ plutôt bien équipée pour le prix, bah c’est possible que j’achète. Oui il y a plus puissant, mais pour moi il faut tout le temps associer la rapport puissance/prix.





Pas besoin d’un PC à 2000€ pour dépasser la PS4, malgrès les optimisation faites pour son archi









azedrummer a écrit :



Euh… La xbox avec son PIII à 733MHz plus puissant que les PC de 2002 ? La X360 avec son Xenon aussi puissant qu’un core 2 duo 2GHz ? sans parler du GPU qui était à la ramasse par rapport aux GeForce 88xx et radeon HD29XX sorties dans la foulée…. C’était le même problème qu’aujourd’hui !







J’ai mis “config équivalente” pour pas me prendre la tête. Mais pour avoir cherché un minimum les données avec des dates précises, si les consoles sont ridicules coté CPU (comme d’hab, pas d’OS à gérer et pas multitaches notamment) coté GPU elles ont toujours été au niveau. Fait quelques recherches.







azedrummer a écrit :



Je comprend ce que tu veux dire par ton analogie avec les smartphones, mais la t’as pas de forfait à payer, t’achètes la console une fois et c’est ok (sans compter les jeux évidemment)







Sur cet gen le prix de base d’un jeu PC : 50 €, prix de base d’un jeu console : 70 €. Voilà, tu paies 20 € à MS et Sony à chaque achat. Sans compter l’abonnement au live (30 €/ mois), les marges sur les accessoires, … C’est de la subvention mais plus risquées que chez les opérateurs qui eux te font signer direct pour 24 mois.







azedrummer a écrit :



mais bon pour le coup, le 3960x + le CFX de 6990 + le reste on dépasse facilement les 2000€. c’est une grosse somme tout de même. Bref, même si les constructeurs réduisent fortement leur marge, ça n’empêche que demain je vais en boutique je vois la nouvelle console à 500€ plutôt bien équipée pour le prix, bah c’est possible que j’achète. Oui il y a plus puissant, mais pour moi il faut tout le temps associer la rapport puissance/prix. Il y aura toujours plus puissant, tu peux te monter un PC avec 2 processeurs, un quad SLI et cie, oui tu dépasseras n’importe quelle console et même une grande majorité dans PC qui sortira dans les 3-4 ans à venir, mais à quel prix ?







Déjà, je vais me répéter, mais à l’époque des anciennes gens, leurs puissance n’était pas 2 ou 3 fois inférieure à celle d’un PC haut de gamme d’il y a 2 ans. (même si on est d’accord le PC dont je te parle devait couter 6000 € il y a 2 ans)



Ensuite, je l’ai fait ta PS4 sur la base de ce qu’on connait aujourd’hui avec un peu de marge sur la CG : 870 € (windows et manette incluse). A voir combien tu vas acheter de jeux neufs et de services sur les consoles qui sont gratuits/moins cher coté PC sachant que le prix des composants va forcément baiser d’ici la fin de l’année.







mononokehime a écrit :



En puissance brut, si on annonce du 2 téraflops de calcul sur la CG de la PS4 alors que la titan en fait déja 8 ce n’est pas l’unification de la mémoire qui y changera grand chose non ?







Oui c’est vrai. C’était juste pour dire que cette PS4 se fait étaler par des configs qui ont 2-3 ans (la 6990 date de début 2011) alors que les précédentes consoles étaient du niveau des configs du moment. (ie à +/- 10 % près)









AxelDG a écrit :



Le cout est la seule limite sur PC.



En tout cas étant donné le cout de la mémoire en ce moment, je pense que la PS4 sera, tout comme ses sœurs, dépassée par les PC du moment avant même sa sortie… <img data-src=" />





Elle est déjà dépassée par certains aspects et dépassent 99,99% des PC sur la question de la RAM disponibles pour la CG( je crois pas qu’il y a ait beaucoup de monde avec une GTX Titan…et encore en théorie elle peut en utiliser plus qu’une Titan… ).



Donc ces guerres débiles me gavent: Les configurations sont différentes. Donc ça ne sert à rien de les comparer.<img data-src=" />



En tout cas un jeu qui tirera pleinement partie de la PS4 aura beaucoup de mal à tourner de la même manière sur un PC actuel à cause de ce goulot d’étranglement, même si sur d’autres aspects un PC actuel peut être beaucoup plus performant.<img data-src=" />



Le 26/04/2013 à 09h 49







Tourner.lapache a écrit :



A mon avis c’est la première gen de consoles qui sera battue par des PC sortis 1-2 an avant elles. Tout simplement car la mode du Crossfire/SLI ne battait pas son plein en 20052006.



Un core i7 3960X (6c/12 T) Sandy Bridge associé à 16 Go de DDR3 et un crossfire de 6990 doit déjà poutrer ces consoles. Mémoire unifiée ou non. Et pourtant la config date de fin 2011.







et la facture ? <img data-src=" /> elle poutre aussi hein ? <img data-src=" />



grillée :p









Tourner.lapache a écrit :



J’ai mis “config équivalente” pour pas me prendre la tête. Mais pour avoir cherché un minimum les données avec des dates précises, si les consoles sont ridicules coté CPU (comme d’hab, pas d’OS à gérer et pas multitaches notamment) coté GPU elles ont toujours été au niveau. Fait quelques recherches.





Tu oublie la PS2 et son GPU asthmatique.<img data-src=" />



@Tourner.lapache

L’accès au live n’a jamais coûté 30e par mois, c’est gratuit sur la PS3 et 35euros par ans sur xBox soit 3e par mois à peu près.

En plus dans ma pas mal de jeu il y a quelques de mois d’abonnement au live donc on se retrouve à ne même pas payer les 35euros par ans au final ;)








AngelSword a écrit :



Il y a quelque chose qui m’échappe, quelle mémoire utilise le CPU en ces cas la ?









de la DDR



la GDDR est pour les carte graphique comme son nom l’indique



elle privilégie la bande passante mais n’est pas forcement adapté pour un CPU










Alucard63 a écrit :



Tu oublie la PS2 et son GPU asthmatique.<img data-src=" />







:P





Bref, pour compléter mon post ci-dessus. C’est surtout que j’ai l’impression que les consoles passent avec cette gen d’une archi basées sur du CPU moyen gamme et du GPU haut de gamme à une archi basée sur du CPU bas de gamme et du GPU moyen de gamme :

Même sans se baser sur les SLI/Xfire ou cartes bi gpu, une simple Radeon HD 6970 envoie 2 fois plus de Tflops que la psec annoncée de la PS4. Encore, une fois à l’époque des autres consoles, on était kif kif entre les Gflops des cartes haut de gamme à 500 € et les futures consoles.



A se demander s’ils vont subventionner (vendre à perte) leurs consoles cette fois ci.









Tourner.lapache a écrit :



J’ai mis “config équivalente” pour pas me prendre la tête. Mais pour avoir cherché un minimum les données avec des dates précises, si les consoles sont ridicules coté CPU (comme d’hab, pas d’OS à gérer et pas multitaches notamment) coté GPU elles ont toujours été au niveau. Fait quelques recherches.





What ??? <img data-src=" />

Alors là je ne suis pas vraiment d’accord

Je n’ai jamais vue de PS3 ou de Xbox 360 booter directement sur un CD de jeux.

Les consoles se mettent à jour maintenant

Pas de multitâche, tu y crois encore ? Les trucs pour communiquer, l’acces au dashboard ingame, les succès.

La PS4 enregistre mème les 10 dernière minutes de jeux pour pouvoir les mettre sur youtube pendant que tu joue et tu parle de “pas multitaches”

Les consoles ont maintenant un vrai OS. Tu peux alors toujours me sortir qu’il est plus optimisé mais sans preuve et argument, pour moi ça reste totalement à prouver (et c’est aussi valable pour l’inverse).



Ca me fait marrer tous ces commentaires sur la puissance des consoles….



Sérieux, vous passez vos journées à vous branler sur des spécifications matérielles ?



Non, parce que moi j’achète une console pour jouer. Et si le jeu me plait, j’en ai rien à battre que la console soit dépassée par un PC….



D’ailleurs les graphismes ne font pas tout. Perso je m’éclate plus sur minecraft en ce moment que n’importe quel autre jeu… (sur pc pour celui-là, le développement est plus actif).








vincentchandra a écrit :



@Tourner.lapache

L’accès au live n’a jamais coûté 30e par mois, c’est gratuit sur la PS3 et 35euros par ans sur xBox soit 3e par mois à peu près.

En plus dans ma pas mal de jeu il y a quelques de mois d’abonnement au live donc on se retrouve à ne même pas payer les 35euros par ans au final ;)







Yep erreur de ma part c’est 30 € par an ! <img data-src=" /> Ce que je voulais dire c’est que 30 x 7 ans ça fait déjà 210 € comparé à des multi gratuits sur PC ;)









Reparateur a écrit :



de la DDR



la GDDR est pour les carte graphique comme son nom l’indique



elle privilégie la bande passante mais n’est pas forcement adapté pour un CPU





Sur la PS4 c’est bien la GDDR que le CPU utilise puisque la mémoire est unifiée justement, 8Go de GDDR5 accessible à 176Go/s par le CPU et le GPU









Tkop a écrit :



What ??? <img data-src=" />

Alors là je ne suis pas vraiment d’accord

Je n’ai jamais vue de PS3 ou de Xbox 360 booter directement sur un CD de jeux.

Les consoles se mettent à jour maintenant

Pas de multitâche, tu y crois encore ? Les trucs pour communiquer, l’acces au dashboard ingame, les succès.

La PS4 enregistre mème les 10 dernière minutes de jeux pour pouvoir les mettre sur youtube pendant que tu joue et tu parle de “pas multitaches”

Les consoles ont maintenant un vrai OS. Tu peux alors toujours me sortir qu’il est plus optimisé mais sans preuve et argument, pour moi ça reste totalement à prouver (et c’est aussi valable pour l’inverse).







Ouais enfin je pars de la PS et je vais à la dernière gen en généralisant abusivement certes. Il n’empêche qu’un Windows gère un peu plus de choses qu’un OS de consoles….









zefling a écrit :



Tirais te payer un « desktops gamers » pour le foutre sous ta TV ? J’espère que t’as de la place.

.







tu fou un cable



dans mon appart tout est relié au PC et aussi à l’ampli












methos1435 a écrit :



Ca me fait marrer tous ces commentaires sur la puissance des consoles….



Sérieux, vous passez vos journées à vous branler sur des spécifications matérielles ?



Non, parce que moi j’achète une console pour jouer. Et si le jeu me plait, j’en ai rien à battre que la console soit dépassée par un PC….







C’est ca le problème avec les casus, ils ne se rend pas compte que acheter des jeux sur des consoles dépassées ralenti certain aspects de l’innovation vidéo ludique et en plus ne leur revient pas forcément moins chère.









azedrummer a écrit :



Sur la PS4 c’est bien la GDDR que le CPU utilise puisque la mémoire est unifiée justement, 8Go de GDDR5 accessible à 176Go/s par le CPU et le GPU









c’est justement là le problème



pas forcement adapté au CPU (si tu avais suivis)









Tourner.lapache a écrit :



Ouais enfin je pars de la PS et je vais à la dernière gen en généralisant abusivement certes. Il n’empêche qu’un Windows gère un peu plus de choses qu’un OS de consoles….











Tkop a écrit :



Tu peux alors toujours me sortir qu’il est plus optimisé mais sans preuve et argument, pour moi ça reste totalement à prouver (et c’est aussi valable pour l’inverse).







edit auto quote <img data-src=" />









Tkop a écrit :



What ??? <img data-src=" />

Alors là je ne suis pas vraiment d’accord

Je n’ai jamais vue de PS3 ou de Xbox 360 booter directement sur un CD de jeux.

Les consoles se mettent à jour maintenant

Pas de multitâche, tu y crois encore ? Les trucs pour communiquer, l’acces au dashboard ingame, les succès.

La PS4 enregistre mème les 10 dernière minutes de jeux pour pouvoir les mettre sur youtube pendant que tu joue et tu parle de “pas multitaches”

Les consoles ont maintenant un vrai OS. Tu peux alors toujours me sortir qu’il est plus optimisé mais sans preuve et argument, pour moi ça reste totalement à prouver (et c’est aussi valable pour l’inverse).









Non mais tu comprends pas, le type il pense que c’est de la merde parce qu’il peut pas jouer à COD et Battlefield en même temps, la console est pas multitâches quoi … <img data-src=" />









Tkop a écrit :



C’est ca le problème avec les casus, ils ne se rend pas compte que acheter des jeux sur des consoles dépassées ralenti certain aspects de l’innovation vidéo ludique et en plus ne leur revient pas forcément moins chère.









Non, le casual comme tu dis apprend à jouer avec ce qu’il à. La course à kikalaplusgrosse il laisse ça aux kéké gamers nolife.









Tourner.lapache a écrit :



Yep erreur de ma part c’est 30 € par an ! <img data-src=" /> Ce que je voulais dire c’est que 30 x 7 ans ça fait déjà 210 € comparé à des multi gratuits sur PC ;)







et ton PC pour jouer tu le gardes pas 7 ans, tu le changes au moins une fois si eux suivre à peu près les dernièrs jeux, donc au final, je suis persuadé qu’on en revient au même, la facilité d’utilisation en plus pour les consoles



je précise aussi au cas où que je ne suis pas un pro-console nécessairement hein, j’ai une X360 mais aussi et surtout un PC de jeu avec CFX et cie, mais je trouve que les prochaines consoles ont un potentiel très intéressant et qu’elles rattraperont beaucoup de leur retard sur les PC actuels. Quand je vois déjà ce qui se fait aujourd’hui sur console avec du vieux matos, à peine 20Go/s de bande passante en mémoire, des GPU rikiki qui ne valent même pas les petits APU AMD actuel, un processeur digne des meilleurs pentium D de l’époque, en voyant l’évolution qu’il y a avec une PS4, je pense que c’est tout benef, surtout pour le prix









Reparateur a écrit :



c’est justement là le problème



pas forcement adapté au CPU (si tu avais suivis)





si j’ai bien suivi, j’ai bien compris que ce n’est pas forcément adapté au CPU par rapport à la latence, mais il vaut mieux 176Go/s de bande passante et un peu plus de latence que 12Go/s à latence réduite (dans le cas d’une console)









azedrummer a écrit :



Sur la PS4 c’est bien la GDDR que le CPU utilise puisque la mémoire est unifiée justement, 8Go de GDDR5 accessible à 176Go/s par le CPU et le GPU





Justement la latence sera une latence de GDDR5 pas de DDR3.



Mais c’est pas tant un problème que ça pour ce à quoi est destiné ce matériel: le jeu.<img data-src=" />









azedrummer a écrit :



si j’ai bien suivi, j’ai bien compris que ce n’est pas forcément adapté au CPU par rapport à la latence, mais il vaut mieux 176Go/s de bande passante et un peu plus de latence que 12Go/s à latence réduite (dans le cas d’une console)







Il faut esperer

Mais c’est certainement le cas, car dans un jeux video les accès mémoire sont certainement plus séquentiel que lorsque tu utilise ton PC de façon classique.

Du coup il est plus facile pour ton proc de précharger les données que tu va utiliser dans son cache et donc de limiter la latence plus élevée par la GDDR.



Les ouvriers de Sony viennent de recevoir les boîtiers pour accueillir les composants de la PS4 :



http://media.materiel.net/live/111991.jpg



Je suis déjà sorti…








HellXionS a écrit :



Les ouvriers de Sony viennent de recevoir les boîtiers pour accueillir les composants de la PS4 :



http://media.materiel.net/live/111991.jpg



Je suis déjà sorti…







Attends, reviens, t’as foiré ton lien <img data-src=" />





Sinon, bien que le retour au x86-64 soit en quelque sorte un ‘rapprochement’ entre les archi PC et console, je pense que le meilleur moyen de savoir si les jeux “next-gen” vont etres sympas c’est de comparer cette ‘next-gen’ a l’actuelle.









Tkop a écrit :



edit auto quote <img data-src=" />







Tu attendais quoi ? Que je te ponde un pdf de 125 pages ?

Franchement les gens de nos jours…



Si tu avais pris la peine de lire le premier com auquel je répond, il parle du PIII de la xbox. C’est vrai que la xbox était vachement multi tache et son OS bouffait toutes les ressources cpu.







methos1435 a écrit :



Non mais tu comprends pas, le type il pense que c’est de la merde parce qu’il peut pas jouer à COD et Battlefield en même temps, la console est pas multitâches quoi … <img data-src=" />







Dixit le gars qui prend pas la peine de lire la moitié des coms et sort des avis sur la branlette des specs techniques alors qu’il ne s’agit absolument pas de ça. (cf la dernière partie de mon com) Commentaire vu au moins autant de fois que ceux que tu dénonces et qui est au moins aussi inutile : à ce compte là on aurait du rester sur du 8 bits puisque rien à battre des specs.









azedrummer a écrit :



et ton PC pour jouer tu le gardes pas 7 ans, tu le changes au moins une fois si eux suivre à peu près les dernièrs jeux, donc au final, je suis persuadé qu’on en revient au même, la facilité d’utilisation en plus pour les consoles







Et ben alors, on dit bien la même chose ;) : PC ou Console à l’arrivée on se retrouve au même niveau pour le prix. La facilité et les exclus pour les consoles, la liberté et la polyvalence pour le PC ;)







azedrummer a écrit :



je précise aussi au cas où que je ne suis pas un pro-console nécessairement hein, j’ai une X360 mais aussi et surtout un PC de jeu avec CFX et cie, mais je trouve que les prochaines consoles ont un potentiel très intéressant et qu’elles rattraperont beaucoup de leur retard sur les PC actuels. Quand je vois déjà ce qui se fait aujourd’hui sur console avec du vieux matos, à peine 20Go/s de bande passante en mémoire, des GPU rikiki qui ne valent même pas les petits APU AMD actuel, un processeur digne des meilleurs pentium D de l’époque, en voyant l’évolution qu’il y a avec une PS4, je pense que c’est tout benef, surtout pour le prix







Bah pour ma part je regrette que cette génération de console se contente de rattraper les pc d’il y a 1 à 2 ans et j’aurais aimé qu’elle motive un peu plus l’innovation coté matos comme l’ont fait toutes les générations précédentes. (Même si le gain est appréciable)









methos1435 a écrit :



Non, le casual comme tu dis apprend à essaye de jouer avec ce qu’il à. La course à kikalaplusgrosse il laisse ça aux kéké gamers nolife à l’élite.





<img data-src=" />



Je dirais que l’architecture n’a que peu d’importance pour les acheteurs.



Le prix du matériel compte, mais pas tant que ça. Une fois le matos acheté, c’est fini (sauf panne après la garantie).



Le business model à problème, c’est sur le soft et les services ! Il y a aussi les éventuels DRM qui brident l’occasion. Avant d’acheter une console ou un PC, c’est plutôt ces aspects là qu’il faut regarder…









Tkop a écrit :



Il faut esperer

Mais c’est certainement le cas, car dans un jeux video les accès mémoire sont certainement plus séquentiel que lorsque tu utilise ton PC de façon classique.

Du coup il est plus facile pour ton proc de précharger les données que tu va utiliser dans son cache et donc de limiter la latence plus élevée par la GDDR.







En fait, je pense que l’avantage va se situer surtout sur les transferts des vertices et textures vers le GPU. Dans un PC, les vertices et les textures sont stockées dans la RAM centrale, puis transférer vers la VRAM par PCI express, tu passes donc une fois par le bus de la RAM (de 10Go/s à 20Go/s suivant la fréquence de ta mémoire), puis par le PCIE (on va dire en v3.0) donc 16Go/s. Dans le cas de la PS4, le CPU transfère dans la mémoire unifiée les données à 176Go/s, et le GPU vient directement se servir dans cette même mémoire. Cela peut permettre de créer des modèles 3D bien plus détaillé que sur PC, puisque le CPU pourra envoyer plus rapidement une quantité de données plus importantes (et aussi stocker plus pour le GPU puisque les 8Go sont partagés entre les deux).



Bien que les jeux seront assez rapidement dépassé graphiquement sur PC, je pense que le bond en avant sera assez conséquent. Pour moi, le1080p@60FPS n’est pas une utopie avec ces nouvelles consoles : il y a ce qu’il faut en mémoire, en BP aussi, si le GPU est bien l’équivalent d’une HD7850 amélioré spécifiquement pour la console, avec la charge software moins lourde et les optimisations pour la console, on pourrait fortement être surpris









azedrummer a écrit :



En fait, je pense que l’avantage va se situer surtout sur les transferts des vertices et textures vers le GPU. Dans un PC, les vertices et les textures sont stockées dans la RAM centrale, puis transférer vers la VRAM par PCI express, tu passes donc une fois par le bus de la RAM (de 10Go/s à 20Go/s suivant la fréquence de ta mémoire), puis par le PCIE (on va dire en v3.0) donc 16Go/s. Dans le cas de la PS4, le CPU transfère dans la mémoire unifiée les données à 176Go/s, et le GPU vient directement se servir dans cette même mémoire. Cela peut permettre de créer des modèles 3D bien plus détaillé que sur PC, puisque le CPU pourra envoyer plus rapidement une quantité de données plus importantes (et aussi stocker plus pour le GPU puisque les 8Go sont partagés entre les deux).



Bien que les jeux seront assez rapidement dépassé graphiquement sur PC, je pense que le bond en avant sera assez conséquent. Pour moi, le1080p@60FPS n’est pas une utopie avec ces nouvelles consoles : il y a ce qu’il faut en mémoire, en BP aussi, si le GPU est bien l’équivalent d’une HD7850 amélioré spécifiquement pour la console, avec la charge software moins lourde et les optimisations pour la console, on pourrait fortement être surpris





+1



Si actuellement les perf semblent etre meilleures sur PS4 que sur PC, il faut garder en tête que cette console devra aussi valloir la comparaison avec des PC dans 6-7ans…

De toute façon les exclus n’existant pas 95% des jeux PC seront sur PS4 et vice versa



De mémoire la PS3 a 256Mo de RAM et tiens très honorablement la comparaison avec un PC actuel.









copaz a écrit :



Plus bas, il parle de 20Go/s, donc 32Go/s max devrait suffir ?







Déjà que différents test prouvent qu’une CG PCIE 3.0 n’est pas bridé par du PCIE2 voir du 1… quel intéret?









nvidia94 a écrit :



Déjà que différents test prouvent qu’une CG PCIE 3.0 n’est pas bridé par du PCIE2 voir du 1… quel intéret?







Les CG PCIE 3.0 ne sont pas bridés parce que les applications n’utilisent pas le bus complètement pour ne pas le surcharger justement. Ou encore parce que le bottleneck ne se situe pas sur ce bus dans les tests effectués. Demain tu doubles la bande passante, les développeurs en profiteront, n’en doute pas :).









Groumfy a écrit :



Je dirais que l’architecture n’a que peu d’importance pour les acheteurs.







Le prix du matériel compte, mais pas tant que ça. Une fois le matos acheté, c’est fini (sauf panne après la garantie).







Le business model à problème, c’est sur le soft et les services ! Il y a aussi les éventuels DRM qui brident l’occasion. Avant d’acheter une console ou un PC, c’est plutôt ces aspects là qu’il faut regarder…







Justement les deux sont liés. On brade le matos pour attirer le client (l’emprisonner sur sa plateforme) et après on taxe sur tout ce qu’il achètera.







PPN a écrit :



+1



Si actuellement les perf semblent etre meilleures sur PS4 que sur PC, il faut garder en tête que cette console devra aussi valloir la comparaison avec des PC dans 6-7ans…







Pas vraiment non. La puce de base ça reste une carte milieu de gamme deux fois moins puissante que le très haut de gamme mono gpu chez AMD.



Reste à voir comment le partage de la gddr5 booste les perfs de la machine par rapport à une carte normale sur bus pci express.









azedrummer a écrit :



Les CG PCIE 3.0 ne sont pas bridés parce que les applications n’utilisent pas le bus complètement pour ne pas le surcharger justement. Ou encore parce que le bottleneck ne se situe pas sur ce bus dans les tests effectués. Demain tu doubles la bande passante, les développeurs en profiteront, n’en doute pas :).







Oui, à voir ce que ça donnera en rendu final.









azedrummer a écrit :



Les CG PCIE 3.0 ne sont pas bridés parce que les applications n’utilisent pas le bus complètement pour ne pas le surcharger justement. Ou encore parce que le bottleneck ne se situe pas sur ce bus dans les tests effectués. Demain tu doubles la bande passante, les développeurs en profiteront, n’en doute pas :).







Mouais à voir…

Quoiqu’il en soit, je suis pas près de remplacer mon ptit PC.

Un Core I5, 16Go de ram, et une HD7970OC 3Go… Pas sur que la PS4 fasse mieux. :)









PPN a écrit :



De mémoire la PS3 a 256Mo de RAM et tiens très honorablement la comparaison avec un PC actuel.





En mème temps les consoles actuelle bride légèrement les réalisations PC actuelle (cherchez l’euphémisme). Tu connais beaucoup de jeu qui utilisent plus de 2Go de RAM sur PC alors que ceux ci disposent 8Go de RAM sur n’importe qu’elle PC de jeux moyen?

Les Total war, Skyrim sous perfusion de mod? En tout cas pas Crysis 3 ou BF3.

Les jeux actuelles sont totalement vide d’objet et les textures sont méme pas assez grand pour servir de fond d’écran sur mon téléphone. Dans la version non modifié de skyrim sur PC à fond, tu vois encore apparaitre des forts par magie.



Et puis je n’oserais pas dire que les consoles actuelles tiennent la comparaison avec les PC: suffit de voir les creen de AC3 (j’ai absolument pas joué au jeu), mais les images de la version consolessont sacrément caca

D’un autre coté on a crysis 1sortis en 2007









nvidia94 a écrit :



Mouais à voir…

Quoiqu’il en soit, je suis pas près de remplacer mon ptit PC.

Un Core I5, 16Go de ram, et une HD7970OC 3Go… Pas sur que la PS4 fasse mieux. :)







A mon avis elle le fera car les jeux seront bien optimisés dessus. Mais il est clair que celui qui a une config très haut de gamme aujourd’hui (dans le style de la tienne ou alors carrément avec une titan/7990) n’aura pas besoin de changer de PC pour jouer au jeux consoles pour la prochaine gen… à moins que MS n’annonce quelquechose de mieux.









Tkop a écrit :



En mème temps les consoles actuelle bride légèrement les réalisations PC actuelle (cherchez l’euphémisme). Tu connais beaucoup de jeu qui utilisent plus de 2Go de RAM sur PC alors que ceux ci disposent 8Go de RAM sur n’importe qu’elle PC de jeux moyen?

Les Total war, Skyrim sous perfusion de mod? En tout cas pas Crysis 3 ou BF3.

Les jeux actuelles sont totalement vide d’objet et les textures sont méme pas assez grand pour servir de fond d’écran sur mon téléphone. Dans la version non modifié de skyrim sur PC à fond, tu vois encore apparaitre des forts par magie.



Et puis je n’oserais pas dire que les consoles actuelles tiennent la comparaison avec les PC: suffit de voir les creen de AC3 (j’ai absolument pas joué au jeu), mais les images de la version consolessont sacrément caca

D’un autre coté on a crysis 1sortis en 2007







Beaucoup de jeu n’utilisent pas plus de 2Go de ram parce que ce sont des programmes 32 bits, et windows ne leur permet pas d’utiliser plus de 2Go de RAM. Crysis en 64 bits utilisent plus de 2Go et évite d’utiliser le streaming de texture (d’où des gains de perfs d’ailleurs). Peut-être qu’avec ces nouvelles consoles cela changera. Apparemment, ce serait un processeur x86-64, ce qui ouvrira la voie aux portages 64 bits.



On peut dire ce qu’on veut sur ces nouvelles consoles, ce sera tout benef’ pour nos jeux sur PC.







nvidia94 a écrit :



Mouais à voir…

Quoiqu’il en soit, je suis pas près de remplacer mon ptit PC.

Un Core I5, 16Go de ram, et une HD7970OC 3Go… Pas sur que la PS4 fasse mieux. :)







C’est sûr :), je m’étais acheté une Xbox 360 en me disant que je n’aurai pas à maintenir un PC pour le jeu, que je pourrai jouer au fond de mon canapé avec le home cinema et que je pourrai me contenter de composants moins puissants. Aujourd’hui, je me retrouve avec un i5 3570k, 12Go de ram et un CFX de 7850 <img data-src=" />







Tourner.lapache a écrit :



A mon avis elle le fera car les jeux seront bien optimisés dessus.







J’espère d’ailleurs que ces optimisations profiteront aussi aux CG AMD sur PC puisque l’architecture sera assez proche










azedrummer a écrit :



On peut dire ce qu’on veut sur ces nouvelles consoles, ce sera tout benef’ pour nos jeux sur PC.





+10

J’ai attendu des années entière ces consoles, si je ne me trompe pas il n’y a jamais eu autant de différence de puissance entre deux génération de console



J’espère d’ailleurs que ces optimisations profiteront aussi aux CG AMD sur PC puisque l’architecture sera assez proche



+1









Tourner.lapache a écrit :



Pas vraiment non. La puce de base ça reste une carte milieu de gamme deux fois moins puissante que le très haut de gamme mono gpu chez AMD.





Coté hard tu as évidement raison, c’est un fait.



Mais les consoles permettent furieusement l’optimisation du code : 1 seule platforme et 1 hardware déterminé là ou les PC doivent gérer une foultitude de compatiblité, d’OS et de config hardware différentes (ram/cpu/gpu/drivers/….).









Tkop a écrit :



si je ne me trompe pas il n’y a jamais eu autant de différence de puissance entre deux génération de console







Pour les GPU. (si j’ai trouvé les bonnes infos)



PS2 : 6,4 Gflops (2000) et 4 mo de edram

PS3 : ~ 200 Gflops (2006) et 256 mo video (+256 système)

PS4 : ~ 2000 Gflops (2013) et 8 Go partagé



Donc ce n’est pas le plus gros saut. A noter que ça confirme ce que je disais plus haut : Sony n’a pas été chercher le plus haut de gamme comme fait précédemment et du coup on passe d’un facteur 30 à un facteur 10. (alors qu’avec le haut de gamme actuel on pourrait faire du x20)



Les flops ne font pas tout mais c’est un indicateur pertinent.









Tourner.lapache a écrit :



Pour les GPU. (si j’ai trouvé les bonnes infos)



PS2 : 6,4 Gflops (2000) et 4 mo de edram

PS3 : ~ 200 Gflops (2006) et 256 mo video (+256 système)

PS4 : ~ 2000 Gflops (2013) et 8 Go partagé



Donc ce n’est pas le plus gros saut. A noter que ça confirme ce que je disais plus haut : Sony n’a pas été chercher le plus haut de gamme comme fait précédemment et du coup on passe d’un facteur 30 à un facteur 10. (alors qu’avec le haut de gamme actuel on pourrait faire du x20)



Les flops ne font pas tout mais c’est un indicateur pertinent.







Comment peut on connaitre sa puissance en Gflop? elle a été révélé? car on a aucune info sur le GPU, si ce n’est que ca devrait être un milieu de gamme de la génération actuelle d’AMD.



Pour comparaison une HD7970 fait 947 GFLOPS









Tourner.lapache a écrit :



Pour les GPU. (si j’ai trouvé les bonnes infos)



PS2 : 6,4 Gflops (2000) et 4 mo de edram

PS3 : ~ 200 Gflops (2006) et 256 mo video (+256 système)

PS4 : ~ 2000 Gflops (2013) et 8 Go partagé



Les flops ne font pas tout mais c’est un indicateur pertinent.







Surtout quand la puce ne permet pas de faire des opération flottante.









nvidia94 a écrit :



Comment peut on connaitre sa puissance en Gflop? elle a été révélé? car on a aucune info sur le GPU, si ce n’est que ca devrait être un milieu de gamme de la génération actuelle d’AMD.



Pour comparaison une HD7970 fait 947 GFLOPS







Non la HD7970 peu monter à 3700 Gflops, 947GFlops c’est sur les doubles (chose totalement inutile pour les jeux videos).

Celle de la ps3 à été annoncée à 1860 Gflops (soit une HD7850) (entre 100 et 200Gflops sur les double si celle ci les supporte ce dont je doute).









Reparateur a écrit :



tu fou un cable



dans mon appart tout est relié au PC et aussi à l’ampli







Franchement, à part des connaissances « geek », je connais personne pour faire ça. Déjà que pour certains brancher une console c’est le bout du monde alors qu’il n’y a que 2 câbles.









azedrummer a écrit :



Beaucoup de jeu n’utilisent pas plus de 2Go de ram parce que ce sont des programmes 32 bits, et windows ne leur permet pas d’utiliser plus de 2Go de RAM. Crysis en 64 bits utilisent plus de 2Go et évite d’utiliser le streaming de texture (d’où des gains de perfs d’ailleurs). Peut-être qu’avec ces nouvelles consoles cela changera. Apparemment, ce serait un processeur x86-64, ce qui ouvrira la voie aux portages 64 bits.







Le vrai frein sur le runtime X64, à la base, c’est Microsoft. Pas d’un point de vue technique, mais marketing.



Tant qu’ils vendent en standard des versions 32bit de Windows…



Constat : compte le nombre de jeux avec runtime X64.









Groumfy a écrit :



Le vrai frein sur le runtime X64, à la base, c’est Microsoft. Pas d’un point de vue technique, mais marketing.



Tant qu’ils vendent en standard des versions 32bit de Windows…



Constat : compte le nombre de jeux avec runtime X64.







ça fait un bail que Win7 se vend en standard en version 64 bits, idem pour Win8. Mais c’est plus délicat pour XP et Vista, je te l’accorde :). Ca n’empêche que les devs pourraient faire un petit effort et fournir un petit exécutable pour 64bits (comme Crysis), il n’y a pas tout le jeu à redévelopper non plus.









zefling a écrit :



Franchement, à part des connaissances « geek », je connais personne pour faire ça. Déjà que pour certains brancher une console c’est le bout du monde alors qu’il n’y a que 2 câbles.









avec l’HDMI tu n’a qu’un cable aussi










Reparateur a écrit :



avec l’HDMI tu n’a qu’un cable aussi





Oui, 2 câbles : secteur + HDMI



Et la marmotte dans tout ça ?








azedrummer a écrit :



ça fait un bail que Win7 se vend en standard en version 64 bits, idem pour Win8. Mais c’est plus délicat pour XP et Vista, je te l’accorde :). Ca n’empêche que les devs pourraient faire un petit effort et fournir un petit exécutable pour 64bits (comme Crysis), il n’y a pas tout le jeu à redévelopper non plus.







Ce n’est pas ce que j’ai écrit. Ils continuent de distribuer des versions 32bit, et ça c’est mal.



A la limite, ils auraient dû proposer les versions 32 pour les entreprises, mais pas en OEM ou en boite.





Crysis : De mémoire, seul le 1 a le support du 64.









Groumfy a écrit :



Crysis : De mémoire, seul le 1 a le support du 64.





Pourquoi ils en ont fait d’autre <img data-src=" />



<img data-src=" />









RaYz a écrit :



<img data-src=" />









Si ton objectif dans la vie c’est d’avoir une plus grosse config de gamer que ton voisin, je te la laisse ta vie de merde <img data-src=" />









Tourner.lapache a écrit :



Dixit le gars qui prend pas la peine de lire la moitié des coms et sort des avis sur la branlette des specs techniques alors qu’il ne s’agit absolument pas de ça. (cf la dernière partie de mon com) Commentaire vu au moins autant de fois que ceux que tu dénonces et qui est au moins aussi inutile : à ce compte là on aurait du rester sur du 8 bits puisque rien à battre des specs.







La PS4 à l’air d’avoir tout ce qu’il faut pour s’amuser comme il faut. Je préfère largement une plateforme qui va être utilisée à fond, qu’une carte graphique à 700 boules qui ne sera même pas exploitée à la moitié de sa capacité et déclarée obsolète quelques mois plus tard.

Après, chacun sa façon de claquer son fric.





On parle pas d’un console avec du matos de merde quand même faut pas pousser mémé dans les orties.



Cette course à la puissance à la con, on ne prend même plus la peine d’apprécier ce qu’on à devant soi…



@methos: je me demande bien qui à une vie de merde, celui qui est blasé ou celui qui s’interdit pas de rêver ?








Tkop a écrit :



@methos: je me demande bien qui à une vie de merde, celui qui est blasé ou celui qui s’interdit pas de rêver ?









Rêver c’est bien, mais ça doit pas t’empêcher de vivre <img data-src=" />



Je suis très heureux avec ce que j’ai et ma vie ne se résume pas une config de gamer ou et des journées entière de jeux vidéos… J’ai d’autre choses plus intéressantes à faire de mes journées. Alors le casual VS l’Elite je pense qu’on peux se passer de ce genre de commentaire (tous comme beaucoup des miens d’ailleurs, je ne dit pas le contraire)









azedrummer a écrit :



Comparons ce qui est comparable









AMD 8 coeurs +/- = Atom d’Intel <img data-src=" />









methos1435 a écrit :



Si ton objectif dans la vie c’est d’avoir une plus grosse config de gamer que ton voisin, je te la laisse ta vie de merde <img data-src=" />





<img data-src=" /> t’es mignon c’est marrant <img data-src=" />



Ca c’est de la bonne news bien geek qui fait plaisir ! <img data-src=" />



Après c’est sur, faut connaitre l’architecture matérielle pour comprendre ce qui est dit. <img data-src=" />