[MàJ] Watch Dogs : Ubisoft revient en arrière au sujet des prérequis sur PC

[MàJ] Watch Dogs : Ubisoft revient en arrière au sujet des prérequis sur PC

Mais laisse quand même ces derniers sur la fiche du jeu

Avatar de l'auteur
Kevin Hottot

Publié dans

Société numérique

04/10/2013 3 minutes
210

[MàJ] Watch Dogs : Ubisoft revient en arrière au sujet des prérequis sur PC

Ubisoft a publié hier par inadvertance la configuration requise par la version PC de Watch Dogs, avant de la retirer et de la remettre en ligne. Ceci dit, elle est restée assez longtemps pour que des habitués du forum Neo GAF mettent la main dessus. Fait surprenant, il faudra au minimum une puce avec quatre cœurs pour faire fonctionner correctement le jeu, et l'éditeur recommande même l'usage d'un processeur pouvant gérer au moins 8 threads.

 Watch Dogs

 

Si jusqu'ici la plupart des jeux sur PC demandaient des configurations minimales permettant de fonctionner sur des machines relativement anciennes, à base de Core 2 Duo et de GeForce GT 8800 par exemple, l'arrivée des consoles « next-gen » semble changer quelque peu la donne. C'est tout du moins la réflexion que l'on peut se faire en voyant le matériel que recommande Ubisoft pour faire fonctionner son prochain titre majeur : Watch Dogs.

Processeur quadruple coeur obligatoire

En effet, l'éditeur imposerait l'utilisation d'un processeur avec quatre coeurs et d'une carte graphique compatible DirectX 11. Voici en détail les configurations suggérées pour le titre :

 

Minimale :

  • Processeur : Intel Core 2 Quad Q6600 ou AMD Phenom X4 9750
  • Carte graphique : GeForce GTX 460 ou Radeon HD 5770
  • RAM : 4 Go

Recommandée : 

  • Processeur Intel Core i7-3770 ou AMD FX-8350
  • Carte graphique : GeForce GTX 560 Ti ou Radeon HD 7850
  • RAM : 8 Go

Ultra :

  • Processeur Intel Core i7-3930K ou AMD FX-9370
  • Carte graphique : GeForce GTX 670 ou Radeon HD 7970
  • RAM : 8 Go

Il convient d'ajouter à ces prérequis un tronc commun composé d'un minimum de 20 Go d'espace libre sur votre disque dur, ainsi que la présence de Windows Vista SP2, Windows 7 SP1 ou Windows 8 en version 64 bits uniquement.

 

Cependant, selon Sebastien Viard, le directeur technique de Watch Dogs, ces configurations bien qu'à nouveau présentes sur la fiche produit du jeu ne sont pas les prérequis officiels, ces derniers devant être plus légers qu'actuellement. De là à penser que la version PC sera basée sur un portage des versions PS3/Xbox 360 et non PS4/Xbox One, il n'y a qu'un pas.

Une inflation prévisible

Cette inflation des caractéristiques requises est très certainement due à l'arrivée prochaine des consoles de nouvelle génération que sont la Xbox One et la PlayStation 4. Celles-ci disposent d'une architecture matérielle proche d'un PC (voir notre dossier) il est donc logique que les jeux multiplateformes réclament une configuration assez proche. 

Si l'on regarde de près les prérequis "recommandés" on s'aperçoit qu'il est question de processeurs capables de gérer huit threads simultanément. Or la PS4 et la Xbox One disposent toutes deux de CPU x86 dotés de huit cores, le parallèle devient évident. Il en est de même côté GPU : la Radeon HD 7850 et ses 1024 unités de traitement cadencées à 860 MHz se trouve juste au-dessus de celui de la Xbox One, doté de 768 unités à 853 MHz, et juste en dessous de celui de la PS4 (1152 unités à 800 MHz). Pour rappel, toutes trois exploitant la même architecture GCN.

 

Quoi qu'il en soit, bien qu'anodine à première vue, cette fiche symbolise une certaine rupture. Si jusqu'ici il était raisonnable de penser qu'un processeur à deux coeurs était suffisant pour la plupart des titres récents, la prochaine génération de jeux réclamera davantage de performances de ce côté-là. Voilà donc un point important à prendre en compte lors de la prochaine mise à jour de votre PC dédié aux loisirs vidéoludiques.

Écrit par Kevin Hottot

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Processeur quadruple coeur obligatoire

Une inflation prévisible

Fermer

Commentaires (210)


Je pense plutôt à un portage dégueulasse malheureusement.


Plus qu’à installer une version 64 bits de Windows…


L’histoire se répète <img data-src=" /> (cf ps3 et xbox360)…


un core i7 en recommandé ?

Ah ouais quand même. <img data-src=" />


Tu veux dire qu’on aurait des jeux qui profiteraient vraiment des 64 bits?








NonMais a écrit :



Tu veux dire qu’on aurait des jeux qui profiteraient vraiment des 64 bits?







en meme temps, ils demandent 4Go mini et 8Go…



adieu de facto au 32bit…









hop45 a écrit :



en meme temps, ils demandent 4Go mini et 8Go…



adieu de facto au 32bit…





anéfé <img data-src=" />



Espérons que les ressources supplémentaires servent aux IA <img data-src=" />








Zadoush a écrit :



Je pense plutôt à un portage dégueulasse malheureusement.





j’espère pas, sinon ça serait dommage car le jeu est attendu au tournant!



On sent vraiment la différence en ayant plus de RAM? Parce que perso j’en ai 6 (ayant une CM tri-Channels) et je ne crois pas jamais utiliser les 6 …


Une autre licence AAA que je n’irai pas acheter. Une de plus. <img data-src=" />


Le 03/10/2013 à 10h 50







Zadoush a écrit :



Je pense plutôt à un portage dégueulasse malheureusement.





Il me semble que les fameuses démos des salons de jeux tournaient sur PC, non ?



“à base de Core 2 Duo et de GeForce GT 8800 par exemple”



Vous êtes venu chez moi récemment ? <img data-src=" />



J’ai donc bien fait de changer de config cette semaine.


Soit c’est un portage à la rache

Soit la version PC sera plus belle.



Car de ce que j’ai vu la PS4 et la Xbox One n’ont pas une config si énorme que ça…








GoldenTribal a écrit :



Il me semble que les fameuses démos des salons de jeux tournaient sur PC, non ?







Si c’est le cas il faudrait connaître la config car si c’est à base de sli de gtx titan et d’un i7 4960k c’est pas vraiment une config abordable…









NonMais a écrit :



On sent vraiment la différence en ayant plus de RAM? Parce que perso j’en ai 6 (ayant une CM tri-Channels) et je ne crois pas jamais utiliser les 6 …







Ben, si le jeu utilise plus de ram, oui on la sentira. C’est pas sur le démineur que 8go de ram ça va accélerer. Mais là ça laisse plus de marge (enfin) aux développeurs pour nous pondre des environnements de toute beauté.



Je note que Windows XP n’est plus listé.


Le 03/10/2013 à 10h 58







bojack9512 a écrit :



Si c’est le cas il faudrait connaître la config car si c’est à base de sli de gtx titan et d’un i7 4960k c’est pas vraiment une config abordable…





Après, en désactivant les effets comme les particules ou le motion blur, ça permet de faire baisser pas mal la configuration nécessaire sans rendre le jeu injouable.

Cela dit, une telle annonce me rassure sur mon choix de pré-commander la Xbox One !



ils sont où ceux qui clament une config Core Duo suffisante? <img data-src=" />

et ce n’est qu’un début…


Le 03/10/2013 à 11h 01







Soriatane a écrit :



Je note que Windows XP n’est plus listé.





A environ 6 mois de sa fin de support, encore heureux <img data-src=" />









Soriatane a écrit :



Je note que Windows XP n’est plus listé.





vu qu’il faut 4 à 8Go de RAM, et donc un OS 64 bits, tu en déduit que Windows XP est obsolète.



et que WinXP 64 est une blague! <img data-src=" />









Zadoush a écrit :



Je pense plutôt à un portage dégueulasse malheureusement.







Ca me parait évident, et surtout, ça va devenir le standard.









doom_Oo7 a écrit :



Ben, si le jeu utilise plus de ram, oui on la sentira. C’est pas sur le démineur que 8go de ram ça va accélerer. Mais là ça laisse plus de marge (enfin) aux développeurs pour nous pondre des environnements de toute beauté.







Les environnements de toute beauté : c’est plutôt la CG qui joue.

Sur BF3, je ne crois pas utiliser les 6Go.



Quad-core MINIMUM !!!???!!!§§§§paragraphe§§§

Quand je pense que les seuls programmes qui faisaient ramer mon i5 Sandy Bridge étaient des démos de Pouet.net :/



Il est où le logo « Stop Surarmement Now » ?








Zadoush a écrit :



Je pense plutôt à un portage dégueulasse malheureusement.





Pour les jeux multi-plateforme, les targets principales c’est PS3 / Xbox360, c’est les marchés les plus important.



Les jeux next-gen pour être bien exploité sur PC devront avoir une architecture similaire aux consoles PS4 et Xbox One pour bénéficier des optimisations console.









sicqo a écrit :



ils sont où ceux qui clament une config Core Duo suffisante? <img data-src=" />

et ce n’est qu’un début…







moi, pour le word des salariés ça suffit c’est largement suffisant <img data-src=" />









Obidoub a écrit :



Soit c’est un portage à la rache







Je l’aurais plutôt écrit “à l’arrache” ;) <img data-src=" />



Le 03/10/2013 à 11h 05

Pas d’annonce sur la configuration sous Linux ? <img data-src=" /> Oh wait <img data-src=" />








Zadoush a écrit :



Je pense plutôt à un portage dégueulasse malheureusement.







Le jeu demande la même config sur PC que sur console (8 coeurs et 7850), donc portage dégueulasse. Il se passe quoi dans ta tête ?



Par contre le Core i7… mouais, j’suis pas sûr. Vu que sur console tous les coeurs ne sont pas utilisés par le jeu, j’ai des doutes. Et puis passer de 2 à 8 coeurs d’un coup ça me paraît trop violent.









NonMais a écrit :



On sent vraiment la différence en ayant plus de RAM? Parce que perso j’en ai 6 (ayant une CM tri-Channels) et je ne crois pas jamais utiliser les 6 …





Tout dépend à quel jeu tu joues.



Tu peux essayer de mettre à mal ta config en jouant à un jeu gratuit tel que Planetside 2 … Ce jeu bouffe allègrement 2 à 3Go de RAM à lui tout seul ! (et encore je joue avec un niveau de détail minimal).

Bref, pour peu que ton PC soit chargé de faire autre chose en même temps : musique, application en flash, téléchargement, etc. bah tu vas vite arriver à utiliser 80% de ta RAM :)





Sinon en rapport avec la news :

Je trouve que c’est une bonne chose que les jeux tirent enfin parti des processeur multicore ! Ça veut probablement dire qu’un gros effort a été fourni sur la programmation en parallèle…et ça peut donner des choses très impressionnantes en termes de performances !









NonMais a écrit :



Je l’aurais plutôt écrit “à l’arrache” ;) <img data-src=" />





<img data-src="> &lt; ——-



Même si je ne joue plus réellement, mon Q6600 OC aura fait son temps, en effet.



L’explication de l’article est tout a fait probable mais j’ai quand même un doute. On connait beaucoup de gens réclamant de grosses configurations pour cause de portage ou optimisations douteux.



Il faudra attendre de voir la configuration des prochains jeux pour en être certain. Le bannissement du x86 n’est pas un mal par contre, tout comme la fin du support d’XP.



Pas sûr de toute façon qu’un jeu soit moins cher parce qu’il a demandé moins d’adaptation d’une machine a l’autre par contre… <img data-src=" />


Bah, Ubisoft rappelle régulièrement qu’ils détestent le marché PC (tous des pirates, etc…). Logique que leur jeu ne soit pas plus optimisé que ça pour les machines plus modestes et que le portage soit au final un peu cheap.



Parce qu’il ne faut pas prendre les gens pour des cons, Watch Dogs sort aussi sur les PS360 qui sont vraiment à la ramasse techniquement. En toute logique si le portage était bien fait, une config. très moyenne devrait être suffisante pour avoir la même qualité d’image que sur ces consoles là.


il n’y a pas de portage prévu sous SteamOs ? <img data-src=" />


Le 03/10/2013 à 11h 11

Et avec cette montée en puissance, quid des prix des jeux PC ? On restera sur la même base ou … ?


Donc un jeu que je téléchargerais à coup sûr. Déjà pour voir s’il vaut le coup niveau gameplay/scénario, et voir ce que ça donne sur mon PC.








Strimy a écrit :



Donc un jeu que je téléchargerais à coup sûr. Déjà pour voir s’il vaut le coup niveau gameplay/scénario, et voir ce que ça donne sur mon PC.





Oooooh Strimy ! Comme on se retrouve :)



#sorryForTheFlood









geekounet85 a écrit :



<img data-src="> &lt; ——-





Je n’avais pas vu le lien avant de te citer <img data-src=" />



bon j’en reste à “à l’arrache” donc <img data-src=" />









kyhkyh a écrit :



Bah, Ubisoft rappelle régulièrement qu’ils détestent le marché PC (tous des pirates, etc…). Logique que leur jeu ne soit pas plus optimisé que ça pour les machines plus modestes et que le portage soit au final un peu cheap.



Parce qu’il ne faut pas prendre les gens pour des cons, Watch Dogs sort aussi sur les PS360 qui sont vraiment à la ramasse techniquement. En toute logique si le portage était bien fait, une config. très moyenne devrait être suffisante pour avoir la même qualité d’image que sur ces consoles là.











Et si c’était pour avoir une meilleure qualité que sur console justement ?









Obidoub a écrit :



Soit c’est un portage à la rache

Soit la version PC sera plus belle.







Rien à voir. Le runtime 64bit concerne le jeu d’instruction spécifique au 64 et l’adressage de RAM.



Même pour un jeu PC uniquement :

C’est une question de statistiques des OS et de coeur de cible. Si le jeu est gourmant, et que les versions 64bit sont largement majoritaires, pourquoi se faire ch… à gérer le support de deux versions ?



A l’inverse, si un studio souhaite proposer un jeu peu gourmand en RAM, pour cibler un public très large, voire assurer un support de XP, c’est son choix.










NonMais a écrit :



Tu veux dire qu’on aurait des jeux qui profiteraient vraiment des 64 bits? sont codés à la truelle.





<img data-src=" />

Bon, je retourner jouer à mes vieilleries.



On peut plus parler de portage … puisque ils devs tous sur la même archi maintenant. Les nouvelles consoles ne sont que des PC castrés.

Donc si la Xbox1 utilise du DX10 ou 11 pour ses jeux, connaissant son archi x86, est-ce qu’on peut vraiment parler de portage sur PC pour un jeu venant de Xbox (par exemple) … ?

Certes ça sera sans doute “optimisé” au hardware (donc AMD), mais on ne devrait plus tant sentir de différence que ça. (optimiste, je sais)



(toujours dans la mesure où le code pour PC viendrait des nouvelles consoles, et pas comme Fifa sur PC dont le moteur s’est arrêté au 2010 ou 2011)








NonMais a écrit :



Je n’avais pas vu le lien avant de te citer <img data-src=" />



bon j’en reste à “à l’arrache” donc <img data-src=" />







On peut trancher la poire en deux avec un “portage à la hache” <img data-src=" />









kyhkyh a écrit :



Bah, Ubisoft rappelle régulièrement qu’ils détestent le marché PC







Exemple ?









NonO51 a écrit :



On peut trancher la poire en deux avec un “portage à la hache” <img data-src=" />





ou à l’art H aussi…









nost4r a écrit :



Et si c’était pour avoir une meilleure qualité que sur console justement ?





J’ai surtout l’impression qu’ils oublient que la majorité des PC sont des portables. On a pas tous les moyens de s’acheter un PC portable et un fixe. Du coup, je n’ai que mon PC portable pour jouer, et ce n’est pas non plus un monstre en performances graphiques.



J’en ai limite presque rien à faire de devoir baisser les détails fortement pour avoir un rendu console, mais qu’ils nous laissent au moins l’avoir avec des performances normales.



M’enfin, comme déjà dit, j’attendrais qu’il sorte pour le tester et si ça me va, j’achèterais.





mrjay42 a écrit :



Oooooh Strimy ! Comme on se retrouve :)



#sorryForTheFlood





Ca faisait longtemps <img data-src=" />



Ayant un i-5 Quad-core, 8Gio de RAM et une 6870 1 Gio de VRAM je reste perplexe quant a la capacité de mon PC a faire tourner le bousin a plus que le minimum.

Mais ils ont pas donne la résolution d’affichage, ça se trouve c’est pour avoir le jeu en 4K


Je suis en configuration minimale… avec mon Phenom X4 et ma “petite” 5770 :)


Embêtant pour les petites et ancieznnes configurations :/

Après faut se dire que ça fait un moment qu’on attends des jeux qui prennent réellement en compte les multi-threads.

C’est aussi une avancée sur ce point qui sera malheureusement onéreuse pour certains


Et on peut espére une gestion mutl-coeur en parallèle.

Ou ils reclament juste un Quad-core pour le fun ?


j’ai encore de quoi voir venir <img data-src=" />


J’ai hâte de voir le bond magique de performances des procc AMD dans les jeux… Nuls en mono-thread mais qui bouffent Intel en multi, si les jeux en profitent enfin ça devrait nettement changer les conclusions des tests.



Qu’on nous présente un Core i7-3770 au même niveau qu’un FX-8350, c’est déjà très prometteur. Reste à confirmer.


Enfin un incitant pour upgrader ma config à base de P35, Q6600 @3.6GHz et GTX660? ^^








DarkMoS a écrit :



Enfin un incitant pour upgrader ma config à base de P35, Q6600 @3.6GHz et GTX660? ^^





Hein ? incitant ?









skan a écrit :



Espérons que les ressources supplémentaires servent aux IA <img data-src=" />





http://www.youtube.com/watch?v=hHRNSeuvzlM







Obidoub a écrit :



Soit c’est un portage à la rache

Soit la version PC sera plus belle.



Car de ce que j’ai vu la PS4 et la Xbox One n’ont pas une config si énorme que ça…





<img data-src=" />









DarkMoS a écrit :



Enfin un jeux incitant pour upgrader ma config à base de P35, Q6600 @3.6GHz et GTX660? ^^





en passant d’un Q9300@3Ghz à un 4670k j’ai doublé les perfs en jeux (ce genre de CPU est super limitant, même si mon avis était tout le contraire avant de changer)









NonMais a écrit :



Les environnements de toute beauté : c’est plutôt la CG qui joue.

Sur BF3, je ne crois pas utiliser les 6Go.







Pas que la CG, les textures sont pas toutes stockées dans la GDDR de la CG. Il en faut aussi côté CPU pour la physique et tout les à côté. La CG ne calcule “que” les vertex (et vire ceux qui ne sont pas visible pour éviter de les calculer dans le vide)



En gros, le cpu est aussi important (moins, mais il l’est quand même)



Autre solution: louer un bureau chez Météo France….



… quoique au niveau CG, il doivent pas être au top.








Soriatane a écrit :



Je note que Windows XP n’est plus listé.





C’est logique : ce système antédiluvien prend enfin sa retraite au 8 avril 2014. Et sa version 64bits n’a jamais marché.



Ma config devrai pouvoir le faire tourner très convenablement (Core i5 2400, 8 Go de RAM, double HDD de 500 Go et une Radeon HD6970 2 Go).









Chloroplaste a écrit :



Autre solution: louer un bureau chez Météo France….



… quoique au niveau CG, il doivent pas être au top.







tu peux aller jouer à la NASA, ils sont en chômage pecunier en ce moment









Goghvan a écrit :



Pas que la CG, les textures sont pas toutes stockées dans la GDDR de la CG. Il en faut aussi côté CPU pour la physique et tout les à côté. La CG ne calcule “que” les vertex (et vire ceux qui ne sont pas visible pour éviter de les calculer dans le vide)



En gros, le cpu est aussi important (moins, mais il l’est quand même)







ok <img data-src=" />









spidy a écrit :



en passant d’un Q9300@3Ghz à un 4670k j’ai doublé les perfs en jeux (ce genre de CPU est super limitant, même si mon avis était tout le contraire avant de changer)





J’ai un Q9400 avec GTX660, ça tourne plutôt déjà pas mal je trouve (1680x1050) ?



Me suis acheté un 4770k en me disant que ces glanda de devs allaient nous faire du coding parallele console/pc. Voila qui me confirme donc dans mon choix.



J’ai envie de dire bravo quand même, les mecs nous comparent nos proc et cg de brutes avec les daubes qu’ils foutent dans les consoles. Si seulement on pouvait donner le total accès aux ressources aux devs, peut etre qu’on aurait pas ce genre de problème.



On me souffle Steam OS à l’oreille. Je réponds LinuxLesEditeursSenCognentKamoulox.



Joli portage en tout cas. Suis sur qu’on peut flinguer avec un quad core avec pacman et quelques boucles infinies bien placées. Vive le coding avec les pieds.








Goghvan a écrit :



Pas que la CG, les textures sont pas toutes stockées dans la GDDR de la CG. Il en faut aussi côté CPU pour la physique et tout les à côté. La CG ne calcule “que” les vertex (et vire ceux qui ne sont pas visible pour éviter de les calculer dans le vide)



En gros, le cpu est aussi important (moins, mais il l’est quand même)







Je ne suis pas d’accord. Les jeux de la génération actuelle utilisent très peu le CPU. Charger les textures c’est une question de bande passante, pas de puissance de calcul. Dans les faits, même la physique c’est pas grand chose. La grande majorité des jeux utilisent deux threads (donc tournent le mieux sur 2 core).



Vu le peu d’avancées dans le framework pour le multi-threading (notamment la capacité a distribuer les calculs sur plusieurs threads facilement), j’ai du mal a croire que cela va changer bientôt. D’ici 5 ans, quand les consoles next-gen seront des vraies ‘current-gen’, on verra…



Le 64 bits par contre, c’est obligatoire pour gérer plus que 4Go de RAM, donc c’est indispensable pour les jeux a venir. En plus, en 32bits, on a souvent que 3Go et quelques d’utilisable a cause de la place prise par l’OS et de détails techniques pour l’adressage des périphériques.



Et vive la disparition d’XP, comme cela a été dit plus haut, il arrive en vraie fin de vie en avril 2014. Seven est largement au dessus en tout point, et marche correctement sur des machines anciennes pourvu qu’il y ait 2Go ou + de ram.









TomGun a écrit :



J’ai hâte de voir le bond magique de performances des procc AMD dans les jeux… Nuls en mono-thread mais qui bouffent Intel en multi, si les jeux en profitent enfin ça devrait nettement changer les conclusions des tests.



Qu’on nous présente un Core i7-3770 au même niveau qu’un FX-8350, c’est déjà très prometteur. Reste à confirmer.





Tiens, j’ignorais ça … Faudrai que je me renseigne davantage … Peut être que la solution des APU d’AMD dans le sportables MSI serai l’avenir ?









Elwyns a écrit :



moi, pour le word des salariés ça suffit c’est largement suffisant <img data-src=" />



LOL

on parle d’un jeu..









AirChtit a écrit :



Vive le coding avec les pieds.







Qui code avec ses pieds, patche sans arrêts !!



<img data-src=" />



ça y est en effet je vais pouvoir mettre mon e8400 et sa hd4850 à la retraite. Pour ma part j’avais prévu de changer de config à la sortie des nouvelles consoles. M’enfin là ça me met un doute, je partais pour un corei5 4670k .Faut-il priviliégier les 4coeurs d’un corei5 ou bien les “8” coeurs/4modules d’un fx8350? Pas facile…








Soriatane a écrit :



Je note que Windows XP n’est plus listé.







Moi, je note qu’il y a des gens se souciant encore de la rétrocompatibilité de win xp…









Obidoub a écrit :



Soit c’est un portage à la rache

Soit la version PC sera plus belle.



Car de ce que j’ai vu la PS4 et la Xbox One n’ont pas une config si énorme que ça…





C’est quoi une rache ??? <img data-src=" />









NonMais a écrit :



On sent vraiment la différence en ayant plus de RAM? Parce que perso j’en ai 6 (ayant une CM tri-Channels) et je ne crois pas jamais utiliser les 6 …







Tu les utilises surement, mais en grande partie pour le cache.

Donc oui tu ressens la différence, ça ne doit pas être très flagrant entre 6GB et 8GB pour une utilisation normale, mais elle est là.



Je suis étonné de vos étonnements. Il y a déjà eu par le passé un certain nombre de jeux qui ramaient sur quasiment tous les PC du moment, même sur les plus grosses configurations. Des jeux auxquels les joueurs n’ont vraiment pu profiter que 2 ou 3 ans après leur sortie, une fois que les CPU et GPU avaient gagné en puissance.

Et bien souvent, la sortie de ces jeux a poussé les joueurs à upgrader leur machine.



Le premier du genre dont je me souviens, ça a été Wing Commander 2, à une époque où les Atari ST et Amiga régnaient en maître dans l’univers du jeu sur ordinateur (je laisse les consoles à part). Et soudain, un jeu PC impressionnait les joueurs au point de les pousser à se poser la question… Vais-je abandonner mon Atarimiga pour un PC ?

Non ! Et puis finalement, si…



Après ça a été les jeux qui étaient tellement plus beaux grâce aux cartes graphiques 3DFX, et puis les premières GeForce…



Et puis des jeux comme Far Cry qui faisaient ramer toutes les machines au moment de sa sortie.

Ou Crysis un peu plus tard…



On pourrait en citer beaucoup mais le “stop surarmement”, on l’entend depuis toujours dans le monde ludique sur PC.

Je ne sais pas si c’est bien ou pas bien, toujours est-il que ça n’a rien de nouveau.



En tout cas, difficile de reprocher aux éditeurs de chercher à pousser nos machines dans leurs derniers retranchements et d’essayer d’utiliser la puissance des derniers processeurs. Quitte à ne pouvoir en profiter que plus tard.


bon ben me vlà avec la config minimale.<img data-src=" />

ça fait tout chose. <img data-src=" />








geekounet85 a écrit :



<img data-src="> &lt; ——-





Je connaissais pas, je suis fan <img data-src=" />



ça ressemble surtout à un manque flagrant d’optimisation + portage dégueulasse qu’à une nécessité pour faire fonctionner le jeu.


Vu le budget qu’il me faudrait pour passer mon pc de :

Cm gigabyte ga-ma69g-s3h +phenom IIx4925 rev c3 2.8ghz. 4go ramddr2+cg sapphire radeon hd 4770+alime antec earthwatt 500

À une config recommandée pour ce jeu, j’hesite entre l’upgrade, ou la xbox one <img data-src=" />








Obidoub a écrit :



Soit c’est un portage à la rache

Soit la version PC sera plus belle.











sir.thorfin a écrit :



C’est quoi une rache ??? <img data-src=" />







Un mec qui pose des comms avec les pieds <img data-src=" />









sir.thorfin a écrit :



C’est quoi une rache ??? <img data-src=" />







t’arrives un peu après la bataille <img data-src=" />



<img data-src=" />



<img data-src=" />









Zulgrib a écrit :



ça ressemble surtout à un manque flagrant d’optimisation + portage dégueulasse qu’à une nécessité pour faire fonctionner le jeu.







Sachant que la config recommandée est quasiment celle de la PS4 et XBOX ONE je ne vois pas où se trouve le manque d’optimisation….



On juge par rapport à ce qui se faisait, à savoir une optimisation en premier lieu pour des specs anémiques (comprendre les consoles de la previous gen) mais là on arrive à un niveau supérieur, un palier qui peut être passé justement grâce à la prochaine gen. Et ça se traduit par une augmentation des specs minimales requises.









Séphi a écrit :



Sachant que la config recommandée est quasiment celle de la PS4 et XBOX ONE je ne vois pas où se trouve le manque d’optimisation….



On juge par rapport à ce qui se faisait, à savoir une optimisation en premier lieu pour des specs anémiques (comprendre les consoles de la previous gen) mais là on arrive à un niveau supérieur, un palier qui peut être passé justement grâce à la prochaine gen. Et ça se traduit par une augmentation des specs minimales requises.





Et si c’était mal optimisé sur la version console à la base ? :-)










djshotam a écrit :



Vu le budget qu’il me faudrait pour passer mon pc de :

Cm gigabyte ga-ma69g-s3h +phenom IIx4925 rev c3 2.8ghz. 4go ramddr2+cg sapphire radeon hd 4770+alime antec earthwatt 500

À une config recommandée pour ce jeu, j’hesite entre l’upgrade, ou la xbox one <img data-src=" />







Tu pourras pas faire tes courriers words, des tableau excel de comparatifs de prix entre carrefour et leclerc, ni mater tes divx recuperés via torrent et debrideur etc…



T’auras juste le droit de faire attention a pas te foutre a poil devant ta kinect et de voir l’ecran devenir noir quand un 3eme larron se pointera devant la console qui te passe un film du service vod integré…



Tu veux toujours une xbox1 ?



Conf au delà de l’ultra <img data-src=" />








Niktareum a écrit :



Tu pourras pas faire tes courriers words, des tableau excel de comparatifs de prix entre carrefour et leclerc, ni mater tes divx recuperés via torrent et debrideur etc…



T’auras juste le droit de faire attention a pas te foutre a poil devant ta kinect et de voir l’ecran devenir noir quand un 3eme larron se pointera devant la console qui te passe un film du service vod integré…



Tu veux toujours une xbox1 ?









Oui si je garde mon pc actuel….

Pour la kinect, je la débrancherait, ou placerai quelques chose au dessus pour la camoufler<img data-src=" />









NonMais a écrit :



On sent vraiment la différence en ayant plus de RAM? Parce que perso j’en ai 6 (ayant une CM tri-Channels) et je ne crois pas jamais utiliser les 6 …







Si tu arrives a devoir faire du chache swapping tu le ressens oui car ton pc se met à ramer violement…









AirChtit a écrit :



Vive le coding avec les pieds.











athlonx2 a écrit :



Qui code avec ses pieds, patche sans arrêts !!

<img data-src=" />











Zulgrib a écrit :



ça ressemble surtout à un manque flagrant d’optimisation + portage dégueulasse qu’à une nécessité pour faire fonctionner le jeu.







Je pense que vous n’avez aucune idée de ce que représente le développement de ces grosses productions. Les équipes cherchent bien à optimiser un maximum le code, et utilisent par exemple des outils d’analyse de code, pour chasser les erreurs, les codes pas conformes à des standards définis par les dev, etc.



A un moment il n’y a pas de secrets, il y a des limites à l’optimisation, on ne peut pas avoir des jeux de plus en plus beaux avec une meilleure expérience de jeu, sans changer les specs hardware qui sont nécessaires.



En ce qui concerne la question du portage, j’ai un avis différent du votre. Je pense que c’est justement parce que le hardware des xboxOne et PS4 sont de type “PC” que l’on devrait avoir des portages de bonne qualité. En tout cas, pour un ou deux ans, ensuite on sait que le hardware PC sera bien plus performant que celui des consoles, et on se retrouvera dans la même situation que ce que nous avons actuellement sur PS3 et Xbox360.



<img data-src=" />









Zulgrib a écrit :



Et si c’était mal optimisé sur la version console à la base ? :-)







Tu chipotes là….









NonMais a écrit :



On sent vraiment la différence en ayant plus de RAM? Parce que perso j’en ai 6 (ayant une CM tri-Channels) et je ne crois pas jamais utiliser les 6 …







Perso, je depasse les 6go tout les jours….



Avec juste chrome (et tout les onglets) et wow, rien deplus (hormis drivers, ptite apps etc…).

Je suis passé de 4 a 8go en debut d’année, parce que j’en avais marre de devoir fermer le navigateur lors de mes sessions de jeu.

Je prefere juste reduire le jeu et surfer un peu si j’ai une notif ou besoin d’une info. Je me retrouvais a ouvrir une seule fenetre ie pour ma recherche, et quand ej quittais le jeu, je réouvrais chrome, super relou <img data-src=" />



Port ou pas port c’est un jeu avec de beaux graphismes (contrairement par exemple a wow ou lol qui cherchent a permettre au plus de monde d’y jouer) donc c’est sur qu’avec une machine de 5 ans ça va pas être terrible pour jouer aux derniers jeux.








Beginner a écrit :



En ce qui concerne la question du portage, j’ai un avis différent du votre. Je pense que c’est justement parce que le hardware des xboxOne et PS4 sont de type “PC” que l’on devrait avoir des portages de bonne qualité. En tout cas, pour un ou deux ans, ensuite on sait que le hardware PC sera bien plus performant que celui des consoles, et on se retrouvera dans la même situation que ce que nous avons actuellement sur PS3 et Xbox360.



<img data-src=" />







Ça par contre je n’y crois pas un seul instant.

Une architecture similaire ne signifie pas forcément un portage plus aisé.

Rien que la différence entre la RAM unifiée sur consoles et segmentée sur PC est une différence assez énorme en terme de développement.



Je pense qu’on verra ça sur le long terme, j’espère me tromper, mais dire que l’archi est similaire, donc les portages seront plus facile ce n’est pas vrai. Pas dans tous les cas de figure.









elite7words a écrit :



ça y est en effet je vais pouvoir mettre mon e8400 et sa hd4850 à la retraite. Pour ma part j’avais prévu de changer de config à la sortie des nouvelles consoles. M’enfin là ça me met un doute, je partais pour un corei5 4670k .Faut-il priviliégier les 4coeurs d’un corei5 ou bien les “8” coeurs/4modules d’un fx8350? Pas facile…







J’ai un Xeon E3 1230, c’est bien pour les machines de jeu. Bon rapport qualité/prix.









tiny_naxos a écrit :



J’ai un Q9400 avec GTX660, ça tourne plutôt déjà pas mal je trouve (1680x1050) ?





oui en 22”



sur crysis 3 par exemple même en mettant les graphics/résolution au mini ça ramait autant.



la limitation CPU est facile à détecter avec cette méthode.



j’ai changé pour un combo 4670k + gtx770 (q9300 + gtx560 avant)



par contre sur des jeux comme FC3 ou tomb raider, la limite CPU est bien moindre.



Mouais, ça me parait un peu excessif, même s’il est clair que le gros soucis vient du nombre de “cores”. Ceci dit, un processeur i7 est à des années lumières de ce que proposera l’archi Jaguar de ces nouvelles consoles.








Beginner a écrit :



Je pense que vous n’avez aucune idée de ce que représente le développement de ces grosses productions. Les équipes cherchent bien à optimiser un maximum le code, et utilisent par exemple des outils d’analyse de code, pour chasser les erreurs, les codes pas conformes à des standards définis par les dev, etc.



A un moment il n’y a pas de secrets, il y a des limites à l’optimisation, on ne peut pas avoir des jeux de plus en plus beaux avec une meilleure expérience de jeu, sans changer les specs hardware qui sont nécessaires.



En ce qui concerne la question du portage, j’ai un avis différent du votre. Je pense que c’est justement parce que le hardware des xboxOne et PS4 sont de type “PC” que l’on devrait avoir des portages de bonne qualité. En tout cas, pour un ou deux ans, ensuite on sait que le hardware PC sera bien plus performant que celui des consoles, et on se retrouvera dans la même situation que ce que nous avons actuellement sur PS3 et Xbox360.



<img data-src=" />







niveau optimisations, ce dont tu parle c’est le minimum syndicale de tout gros projet (pas que JV).



Les vraies optimisations sont au niveau de la conception algorithmique du moteur graphique/physique et de la gestion en mémoire des textures. la grosse différence aussi entre une version console et un portage PC, c’est qu’une console à des specs hardware et software bien définies alors que sur PC il faut savoir gérer toute sorte de config (bas/moyen/haut de gamme) et faire des optimisations là dessus est très difficile.



par contre je te rejoins sur le fait que les futurs portages PS4/Xone vers PC seront “théoriquement” meilleurs que ceux X360-&gt;PC









Beginner a écrit :



Je pense que vous n’avez aucune idée de ce que représente le développement de ces grosses productions. Les équipes cherchent bien à optimiser un maximum le code, et utilisent par exemple des outils d’analyse de code, pour chasser les erreurs, les codes pas conformes à des standards définis par les dev, etc.



A un moment il n’y a pas de secrets, il y a des limites à l’optimisation, on ne peut pas avoir des jeux de plus en plus beaux avec une meilleure expérience de jeu, sans changer les specs hardware qui sont nécessaires.





Des fois, on dirait vraiment pas. Suffit de voir le nombre de patchs qu’ils envoient avant de rendre un jeu fonctionnel. <img data-src=" />







Beginner a écrit :



En ce qui concerne la question du portage, j’ai un avis différent du votre. Je pense que c’est justement parce que le hardware des xboxOne et PS4 sont de type “PC” que l’on devrait avoir des portages de bonne qualité. En tout cas, pour un ou deux ans, ensuite on sait que le hardware PC sera bien plus performant que celui des consoles, et on se retrouvera dans la même situation que ce que nous avons actuellement sur PS3 et Xbox360.





Je pense aussi. :)





M’enfin, après, baisser quelques paramètres graphique, ce sera pas la mort. :)



Un jeu qui va utiliser pleinement les 8 cores :o Par contre, ma CG commence a être limite. Hâte de voir ce jeu. :)


au bout d’un moment on ne peux pas non plus demander à des jeux très récents de tourner sur des machines qui ont plus de 6 ans maintenant !


Ultra ready <img data-src=" /> …



… sauf pour le proc mais je pense que mon 2600K fera le job


ENFIN !



On a tous des procs 64 bits depuis 10 ans maintenant et il n’y a toujours pas un seul jeu sur steam en 64 bits.


Pour moi, demander un CPU avec beaucoup de coeurs c’est justement le signe d’un moteur bien optimisé. Coder brutalement dans un seul thread (ou 2 quand on est de bonne composition) c’est justement le signe d’un développeur flemmard et/ou d’un moteur vieillot. Par contre faire l’effort d’exploiter correctement une architecture distribuée, c’est que les dévs ont pris le temps de créer un moteur moderne et qu’ils se sont un peu sortis les doigts du clavier pour réfléchir.








sniperdc a écrit :



Conf au delà de l’ultra <img data-src=" />





juste en dessous pour moi, mais vu que ça a couté déjà plus de 1000€ pour cette conf, ça passera de force pour l’ultra! <img data-src=" />



Mais les derniers i3 bouffent les phenom II X4 et un FX 4XXX est globalement en dessous.



Je pense que UBI a été demandé des chèque parce que demander des CPU aussi grotesque que le i7-3930K ou le FX9370 c’est un peu se foutre du joueur, la différence avec les cpu demandé pour jouer en “recommandé” étant minime comparé à la différence de prix.


Pour ceux qui ont une config’ modeste (mais qui peut tenir encore un peu), je pense qu’il est au contraire urgent de ne rien changer. Tout ça fait pressentir que ça risque de bouger pas mal dans les années à venir. Mais justement, autant attendre que ça prenne un rythme de croisière avec des évolutions logiques dans les gammes, et que les fabricants sortent de leurs cartons ce qu’ils réservent pour l’instant en attendant l’ouverture des vannes.


Je pensais pas a ce point la pour les CPUs… Quand on regarde la config’ recommandé pour Battlefield 4, (http://www.bf4france.com/configuration-battlefield-4-n7.html ) on se rend compte que niveau proc, pas de i7, mais juste la mention quad, pour AMD on perd 2 cores.<img data-src=" />



Le Frostbite 3 est mieux optimisé ? Vous en pensez quoi ?



Ps: un quad Q9450 (12 mo de cache) Oc a 3.4Ghz avec une 680, ça passe nan ? <img data-src=" />








spidy a écrit :



en passant d’un Q9300@3Ghz à un 4670k j’ai doublé les perfs en jeux (ce genre de CPU est super limitant, même si mon avis était tout le contraire avant de changer)





Interessant, j’ai un Q9550 que je comptais changer contre un 4670K <img data-src=" />









Goldy a écrit :



ENFIN !



On a tous des procs 64 bits depuis 10 ans maintenant et il n’y a toujours pas un seul jeu sur steam en 64 bits.





Half Life 2 est en 64 bits depuis 5 ans environ ^^









dodo021 a écrit :



Half Life 2 est en 64 bits depuis 5 ans environ ^^





Far Cry aussi (2005 via un patch officiel) <img data-src=" />



http://www.pcinpact.com/archive/FarCry_64_bits_performances_et_qualite_dimage_te…









Supernaz a écrit :



Interessant, j’ai un Q9550 que je comptais changer contre un 4670K <img data-src=" />





ça dépend de ce que tu as comme CG aussi.









geekounet85 a écrit :



juste en dessous pour moi, mais vu que ça a couté déjà plus de 1000€ pour cette conf, ça passera de force pour l’ultra! <img data-src=" />







OMG comment les éditeurs nous ruines pour jouer sur PC.

Mais avec le Full HD, les textures HD et les effets avancées le tout à 60 Fps comment ne pas craquer à la vue des trailers <img data-src=" /> <img data-src=" />









dodo021 a écrit :



Half Life 2 est en 64 bits depuis 5 ans environ ^^







Il ne me semble pas, même pour Portal 2.



Tu as un screenshot de hl2.exe sans le petit *32 ?









spidy a écrit :



ça dépend de ce que tu as comme CG aussi.





une GTX570 que je compte changer pour une GTX770.

Mais j’attends de voir ce que donne les R9 290(X).









Supernaz a écrit :



une GTX570 que je compte changer pour une GTX770.

Mais j’attends de voir ce que donne les R9 290(X).





vu que tu tape dans de la grosse CG, raison de plus pour changer le CPU pour éviter le gros goulot d’étranglement qu’est ce CPU.









Groumfy a écrit :



Il ne me semble pas, même pour Portal 2.



Tu as un screenshot de hl2.exe sans le petit *32 ?





http://techgage.com/article/half-life_2_64-bit_-_reason_to_get_excited/

(Article de 2005)



Pour le démarrer en mode 64 bits, je crois qu’il faut mettre -64bit comme commande de lancement.









Gilbert_Gosseyn a écrit :



Tiens, j’ignorais ça … Faudrai que je me renseigne davantage … Peut être que la solution des APU d’AMD dans le sportables MSI serai l’avenir ?





Euh de ce que j’ai lu dans des tests, l’AMD FX8350 ( 8 coeurs physiques) est effectivement quasiment aussi performant qu’un i7-3770 ( 4 coeurs physiques ) en applicatif gérant le multicoeurs. En faisant abstraction du prix, cela ne me laisse pas l’impression qu’AMD dépose Intel sur ce terrain, quand on voit qu’il faut 8 coeurs physique pour arriver aux mêmes perf qu’un 4 coeurs physiques chez Intel.



J’insiste bien que je ne fais ma remarque que pour la partie “AMD est plus performant en multithread”. Coté prix, je suis conscient qu’un FX8350 coute 185€, contre 280€ pour le i7-3770.



Dernière chose, en jeux actuellement, le FX8350 est au niveau d’un i3-3240, qui lui coute 125€.










nost4r a écrit :



Et si c’était pour avoir une meilleure qualité que sur console justement ?







On peut modifier les options graphiques sur PC non? Donc pourquoi on pourrait pas avoir le niveau PS360 avec les détails au plus bas (et donc une config modeste) et le “plus beau que sur console” en tapant dans les réglages les plus élevés?



Comme tous les autres jeux j’ai envie de dire… <img data-src=" />



Donc pour arriver à dire qu’on recommande un i7 pour que ça tourne correctement alors que les vieilles consoles peuvent faire tourner le jeu c’est - à mes yeux - le signe d’un portage fait à la va-vite et pas du tout optimisé.







von-block a écrit :



Exemple ?







http://www.generation-nt.com/ubisoft-jeux-pirates-pc-solution-free-to-play-f2p-d…



Un parmi d’autres.









spidy a écrit :



niveau optimisations, ce dont tu parle c’est le minimum syndicale de tout gros projet (pas que JV).



Les vraies optimisations sont au niveau de la conception algorithmique du moteur graphique/physique et de la gestion en mémoire des textures. la grosse différence aussi entre une version console et un portage PC, c’est qu’une console à des specs hardware et software bien définies alors que sur PC il faut savoir gérer toute sorte de config (bas/moyen/haut de gamme) et faire des optimisations là dessus est très difficile.



par contre je te rejoins sur le fait que les futurs portages PS4/Xone vers PC seront “théoriquement” meilleurs que ceux X360-&gt;PC





Je ne dis pas que ce n’est pas utilisé ailleurs, je souhaitais rebondir sur le fait que non, c’est pas codé avec les pieds. <img data-src=" />



Pour le reste, les dev de jeux optimisent leurs moteurs pour les consoles et aussi pour PC. Mais car il y a un mais, comme ce sont les consoles qui rapportent le plus, le focus est mis dessus en priorité je pense. ( je ne veux pas relancer le débat sur le piratage pc hein, mais bon si c’était le pc qui rapportait le plus, les versions PC sortiraient d’abord )









kyhkyh a écrit :



On peut modifier les options graphiques sur PC non? Donc pourquoi on pourrait pas avoir le niveau PS360 avec les détails au plus bas (et donc une config modeste) et le “plus beau que sur console” en tapant dans les réglages les plus élevés?







Ou alors tout simplement que la version PC ne peut pas “s’abaisser” aux versions PS360 ?

S’ils ne l’ont pas prévu à la base c’est peut être justifiable tu ne penses pas ?









kyhkyh a écrit :



Donc pour arriver à dire qu’on recommande un i7 pour que ça tourne correctement alors que les vieilles consoles peuvent faire tourner le jeu c’est - à mes yeux - le signe d’un portage fait à la va-vite et pas du tout optimisé.

.





Si on parle toujours de Watch Dog, je recommande de faire très attention. Actuellement à ma connaissance, personne n’a vu à quoi ressemblait Watch Dog sur PS3-Xbox360, et ce n’est pas bon signe je pense, on peut s’attendre à un rendu moins bon que sur PC et PS4-XboxOne.



On sera fixés lors des release.









Beginner a écrit :



Si on parle toujours de Watch Dog, je recommande de faire très attention. Actuellement à ma connaissance, personne n’a vu à quoi ressemblait Watch Dog sur PS3-Xbox360, et ce n’est pas bon signe je pense, on peut s’attendre à un rendu moins bon que sur PC et PS4-XboxOne.



On sera fixés lors des release.







+1 C’est ce que j’étais en train d’expliquer. si ça se trouve la version PC ne sera pas prévue pour avoir un rendu similaire aux versions PS360.









Séphi a écrit :



Ou alors tout simplement que la version PC ne peut pas “s’abaisser” aux versions PS360 ?

S’ils ne l’ont pas prévu à la base c’est peut être justifiable tu ne penses pas ?







Ca n’est que mon avis mais je pense que ça aurait été justifiable si la majeure partie du parc de machines était équipée d’un i7 de (quasi) dernière génération.



Mais je doute franchement que ca soit le cas! <img data-src=" />



Là c’est un peu une manière de forcer les joueurs PC qui ont une machine d’entrée ou moyen de gamme (ou simplement plus vieille) à envisager de passer sur l’une ou l’autre console next gen pour y jouer décemment.



Je pense notamment à ceux qui ont un portable soi-disant gamer avec un i5 (2 coeurs en mobile…) et une GT640 M, 650 M, etc…



Bon ben j’ai déjà win 7 64bit, pour le reste ça va être sport, vivment noël que je m’offre un proc (mon super méga phenom II 965 fu.. edition risque de galérer) et surement changer mes antiques hd5850 <img data-src=" />

en attendant je pourrais me la jouer avec la casquette de l’edition vigilant <img data-src=" />


Il vas y avoir de la revente en occaz en cette fin d’année<img data-src=" />








djshotam a écrit :



Il vas y avoir de la revente en occaz en cette fin d’année<img data-src=" />







Va falloir que je me trouve un 2600/2700k pour nowël ou que je joue avec le coef du 2500 à priori <img data-src=" />









kyhkyh a écrit :



Ca n’est que mon avis mais je pense que ça aurait été justifiable si la majeure partie du parc de machines était équipée d’un i7 de (quasi) dernière génération.



Mais je doute franchement que ca soit le cas! <img data-src=" />



Là c’est un peu une manière de forcer les joueurs PC qui ont une machine d’entrée ou moyen de gamme (ou simplement plus vieille) à envisager de passer sur l’une ou l’autre console next gen pour y jouer décemment.



Je pense notamment à ceux qui ont un portable soi-disant gamer avec un i5 (2 coeurs en mobile…) et une GT640 M, 650 M, etc…







Ouais pas faux :http://store.steampowered.com/hwsurvey



Cela dit les Quad sont pas loin derrière !



Voila une nouvelle que AMD risque d’apprécier (pour ses proco j’entends).



Car il est vrai que jusqu’ici, quand les jeux exploitaient correctement 2 coeurs, c’était bien. Alors AMD avec ses 8 coeurs…








Séphi a écrit :



Ouais pas faux :http://store.steampowered.com/hwsurvey



Cela dit les Quad sont pas loin derrière !





Tiens après 3 mois de baisse Linux remonte (enfin) un micro peut. ^^



J’ai l’impression que la plupart d’entre vous veulent pouvoir jouer aux derniers jeux avec un pc portable d’il y a trois ans en full details <img data-src=" />.



Ca a toujours été comme ça : quand un nouveau jeu ayant des prétentions graphiques sort, seuls ceux ayant une machine de compèt’ peuvent le faire tourner correctement. Il m’a fallu au moins 4 ans pour pouvoir jouer au premier crysis avec des graphismes décents, je ne vois rien de choquant à ce qu’ils ne s’adaptent pas à ceux ayant des core 2 duo <img data-src=" />.



Quand à BF4, leur but c’est de vendre en masse, s’ils pensaient gagner des ventes comme ça ils auraient diminuer les recommandations par rapport à BF3 <img data-src=" />


Il y a un truc louche qd même avec les supposés GPU des console next-gen, je sais pas si certains d’entre vous ont suivit les dernière infos, mais il semblerait que pas mal de jeux pour le lancement peine à adopter le fameux 1080p@60fps marketing annoncé depuis l’E3, certains jeux seront finalement en 30fps ou en 900p, des trucs du genre, et ça concerne des titres “AAA” fait pour certains d’entre eux par des sociétés qui ont l’habitudes de l’architectures PC, en vrac on peut citer: RYSE, Watchdogs (justement) et KillZone.



Je sais pas si c’est par manque de temps, mais vu la puissance prévue des cartes, ce n’est vraiment pas normal. Une HD 7850 permet de jouer dans de bonne conditions en 1080p, et mêmes des cartes moyen de gammes d’il y a 3ans le permettent sans trop forcer sur les effets.



Tout ça pour dire qu’il y a anguilles sous roche, pas sur que l’on ait les bonnes estimations sur la puissance de ces consoles.<img data-src=" /><img data-src=" />


Un 2500K suffira largement <img data-src=" />








after_burner a écrit :



Il y a un truc louche qd même avec les supposés GPU des console next-gen, je sais pas si certains d’entre vous ont suivit les dernière infos, mais il semblerait que pas mal de jeux pour le lancement peine à adopter le fameux 1080p@60fps





Normal <img data-src=" /> Soit




  1. Il y aura les jeux compatibles current-gen et next-gen.

    Watch Dogs

    Et pour certains si tu as acheté le jeux current-gen, pour 10 €uros tu auras le jeu next-gen



  2. Les jeux pas encore à jour. Call of Duty c’est le vieux moteur aux hormones.

    Le Call of Duty next-gen sera vendu en 2014 (en principe)



    D’ailleurs, il n’y a pas eu des rumeurs comme quoi Watch Dogs ces graphismes sont bofs. Les animations okay. Mais les graphismes bof.



    Sans parler de la répétitivité du titre <img data-src=" />





    Et pour répondre à un premier commentaire

  3. À l’E3 ce sont essentiellement les kits de développement qui ont fait tourner les jeux. les démos.



  4. À la gamescom, pour Microsoft, ce sont les vraies XBox One (du moins des prototypes)



Pour le 64 bit, ce n’était qu’une question de temps. Ce n’est pas parce que les jeux aujourd’hui n’utilise pas plus que 3 GB qu’il n’est pas souhaitable d’en utiliser plus. La plupart des jeux font des pieds et des mains pour justement ne pas prendre plus de mémoire que le mode 32 bit le supporte.



Le 64 bit permettra d’ajouter beaucoup plus d’éléments au environnements. (plus vaste, plus d’objets, plus de texture (si si, elle sont en ram même si elle sont exécuté en mémoire vidéo… et il est plus rapide de les charger de la mémoire vive que du disque…), etc.



Et puis bon, mettons ça au clair. Si vous avez 6 GB de mémoire et que vous utilisez 5.5 GB, je crois que c’est déjà le temps d’en profité pour en mettre plus. La ram le but ce n’est pas de tout l’utiliser mais de toujours avoir une marge. La mémoire inutilisé servira de toute manière de mémoire cache rendant le système plus réactif. Et les effets de manquer de mémoire sont désastreux en terme de performance alors il ne faut jamais en arriver la.



Concernant le multithreading et l’optimisation. Le problème est que plusieurs personne pense qu’il est faisable d’avoir un jeux qui exploitera les 8 cores mais qui pourra rouler pleinement sur 2.



Dans la réalité, les 4 cores se battrons pour les ressources du core et forceront un tas de changement de contexte et de vidage/remplissage des registres/cache. Il est plus efficace si on a 2 core de n’avoir que 2 thread. Mais cela veux dire 2 moteurs qu’il faudra débogué et cie… ce n’est pas une solution envisageable.



Donc, étant donné que les prochaines console seront 8 cores, les jeux ayant besoin de 8 thread vont devenir de plus en plus fréquent et les CPU ne pouvant pas exécuté ce nombre de thread seront très pénalisé malgré leur performance sur 1 ou 2 thread.








240-185 a écrit :



Quad-core MINIMUM !!!???!!!§§§§paragraphe§§§

Quand je pense que les seuls programmes qui faisaient ramer mon i5 Sandy Bridge étaient des démos de Pouet.net :/



Il est où le logo « Stop Surarmement Now » ?







On peut faire ramer n’importe quel PC rien qu’avec une feuille d’Excel tu sais ? <img data-src=" />









Grebz a écrit :



Je suis étonné de vos étonnements. Il y a déjà eu par le passé un certain nombre de jeux qui ramaient sur quasiment tous les PC du moment, même sur les plus grosses configurations. Des jeux auxquels les joueurs n’ont vraiment pu profiter que 2 ou 3 ans après leur sortie, une fois que les CPU et GPU avaient gagné en puissance.

Et bien souvent, la sortie de ces jeux a poussé les joueurs à upgrader leur machine.



Le premier du genre dont je me souviens, ça a été Wing Commander 2, à une époque où les Atari ST et Amiga régnaient en maître dans l’univers du jeu sur ordinateur (je laisse les consoles à part). Et soudain, un jeu PC impressionnait les joueurs au point de les pousser à se poser la question… Vais-je abandonner mon Atarimiga pour un PC ?

Non ! Et puis finalement, si…



Après ça a été les jeux qui étaient tellement plus beaux grâce aux cartes graphiques 3DFX, et puis les premières GeForce…



Et puis des jeux comme Far Cry qui faisaient ramer toutes les machines au moment de sa sortie.

Ou Crysis un peu plus tard…



On pourrait en citer beaucoup mais le “stop surarmement”, on l’entend depuis toujours dans le monde ludique sur PC.

Je ne sais pas si c’est bien ou pas bien, toujours est-il que ça n’a rien de nouveau.



En tout cas, difficile de reprocher aux éditeurs de chercher à pousser nos machines dans leurs derniers retranchements et d’essayer d’utiliser la puissance des derniers processeurs. Quitte à ne pouvoir en profiter que plus tard.







D’ailleurs pour les deux derniers ça a fait pas mal de bruit, mais surtout niveau optimisation. Il y a eu pas mal d’articles concernant le niveau graphique du 2 bien inférieur au 1, ainsi que le 3 n’utilisant pratiquement pas le GPU au profit du CPU, qui était le composant limitant et dont on perdait une grande majorité des FPS.









Zulgrib a écrit :



Et si c’était mal optimisé sur la version console à la base ? :-)





Y’en a des jeux comme ça, comme Mafia 2 sur PS3 sans herbes aucune.



Mais normalement ils s’investissent davantage pour que ça passe, même si tu rognes les sources de lumières, le nombre de polygones affichés, la distance d’affichage, la taille des textures, le nombre de sprites et leur distance d’affichage se limitant à 1m50 (c’est con pour le sniper qui se cache dans l’herbe à 2km qu’on voit camper sur le sol vide), etc. tout simplement parce qu’il y a bien plus d’argent à se faire sur console, et que les éditeurs imposent un cahier des charges et une date de sortie.



dans le principe passer a un os 64bit c est logique, dans la pratique j ai tellement galeré pour faire fonctionner certains périphériques (imprimante et carte TNT notamment) que j ai laissé tomber l aventure et retour au 32…


Le 03/10/2013 à 20h 04

Enfin ces saloperies de consoles arrêtent de brider les jeux ? <img data-src=" />



Ceci dit ça reste une config relativement faible pour l’instant, et comme ces consoles (pas encore sorties) risquent de durer longtemps, on est tranquilles pour un bon moment.








Beginner a écrit :



Euh de ce que j’ai lu dans des tests, l’AMD FX8350 ( 8 coeurs physiques) est effectivement quasiment aussi performant qu’un i7-3770 ( 4 coeurs physiques ) en applicatif gérant le multicoeurs. En faisant abstraction du prix, cela ne me laisse pas l’impression qu’AMD dépose Intel sur ce terrain, quand on voit qu’il faut 8 coeurs physique pour arriver aux mêmes perf qu’un 4 coeurs physiques chez Intel.



J’insiste bien que je ne fais ma remarque que pour la partie “AMD est plus performant en multithread”. Coté prix, je suis conscient qu’un FX8350 coute 185€, contre 280€ pour le i7-3770.



Dernière chose, en jeux actuellement, le FX8350 est au niveau d’un i3-3240, qui lui coute 125€.





Raté, le FX8350 est un quad core physique. Les commerciaux aiment bien parlé de 8 coeurs mais c’est totalement faux, un coeurs c’est un module complet, modulu qui gère deux thread par contre.





Vu qu’aun éditeur veut normalment que son jeu puisse tourner sur un max de pc je pense qu’ici Ubi a fait un portage à la va vite pas du tout optimisé pour contenter les gros joueurs pc fortuné.









FREDOM1989 a écrit :



Raté, le FX8350 est un quad core physique. Les commerciaux aiment bien parlé de 8 coeurs mais c’est totalement faux, un coeurs c’est un module complet, modulu qui gère deux thread par contre.





Vu qu’aun éditeur veut normalment que son jeu puisse tourner sur un max de pc je pense qu’ici Ubi a fait un portage à la va vite pas du tout optimisé pour contenter les gros joueurs pc fortuné.







Techniquement, il y a 8 Alu et 4 FPU “Double” (qui sont partager entre chaque core, mais qui peuvent être indépendante)



Ce n’est pas vrai de dire que ce n’est qu’un 4 core puisqu’on peut y envoyé en parallèle 8 thread d’ALU, et 8 thread FPU et chacun aura son unité de calcul physique propre.



C’est la gestion de la FPU qui mélange un peu tout le monde, et les performance final du CPU face à un Phenom par exemple. La FPU de 256 bit peux fonctionner en mode 1x256 bit partagé entre les 2 core ou 2x128 bit dédié à chaque core.



Au final c’est bien un 8 core qui a des performance d’un 4 core dans bien des situation. Mais lorsque le multithread embarque, ils se comporte mieux que les 4 cores.



Si un Atom dualcore a les performance d’un seul core de Core i3, est-ce qu’on dit que c’est un faux dualcore? non. Même chose pour les AMD FXxxxx.



Au final, les 8 core des FX se comporteront mieux probablement qu’un Quadcore phenom.



J’en suis sûr que les gens ont râlé. Les même qui se plaignaient du fait que l’industrie du jeu ne passait pas de manière effective au multi-threading et au 64bits. <img data-src=" />


Watch Dogs’ Tech Director – PC Specs Not Official, To Be Revealed Soon, Lower Than Previous



http://www.dsogaming.com/news/ubisofts-tech-director-watch-dogs-pc-specs-not-off…








FREDOM1989 a écrit :



Raté, le FX8350 est un quad core physique. Les commerciaux aiment bien parlé de 8 coeurs mais c’est totalement faux, un coeurs c’est un module complet, modulu qui gère deux thread par contre.





Vu qu’aun éditeur veut normalment que son jeu puisse tourner sur un max de pc je pense qu’ici Ubi a fait un portage à la va vite pas du tout optimisé pour contenter les gros joueurs pc fortuné.





Non c’est bien 8 cœurs comme te le dit Punkenjoy.



D’ailleurs on se contrefout totalement de la question du nombre de cœurs pour un processeur central, comme la course au Mhz, c’est l’architecture générale qui compte : vous oubliez bien vite le CPI, la BP mémoire (cache), les pipelines, le SIMD/MIMD… etc.



C’est bien beau d’avoir un processeur multi-cœeur, mais vous êtes vous demandé comment ceux-ci partagent-ils les données entre eux par exemple ?









smnr a écrit :



D’ailleurs on se contrefout totalement de la question du nombre de cœurs pour un processeur central, comme la course au Mhz, c’est l’architecture générale qui compte : vous oubliez bien vite le CPI, la BP mémoire (cache), les pipelines, le SIMD/MIMD… etc.





Le x86 est justement devenu une “grosse” soupe afin de grappiller des cycles par ci par là <img data-src=" />




  1. C’est un mélange RISC/ CISC, mais il a toujours que très peu de registres

  2. Le contrôleur mémoire est intégré. Et avec le triple/ quad channel la latence mémoire a augmenté

  3. Le pipeline peut exécuté 2 tâches en même temps

  4. Le northbridge n’existe plus

  5. Le rôle du cache L1 a un rôle très spécifique

  6. Le multi-core je pense, est une solution pas chère face au SMP







    smnr a écrit :



    C’est bien beau d’avoir un processeur multi-cœeur, mais vous êtes vous demandé comment ceux-ci partagent-ils les données entre eux par exemple ?





    Exclusif chez Intel et inclusif chez AMD <img data-src=" />



Attention, je ne dis pas que le multi-core est inutile <img data-src=" />



Je dis juste que la majorité se trompe de mesure. Si j’ai un monocoeur cadencé à 100GHz avec un CPI très faible et des latences pas trop mauvaises je vous poutre vos processeurs actuels, un viol même ! (avec des programmes adaptés)









foetus a écrit :



Exclusif chez Intel et inclusif chez AMD <img data-src=" />





Ma question était plutôt : quel est le coût de ce partage/d’un switch ? <img data-src=" />









smnr a écrit :



Non c’est bien 8 cœurs comme te le dit Punkenjoy.



D’ailleurs on se contrefout totalement de la question du nombre de cœurs pour un processeur central, comme la course au Mhz, c’est l’architecture générale qui compte : vous oubliez bien vite le CPI, la BP mémoire (cache), les pipelines, le SIMD/MIMD… etc.



C’est bien beau d’avoir un processeur multi-cœeur, mais vous êtes vous demandé comment ceux-ci partagent-ils les données entre eux par exemple ?





Non c’est un 4 coeur parce que autant au module peut être qualifié de coeur au sens classique du terme vu ce qu’il embarque autant ce n’est absolument pas le cas pour un “coeur” d’un module. D’ailleurs on peut désactiver un module mais pas un “coeur”.



Canard PC a parlé il y a un ou deux numéro de cette supercherie marketing et avait souligné que dans la doc technique là AMD était sérieux et ne parlais pas de 8 coeurs.



La question n’est pas est-ce qu’est vraiment 4 coeurs traditionnel ou 8 coeurs CMT de toute manière. Au final, la question ici est à savoir si les 8 thread du jeux profiteront des 8 coeur CMT des FX et la réponse est oui parce qu’ils y aura 8 unités d’instructions derrière.



L’hyperthreading dans une moindre mesure, en profitera aussi, les 2600k par exemple pourront se servir des temps morts dans le pipeline pour exécuté les autres thread avec moins de latence.



Cependant, la solution d’AMD sera celle qui verra le gain le plus important. Va t’elle être la plus performante ? il faudra voir.





Mais un module est plus qu’un coeur traditionnel, mais moins que 2 cores. Cependant il est plus proche de 2 cores au sens technique que d’un seul core avec hyperthreading. Et ça sera encore plus vrai avec les steamroller qui donnera des decoder INT dédié à chaque core.



En gros le vrai core traditionnel avait en gros tout ses éléments :



Instruction fetch

Instruction Decoder

Scheduler INT et FPU

INT and FPU execution

L1 Cache

L2 Cache



Dans certains CPU, le cache L2 est partagé, déjà la on perd un peu la notion de “core” puisqu’on ne peut plus désactivé l’autre “normalement” (Contrairement à ce que tu dis, les 2ième core d’un module peuvent être désactivé, mais qui désactive un core. Le fabriquant vendra les modules complet comme ceux vendant des cpu avec cache L2 partagé vendra les cpu dont les 2 coeurs sont actif.)



Schéma démontrant ce qui est partagé et ce qui ne l’est pas sur le Bulldozer (FX actuel) et ce qui le sera sur les futurs FX



La partie Singlethread profitera des 8 thread du jeux et il serait étonnant que le jeux fassent ses calculs en 256 bits, donc la FPU pourra fonctionner en 2 x 128 bit.


pour du gros graphics il faut un gros GPU/CPU


l’avantage de machine proche du pc c’est que les jeux seront de plus en plus optimiser…



Et ça c’est une nouveauté ça fait un bail que les éditeurs n’optimise plus leur jeux








burnout62 a écrit :



Watch Dogs’ Tech Director – PC Specs Not Official, To Be Revealed Soon, Lower Than Previous



http://www.dsogaming.com/news/ubisofts-tech-director-watch-dogs-pc-specs-not-off…







https://twitter.com/SebViard/status/385815285116063744



Et pendant ce temps sur la fiche produit…. :

http://shop.ubi.com/store/ubiemea/fr_FR/pd/ThemeID.8605700/productID.288216200/W… (clic sur “lire la suite” tout en bas)



<img data-src=" />









Punkenjoy a écrit :



La question n’est pas est-ce qu’est vraiment 4 coeurs traditionnel ou 8 coeurs CMT de toute manière. Au final, la question ici est à savoir si les 8 thread du jeux profiteront des 8 coeur CMT des FX et la réponse est oui parce qu’ils y aura 8 unités d’instructions derrière.



L’hyperthreading dans une moindre mesure, en profitera aussi, les 2600k par exemple pourront se servir des temps morts dans le pipeline pour exécuté les autres thread avec moins de latence.



Cependant, la solution d’AMD sera celle qui verra le gain le plus important. Va t’elle être la plus performante ? il faudra voir.





Mais un module est plus qu’un coeur traditionnel, mais moins que 2 cores. Cependant il est plus proche de 2 cores au sens technique que d’un seul core avec hyperthreading. Et ça sera encore plus vrai avec les steamroller qui donnera des decoder INT dédié à chaque core.



En gros le vrai core traditionnel avait en gros tout ses éléments :



Instruction fetch

Instruction Decoder

Scheduler INT et FPU

INT and FPU execution

L1 Cache

L2 Cache



Dans certains CPU, le cache L2 est partagé, déjà la on perd un peu la notion de “core” puisqu’on ne peut plus désactivé l’autre “normalement” (Contrairement à ce que tu dis, les 2ième core d’un module peuvent être désactivé, mais qui désactive un core. Le fabriquant vendra les modules complet comme ceux vendant des cpu avec cache L2 partagé vendra les cpu dont les 2 coeurs sont actif.)



Schéma démontrant ce qui est partagé et ce qui ne l’est pas sur le Bulldozer (FX actuel) et ce qui le sera sur les futurs FX



La partie Singlethread profitera des 8 thread du jeux et il serait étonnant que le jeux fassent ses calculs en 256 bits, donc la FPU pourra fonctionner en 2 x 128 bit.





C’est intéressant tout ça, on a une idée pour quand ces Steamroller sont prévus?



Pour info: Nvidia et Ubisoft avait annoncé un partenariat pour que la qualité des portages PC soient au rendez vous …



Peut être que c’est le résultat du début de leur collaboration ?


C’est pour ne pas trop faire fuir le client. :p


Le code ne doit pas être optimisé pour avoir besoin d’autant de puissance CPU.

Le graphisme non plus pour demander autant de puissance GPU.



Ils doivent utiliser des grosses boucles inutiles, des textures non cropé, etc.








hop45 a écrit :



en meme temps, ils demandent 4Go mini et 8Go…



adieu de facto au 32bit…







PAE, ça dit quelque chose ?









Beginner a écrit :



Je pense que vous n’avez aucune idée de ce que représente le développement de ces grosses productions. Les équipes cherchent bien à optimiser un maximum le code, et utilisent par exemple des outils d’analyse de code, pour chasser les erreurs, les codes pas conformes à des standards définis par les dev, etc.



A un moment il n’y a pas de secrets, il y a des limites à l’optimisation, on ne peut pas avoir des jeux de plus en plus beaux avec une meilleure expérience de jeu, sans changer les specs hardware qui sont nécessaires.



En ce qui concerne la question du portage, j’ai un avis différent du votre. Je pense que c’est justement parce que le hardware des xboxOne et PS4 sont de type “PC” que l’on devrait avoir des portages de bonne qualité. En tout cas, pour un ou deux ans, ensuite on sait que le hardware PC sera bien plus performant que celui des consoles, et on se retrouvera dans la même situation que ce que nous avons actuellement sur PS3 et Xbox360.



<img data-src=" />







C’est un peu mon boulot en fait et non, faire tourner un soft sur une plateforme ne veut pas dire que ce sera facile de le porter sur une plateforme grossièrement similaire.

Si ca tourne sur une console next-gen et que ca en chie sur pc c’est que c’est codé à l’arrache avec une seule plateforme en tête et des methodes bien specifiques au système d’origine.



Théoriquement nos pc de course actuels sont bien plus puissants que n’importe quelle console, malgré le bridage OS. je l’ai lu dans les commentaires au dessus, tout est une question d’algorithmie et ca sent la méthode standard de dev bourrin dite du “ifos” (if OS).






CPU 8 Cœurs ça existe ça ! <img data-src=" /> (pour le commun des mortels)

J’ai un i7 4770K il à 4 cœurs (8 threat.) mais pas 8 coeurs !








Beginner a écrit :



Je ne dis pas que ce n’est pas utilisé ailleurs, je souhaitais rebondir sur le fait que non, c’est pas codé avec les pieds. <img data-src=" />



Pour le reste, les dev de jeux optimisent leurs moteurs pour les consoles et aussi pour PC. Mais car il y a un mais, comme ce sont les consoles qui rapportent le plus, le focus est mis dessus en priorité je pense. ( je ne veux pas relancer le débat sur le piratage pc hein, mais bon si c’était le pc qui rapportait le plus, les versions PC sortiraient d’abord )





Ubi fait de bons portages je trouve (splinter cell, AC, FC3 par exemple) par contre EA c’est pas encore ça (limitation à 30fps sur les NFS, pas d’options d’anti-aliasing, etc…)



le PC est doublement pénalisé : cout de développement plus élevé + piratage plus important <img data-src=" />









boglob a écrit :



PAE, ça dit quelque chose ?







fin PAe c’est mignon mais ca ne permet pas vraiment d’avoir tous tes go. Et sérieusement les gens qui trainent encore des os 32 bits et cherchent à mettre un jeu en performance maximal sont des idiots…



Si tu veux les perfs maxi sur un jeu tu passes sur un os 64 bits pour profiter de canaux bien dimensionnés…









boglob a écrit :



PAE, ça dit quelque chose ?





Ca change pas la limite à 4Go par process (moins tout le reste, donc 3Go max pour l’appli).



n’importe quoi cet config recommandé le jeux ne vaut pas un bf3 graphiquement faut pas poussé ; encore un jeux optimisé avec les pieds








Neeko a écrit :



Le jeu demande la même config sur PC que sur console (8 coeurs et 7850), donc portage dégueulasse. Il se passe quoi dans ta tête ?





Il ne demande pas 8 cœurs, vu que la config minimum est à base de Intel Core 2 Quad Q6600, qui n’est pas hyperthreadé. On se renseigne avant d’essayer de descendre les autres agressivement.

Ensuite, contrairement aux consoles, tu peux tweaker les paramètres sur un PC, donc demander un quadcore hyperthreadé (et pas un petit en plus) en config recommandée, c’est abusé. Mais à priori ils se sont rétractés et vont proposer moins puissant, ce qui confirme le caractère abusé de ce qui était demandé.









GoldenTribal a écrit :



Il me semble que les fameuses démos des salons de jeux tournaient sur PC, non ?





Il me semble aussi, c’était de gros PC d’ailleurs si je me souviens (on discernait une Titan dans les machines je crois).

Double post btw <img data-src=" />



Les joueurs PC vont encore plus pouvoir jouer à kicékalaplusgrosse :)



Et après ça, ils osent se moquer des joueurs console ? <img data-src=" />


Aprés l’épisode PS4/X1, Microsoft a aussi payer pour faire passer watch Dog sur XP <img data-src=" />








stunt a écrit :



Les joueurs PC vont encore plus pouvoir jouer à kicékalaplusgrosse :)



Et après ça, ils osent se moquer des joueurs console ? <img data-src=" />







Tu sais c’est aussi stupide que les consoleux qui crachent sur les PC. On a des élitistes des 2 côtés.





Bon sinon, concernant watch dogs, ça sent la mauvaise opti.









escaflowne a écrit :



CPU 8 Cœurs ça existe ça ! <img data-src=" /> (pour le commun des mortels)

J’ai un i7 4770K il à 4 cœurs (8 threat.) mais pas 8 coeurs !







Et bien ton CPU vaut 2x plus cher qu’un FX 8150 qui possède en effet 8 coeurs. Donc oui ça existe, du moins pour ceux qui ne s’arrêtent pas à lire les conseils des fanboys :)



NB: je suis un fanboy Intel en i5 2500K mais j’espère vivement qu’AMD remonte la pente <img data-src=" />









NonO51 a écrit :



Et bien ton CPU vaut 2x plus cher qu’un FX 8150 qui possède en effet 8 coeurs. Donc oui ça existe, du moins pour ceux qui ne s’arrêtent pas à lire les conseils des fanboys :)



NB: je suis un fanboy Intel en i5 2500K mais j’espère vivement qu’AMD remonte la pente <img data-src=" />





Je suis un fanboy AMD mais ils vont dans le mur, je vois bien leur failiite d’ici deux ans.



Aucun APU ou CPU n’est très intéressant à cause de la conso qui fait grimper le prix à l’usage et empêche AMD de vendre des processeur pour notebook ou tablette. Reste quelques usages bien spécifique où ces CPU sont intéressant mais de toute manière ça se vend pas. Pour le monde serveur, on prend un société stable qui donne l’impression d’être en bon état et AMD c’est pas son cas avec ces CPU qui sortent rarement et qui souffrent de beaucoup de défauts.



Niveau GPU, presque personne n’en veut dans les notebook en partie à cause d’Enduro. Reste à AMD les GPU desktop mais le marché est trop petit.









FREDOM1989 a écrit :



Reste à AMD les GPU desktop mais le marché est trop petit.





Et la prochaine génération de consoles <img data-src=" />









ActionFighter a écrit :



Et la prochaine génération de consoles <img data-src=" />





Ce qui rapporte peau de zob. Nvidia ment en dissant que le marché ne les intéressait pas mais il est vrai que c’est marché peu intéressant vu les marges.



La nouvelle API d’AMD est intéressante mais comme c’est AMD faut pas se leurrer personne n’en voudra soit parce que ça marchera pas bien (AMD et le software c’est toujours la misère) ou simplement parce que AMD est d’une nullité incroyable pour vendre ses produits même quand ils sont bon.









FREDOM1989 a écrit :



Je suis un fanboy AMD mais ils vont dans le mur, je vois bien leur failiite d’ici deux ans.



Aucun APU ou CPU n’est très intéressant à cause de la conso qui fait grimper le prix à l’usage et empêche AMD de vendre des processeur pour notebook ou tablette. Reste quelques usages bien spécifique où ces CPU sont intéressant mais de toute manière ça se vend pas. Pour le monde serveur, on prend un société stable qui donne l’impression d’être en bon état et AMD c’est pas son cas avec ces CPU qui sortent rarement et qui souffrent de beaucoup de défauts.



Niveau GPU, presque personne n’en veut dans les notebook en partie à cause d’Enduro. Reste à AMD les GPU desktop mais le marché est trop petit.







  1. Ils restent largement dans la course, pour ne pas dire leaders, dans les GPU dédiés.

  2. Il faut voir sur le long terme : si à travers la nouvelle générations, ils habituent l’industrie à utiliser LEUR API, à optimiser pour LEURS CPU/GPU/APU, et que les nouvelles générations sont populaires, d’ici 3-4 ans ils occuperont la place qu’a longtemps occupé nVidia, celle de partenaire privilégié des éditeurs.



    Après, pour le seul côté CPU, si le haut de gamme reste à l’avantage d’intel grâce au ratio perfs/conso, je regrette qu’il y ait à ce point une omerta sur les CPU AMD pour le bas/moyenne gamme. Par exemple les configs CanardPC, où le premier prix ils mettent un dual-core Intel “tout pourri” (entre guillemets parce que bon le bas de gamme aujourd’hui suffit à beaucoup de choses), alors que pour le même prix ils pourraient conseiller un AMD quad-core ou plus, largement plus pérenne comme la présente news le montre.



    Enfin, n’oublions pas qu’une situation de monopole est inenvisageable, raison pour laquelle dans le pire des cas AMD sera aidé.









Citan666 a écrit :



Enfin, n’oublions pas qu’une situation de monopole est inenvisageable, raison pour laquelle dans le pire des cas AMD sera aidé.





J’ai un doute là dessus, car au final le plus gros revendeur de GPU est à ma connaissance Intel, via ses chipsets dédiés, et du coup il n’y aurait pas de monopole de Nvidia, au sens strict non?









boglob a écrit :



PAE, ça dit quelque chose ?





c’est de la bidouille qui est en plus pas forcément bien appréciée des applications…

passer au 64 bit est quand même plus simple à mettre en œuvre et surement moins source de problème avec WoW (pas le jeu!)









Citan666 a écrit :





  1. Ils restent largement dans la course, pour ne pas dire leaders, dans les GPU dédiés.



    1. Il faut voir sur le long terme : si à travers la nouvelle générations, ils habituent l’industrie à utiliser LEUR API, à optimiser pour LEURS CPU/GPU/APU, et que les nouvelles générations sont populaires, d’ici 3-4 ans ils occuperont la place qu’a longtemps occupé nVidia, celle de partenaire privilégié des éditeurs.



      Après, pour le seul côté CPU, si le haut de gamme reste à l’avantage d’intel grâce au ratio perfs/conso, je regrette qu’il y ait à ce point une omerta sur les CPU AMD pour le bas/moyenne gamme. Par exemple les configs CanardPC, où le premier prix ils mettent un dual-core Intel “tout pourri” (entre guillemets parce que bon le bas de gamme aujourd’hui suffit à beaucoup de choses), alors que pour le même prix ils pourraient conseiller un AMD quad-core ou plus, largement plus pérenne comme la présente news le montre.



      Enfin, n’oublions pas qu’une situation de monopole est inenvisageable, raison pour laquelle dans le pire des cas AMD sera aidé.





      1.) Non parce qu’ils ne vende presque pas de GPU mobile, marché très important pour les GPU dédié. Niveau carte graphique c’est kif kif entre AMD et Nvidia.



      2.)Le long terme? Comme avec buldozzer? Ca a bien réussit à AMD, les CPU sont des fours et la première génération a provoqué une chute incroyable des vente d’AMD, heureusement que Bobcat a un peu sauvé l’affaire.



      Un G3220 bouffent les CPU AMD au même prix et consomme bien moins.



      Personne n’aura de monopole en cas de faillite d’AMD donc personne n’aidera AMD et même si c’était le cas personne ne l’aiderais. Un monopole obtenu via un rachat est interdit mais si le concurrent meurt et bien l’entreprise qui reste n’a aucun problème.




AMD aussi performant qu’intel en multi thread faut arrêter de rever, même en multi taches ils se font secouer les rouges.



Et puis maintenant j’ai remarqué surtout sur les jeux limités par les CPU (tels que la série ARMA ou FSX) que les intel se comportent beaucoup mieux.

Notamment sur la bande passante entre les coeurs et la mémoire.

Il n’y a cas voir la différence entre un 2600k et 4770k on gagne 15 à 25% de fps sur ARMA III et sur beaucoup d’autres jeux , à part 200Mhz de plus , c’est surtout cette fluidité dans l’échange de données qui fait l’avantage de intel depuis l’apparition des dual-core.



Si quelqu’un peut apporter de réelles explications techniques à ce que j’avance ça serait top parce que je suis pas du tout un spécialiste.








Beginner a écrit :



J’ai un doute là dessus, car au final le plus gros revendeur de GPU est à ma connaissance Intel, via ses chipsets dédiés, et du coup il n’y aurait pas de monopole de Nvidia, au sens strict non?





Ah… En fait je pensais plutôt au monopole d’Intel sur les processeurs, qu’à nVidia sur les GPU…<img data-src=" />









FREDOM1989 a écrit :



1.) Non parce qu’ils ne vende presque pas de GPU mobile, marché très important pour les GPU dédié. Niveau carte graphique c’est kif kif entre AMD et Nvidia.



2.)Le long terme? Comme avec buldozzer? Ca a bien réussit à AMD, les CPU sont des fours et la première génération a provoqué une chute incroyable des vente d’AMD, heureusement que Bobcat a un peu sauvé l’affaire.



Un G3220 bouffent les CPU AMD au même prix et consomme bien moins.



Personne n’aura de monopole en cas de faillite d’AMD donc personne n’aidera AMD et même si c’était le cas personne ne l’aiderais. Un monopole obtenu via un rachat est interdit mais si le concurrent meurt et bien l’entreprise qui reste n’a aucun problème.







  1. Je parlais pas en termes de marchés, où de toute façon ils sont baisés depuis l’époque où Intel avait ruiné leur avantage technique par des manoeuvres anti-concurentielles. Je parlais en termes de performances brutes, sur le bas/moyenne gamme, qui suffit à 99% des péquins moyens, y compris les joueurs.



  2. En même temps ils ont amorcé un changement majeur dans la conception de leur CPU ce qui en soi demande déjà beaucoup de temps. Si on y rajoute leurs difficultés de réduction du die, les divers départs de gens haut placés, pendant qu’Intel franchissait le cap tranquillement… Il est normal et logique qu’ils n’arrivent pas réellement à prendre des parts. Attendons de voir ce que donnera un comparatif entre processeurs gravés à la même finesse… Si, à finesse égale, chaque processeur est testé sur des applis qui sont compilées chacune en tenant compte des optimisations spécifiques à chaque processeur, et que AMD se fait encore enfoncer, bah ça signifiera sans contestation possible qu’ils ont fait un mauvais choix d’architecture. On en est loin pour l’instant…



  3. Intel aura le monopole des processeurs x86. Au-delà du fait qu’AMD représente tout de même des milliers d’emploi, ce qui implique qu’une faillite “définitive” ferait bien chier les US, c’est une bonne raison de préserver un semblant de concurrence.



    EDIT : Je suis preneur de plusieurs sources pour ce que tu affirmes de manière si péremptoire.









fada131 a écrit :



AMD aussi performant qu’intel en multi thread faut arrêter de rever, même en multi taches ils se font secouer les rouges.



Et puis maintenant j’ai remarqué surtout sur les jeux limités par les CPU (tels que la série ARMA ou FSX) que les intel se comportent beaucoup mieux.

Notamment sur la bande passante entre les coeurs et la mémoire.

Il n’y a cas voir la différence entre un 2600k et 4770k on gagne 15 à 25% de fps sur ARMA III et sur beaucoup d’autres jeux , à part 200Mhz de plus , c’est surtout cette fluidité dans l’échange de données qui fait l’avantage de intel depuis l’apparition des dual-core.



Si quelqu’un peut apporter de réelles explications techniques à ce que j’avance ça serait top parce que je suis pas du tout un spécialiste.





Le FX 8350 n’a rien à envier à ce qui est au même prix chez Intel pour ce qui des application bien multi threadée, ils est même largement meilleurs. Mais la consommation est abusive et le tiket d’entré pour une carte mère AM3+ qui gèrent son TDP est plus chers que pour une carte basique gérant un i5.









Citan666 a écrit :





  1. Je parlais pas en termes de marchés, où de toute façon ils sont baisés depuis l’époque où Intel avait ruiné leur avantage technique par des manoeuvres anti-concurentielles. Je parlais en termes de performances brutes, sur le bas/moyenne gamme, qui suffit à 99% des péquins moyens, y compris les joueurs.



    1. En même temps ils ont amorcé un changement majeur dans la conception de leur CPU ce qui en soi demande déjà beaucoup de temps. Si on y rajoute leurs difficultés de réduction du die, les divers départs de gens haut placés, pendant qu’Intel franchissait le cap tranquillement… Il est normal et logique qu’ils n’arrivent pas réellement à prendre des parts. Attendons de voir ce que donnera un comparatif entre processeurs gravés à la même finesse…

    2. Intel aura le monopole des processeurs x86. Au-delà du fait qu’AMD représente tout de même des milliers d’emploi, ce qui implique qu’une faillite “définitive” ferait bien chier les US, c’est une bonne raison de préserver un semblant de concurrence.





      Même en terme de perf l’entrée de gamme AMD est rarement intéressant, la faute à une consommation trop importante. A prix égale l’AMD sera un peu moins chers la différence de conso fera que peu importe l’usage Intel est moins chers au long terme.



    3. Ils ont carrément perdu des part et c’est logique buldo a été une régression en terme de performance, des Phenom II gravé en 32nm aurait été plus efficace niveau perf/wat et une phenom II X8 aurait sans aucun doute moins consommé qu’un FX 8150 en le mettant minable niveau perf. AMD aurait du continué encore une gen avec l’archi des phenom II et garder buldo en dev dans leurs labo.



    4. Le x86 n’a pas de monopole surtout aujourd’hui avec ARM qui monte. Pour les emplois, Intel vendra plus et aura donc besoin de plus de personnel, idem chez Nvidia.










FREDOM1989 a écrit :



Même en terme de perf l’entrée de gamme AMD est rarement intéressant, la faute à une consommation trop importante. A prix égale l’AMD sera un peu moins chers la différence de conso fera que peu importe l’usage Intel est moins chers au long terme.





  1. Ils ont carrément perdu des part et c’est logique buldo a été une régression en terme de performance, des Phenom II gravé en 32nm aurait été plus efficace niveau perf/wat et une phenom II X8 aurait sans aucun doute moins consommé qu’un FX 8150 en le mettant minable niveau perf. AMD aurait du continué encore une gen avec l’archi des phenom II et garder buldo en dev dans leurs labo.



  2. Le x86 n’a pas de monopole surtout aujourd’hui avec ARM qui monte. Pour les emplois, Intel vendra plus et aura donc besoin de plus de personnel, idem chez Nvidia.







    j’ai remarqué ça sur récemment entre AMD/Intel sur les processeurs, ça ma un peu dégouté car j’ai toujours tourné sous AMD, mon actuel est le X4 965 , mais ça me dérange de devoir changer de CM ( qui m’a couté assez cher ) pour passer à AMD, autant mettre le prix sur un des meilleurs AMD ^^’



    Le TDP est aussi hallucinant :s le mien monte à 135watt max en TDP bon pour le moment je vérifie un peu ma conso sur le pc en jeu je suis autour de 200-250



ça sent le jeu aussi optimisé que FS X au niveau du cpu!


il me semble que





FREDOM1989 a écrit :



Le FX 8350 n’a rien à envier à ce qui est au même prix chez Intel pour ce qui des application bien multi threadée, ils est même largement meilleurs. Mais la consommation est abusive et le tiket d’entré pour une carte mère AM3+ qui gèrent son TDP est plus chers que pour une carte basique gérant un i5.







Ben ecoute je veux bien voir des benchmarks.

Pour l’instant les i7 sont loins devantsur ce que j’ai vu.









escaflowne a écrit :



CPU 8 Cœurs ça existe ça ! <img data-src=" /> (pour le commun des mortels)

J’ai un i7 4770K il à 4 cœurs (8 threat.) mais pas 8 coeurs !





si tu va tu verra tous les octocore que je “peux” mettre dans ma tour! <img data-src=" />

(bon après il faut que je vende mes gosses, mais j’en ai pas! <img data-src=" /> )



Le problème vient surtout de la main-mise de certains éditeurs/fabricants sur le marché. 99% des jeux sont optimiés Intel/nVidia ! Quand on fait une optimisation AMD (genre le dernier Tomb Raider), on découvre que les CPU/GPU AMD sont tout aussi puissants que ceux des concurrents !



J’espère que Mantle va marché, que le marché se rééquilibre un peu !



D’ailleurs, essayez d’imaginer ce que serait un CPU AMD gravé avec la finesse des Intel… Je pense qu’Intel prendrait une sacrée baffe !








geekounet85 a écrit :



si tu va tu verra tous les octocore que je “peux” mettre dans ma tour! <img data-src=" />

(bon après il faut que je vende mes gosses, mais j’en ai pas! <img data-src=" /> )





Le Xeon E5-4650 à plus de 3.5K€, ça fait mal <img data-src=" />









Edtech a écrit :



Le problème vient surtout de la main-mise de certains éditeurs/fabricants sur le marché. 99% des jeux sont optimiés Intel/nVidia ! Quand on fait une optimisation AMD (genre le dernier Tomb Raider), on découvre que les CPU/GPU AMD sont tout aussi puissants que ceux des concurrents !



J’espère que Mantle va marché, que le marché se rééquilibre un peu !



D’ailleurs, essayez d’imaginer ce que serait un CPU AMD gravé avec la finesse des Intel… Je pense qu’Intel prendrait une sacrée baffe !





je viens de regarder les différences de prix d’achat entre les deux marques et c’est violent! à chaque fois, c’est plus du double! et les deux sont en 32nm! à part les différences de tailles de cache, sur le papier ils sont équivalent (le TDP est un peu différent, mais pas toujours en faveur d’Intel, notamment sur le socket 2011, pour avoir des procos 4 core avec des fréquences élevées)









fada131 a écrit :



il me semble que



Ben ecoute je veux bien voir des benchmarks.

Pour l’instant les i7 sont loins devantsur ce que j’ai vu.





Ben écoute je veux bien voir un i7 au prix du FX 8350…









smnr a écrit :



Attention, je ne dis pas que le multi-core est inutile <img data-src=" />



Je dis juste que la majorité se trompe de mesure. Si j’ai un monocoeur cadencé à 100GHz avec un CPI très faible et des latences pas trop mauvaises je vous poutre vos processeurs actuels, un viol même ! (avec des programmes adaptés)







Les commerciaux du service marketing sont passés par là, pour le grand public, mono-core = mono-tâche, multi-core = multi-tâche \o/



<img data-src=" />



ah mais tout dépend ce que tu cherches ^^, moi mon 3750k fait aussi bien donc ça me va. Et c’est pas pour les deux fois ou je dois attendre 2 min de plus qu’un FX8350 quand je compresse un fichier qui vont me faire changer d’avis. Je suis à 90% sur du gaming et Intel y a pas photo c’est mieux. En plus les AMD faut prévoir une alimentation plus elevée, une bonne CM… Avec mon sli passer d’une 700W a une 800 ça me coute la différence de prix entre les CPU donc franchement…. Et même pour du lightroom (je suis photographe) il se comporte aussi bien.

Franchement AMD en ce moment ça donne pas envie d’y aller à moins d’être serré niveau budget.

Il est loin le temps des Athlon 32 et 64 et des radeon X800 et X1950…. (et oui avant j’étais chez la concurrence)








fada131 a écrit :



ah mais tout dépend ce que tu cherches ^^, moi mon 3750k fait aussi bien donc ça me va. Et c’est pas pour les deux fois ou je dois attendre 2 min de plus qu’un FX8350 quand je compresse un fichier qui vont me faire changer d’avis. Je suis à 90% sur du gaming et Intel y a pas photo c’est mieux. En plus les AMD faut prévoir une alimentation plus elevée, une bonne CM… Avec mon sli passer d’une 700W a une 800 ça me coute la différence de prix entre les CPU donc franchement…. Et même pour du lightroom (je suis photographe) il se comporte aussi bien.

Franchement AMD en ce moment ça donne pas envie d’y aller à moins d’être serré niveau budget.

Il est loin le temps des Athlon 32 et 64 et des radeon X800 et X1950…. (et oui avant j’étais chez la concurrence)





Niveau GPU, les Radeon HD 4000 était les meilleurs, les 5000 ridiculaisait Nvidia, les 6000 dominaient et les 7000 ont dominées jusqu’à l’arrivé des gtx 600. Ca ne fait que 69 mois que Nvidia est globalement nettement meilleurs niveau perf/prix.



Pour les CPU, les phénom II X4 étaient excellent.



Le retour du Core 2 Duo \o/


D’ailleurs j’ai pas tout suivant sur ce jeu, c’est un TPS ou un FPS ?








Pochi a écrit :



D’ailleurs j’ai pas tout suivant sur ce jeu, c’est un TPS ou un FPS ?







Un TPS en monde ouvert, comme GTA



avec mon ordinateur portable datant de 6 ans, j’oublie…



Je vais ressortir STALKER…


Il faudra que j’empreinte les machines de calcul de mon boulot….

Du double XEON E5645…


Il à pas l’air beaucoup plus beau que Tomb Raider, qui pourtant, est déjà très jolie.



Sa sens le jeu très mal optimisé est bourré de technologie inutiles/gourmandes.



Sa me ferrais mal au fion que ma 780 et mon 4670 soit déjà à fond de cale même pas un ans après leur sortie …


y a vraiment des gent qui ne réfléchisse pas plus de 2 sec



les jeux qui gèrent le multi coeur arrivent en masse et certain se plaignes…



ça doit être le syndrome français









kimsse a écrit :



Il à pas l’air beaucoup plus beau que Tomb Raider, qui pourtant, est déjà très jolie.



Sa sens le jeu très mal optimisé est bourré de technologie inutiles/gourmandes.



Sa me ferrais mal au fion que ma 780 et mon 4670 soit déjà à fond de cale même pas un ans après leur sortie …









Il n’y a pas que le graphisme qui nécessite de la puissance… Sinon aussi bien faire un personnage 3D très détaillé qui se problème dans un environnement pré-rendu en CGI avec plein de cinématique. On a alors un jeu très très beau mais avec peu d’interactivité…



l’IA, la physique, les interaction avec l’environnement, la gestion de l’environnement (météo, circulations, gens sur le trottoir), le son, les animations, etc. sont tous des choses qui n’apparaissent pas sur un screenshot et nécessite de la puissance.




Oui, m’enfin de là à dire qu’on demande presque deux fois plus de puissance que les jeux de l’ancienne génération (Si l’on peut dire ça comme ça), c’est quand même du foutage de tronche.



On sens bien que les tests pour les configurations ont étés fait durant la phase de développement, sa m’étonnerais même pas que les configuration soit revu à la baise de manière “draconienne”, plus dans se qui se fait aujourd’hui.



Sinon on risque d’avoir une jolie levé de bouclier des Pciste, surtout que le jeu est attendu au tournant. <img data-src=" />









NonMais a écrit :



On sent vraiment la différence en ayant plus de RAM? Parce que perso j’en ai 6 (ayant une CM tri-Channels) et je ne crois pas jamais utiliser les 6 …







Ca se voit principalement sur les temps de chargement. Sur Battlefield 3 on voit clairement la différence entre 4 et 8 Go.



<img data-src=" /> y a rien de surprenant…

Mise à niveau par rapport au console…

RAS et dans 2 ou 3 ans, le 8 core sera sur les machines d’entrée de game et les gamers recommenceront à gueuler que “les jeux PC souffrent du poids des consoles et de leur pauvre carte graphique à coté de mon quad-SLI <img data-src=" />”








Holly Brius a écrit :



<img data-src=" /> y a rien de surprenant…

Mise à niveau par rapport au console…

RAS et dans 2 ou 3 ans, le 8 core sera sur les machines d’entrée de game et les gamers recommenceront à gueuler que “les jeux PC souffrent du poids des consoles et de leur pauvre carte graphique à coté de mon quad-SLI <img data-src=" />”







Ironie à part…il est triste de voir ce 0.00001 % de la population ne pas arriver à comprendre qu’il ne représentent rien et n’intéressent pas les investisseurs…bref que si on parle JV c’est des machines (même uniquement si on parle pc) 10x fois de puissance qui limitent les décisions pour ce qui fait le coeur du jeu (level design)









taralafifi a écrit :



Le code ne doit pas être optimisé pour avoir besoin d’autant de puissance CPU.

Le graphisme non plus pour demander autant de puissance GPU.

Ils doivent utiliser des grosses boucles inutiles, des textures non cropé, etc.





Exactement ce que je me suis dis..

Et visiblement la ram non plus.



je croyais pas qu’on pouvait faire pire en terme d’optimisation que Dota2, ubisoft a reuissi le pari,

La france a de quoi être heureuse aujourdhui.









ChromeOS a écrit :



Exactement ce que je me suis dis..

Et visiblement la ram non plus.



je croyais pas qu’on pouvait faire pire en terme d’optimisation que Dota2, ubisoft a reuissi le pari,

La france a de quoi être heureuse aujourdhui.





Quel problème à Dota2? (il tourne sur un IGP intel chez moi)



Bah vas sur mac/linux et tu auras besoin du double de ta config :)

Maintenant si ta un pc d’y a moin d’un ans, y’a pas ce soucis ^^








ChromeOS a écrit :



Bah vas sur mac/linux et tu auras besoin du double de ta config :)

Maintenant si ta un pc d’y a moin d’un ans, y’a pas ce soucis ^^





Quand je parlais de l’igp intel, c’est qu’il tourne sur mon macbook air 11” 2012 sous OS X.









linconnu a écrit :



Ca se voit principalement sur les temps de chargement. Sur Battlefield 3 on voit clairement la différence entre 4 et 8 Go.







Ce n’est pas plutôt si tu as un SSD vs un HD standard?









NonMais a écrit :



Ce n’est pas plutôt si tu as un SSD vs un HD standard?







non



Bien oui mais si tu as 4 GB de ram et que tu dois faire de la place et envoyé des données dans le SWAP avant de charger le niveau, ça prendra bien plus longtemps que si tout rentre en mémoire dès le début.










Punkenjoy a écrit :



non



Bien oui mais si tu as 4 GB de ram et que tu dois faire de la place et envoyé des données dans le SWAP avant de charger le niveau, ça prendra bien plus longtemps que si tout rentre en mémoire dès le début.







oui… faut vraiment que je vois à combien d’utilisation de RAM je monte en pic… y a moyen j’imagine d’enregistrer l’utilisation de la ram pendant un certain temps dans win 7.(Yep quand je joue, y a que ça d’ouvert… enfin + Origin et FireFox quand c’est BF3…mais je n’ai pas 40 onglets ou d’autres applis en arrière plan, donc je pense/j’espère que mes 6Go suffisent sans swaper)









NonMais a écrit :



oui… faut vraiment que je vois à combien d’utilisation de RAM je monte en pic… y a moyen j’imagine d’enregistrer l’utilisation de la ram pendant un certain temps dans win 7.(Yep quand je joue, y a que ça d’ouvert… enfin + Origin et FireFox quand c’est BF3…mais je n’ai pas 40 onglets ou d’autres applis en arrière plan, donc je pense/j’espère que mes 6Go suffisent sans swaper)







Non probablement que c’est suffisant si tu fermes tous et ne garde que l’essentiel. De toute manière, le jeu n’est pas 64 bit et Windows 7 ne prendra pas 2 GB en temps normal pour lui seul.



Mais il faut faire attention durant les loading. la charge mémoire peux être plus importante qu’au final puisqu’il décompresse plusieurs trucs. Si tu dépasse pendant le loading, ça va être décidément plus long.



Comme je dit, l’important avec la RAM, c’est de toujours en avoir de libre. Si tu dépasse sa capacité, tu perds énormément en performance. De plus les OS moderne cache très bien le disque en mémoire, ça rend le système un peu plus agréable et réactif. Pour ma part, j’ai 16 GB. Pourquoi parce qu’au moment ou j’en ai fait l’Achat le surtout n’était pas si important versus 8 GB et je sais que ça va me durer plus longtemps.



Après, investir pour 3 autres barrettes sur ta config, est-ce rentable ? souhaitable ? ça reste à voir. Tout dépend de toute façon de combien de temps tu pense garder cette config.



Mais déjà par exemple, tu ne pourras probablement pas faire les plus grand combats de Planeraty Anihilation. Un jeu prévu pour supporté dès le début le 64 bit afin de faire des énormes batailles. (ils ont comme objectifs de faire des combats jusqu’à 40 joueurs dans tout un système solaire. Leur intention est de faire un jeu qui évoluera avec le matériel. De plus en plus de jeux vont sortir en 64 bit et ils prendront a eu seul 4 GB et plus, donc Si 6 GB est suffisant pour le moment, ça ne le sera pas pour l’avenir.



Et comme Planetary Anhilation le démontrera, ce n’est pas parce que le jeux ne sera pas optimisé. C’est simplement que le nombre d’éléments et la taille de la simulation sera énormément augmenté.



ça fait environ 5 ans que les jeux plafonne sur l’utilisation de mémoire afin de ne pas dépassé les limites du 32 bits (avec LAA on ou off). on est du pour plus.



Ça permettrait par exemple :



Sim city ou autre tycoon avec des cartes plus grande et des agents plus complexe.

Des MMO avec plus de joueur et d’éléments en même temps sans trop de lag client.

Des RTS avec plus de joueur, plus d’unités sur des cartes plus grandes.



Coté Shooter, ça permettra moins de FPS de corridors avec moins de chargement. Un RPG comme Dragon Age ou Skyrim pourrait avoir 2-3 fois moins de chargement. Etc…



Je ne comprend pas trop le discours du “Les jeux faut qu’ils soit full optimisé pour qu’il tourne sur un core 2 duo avec 2 GB de ram et une GTX 520, si ce n’est pas le cas, le jeux n’est pas optimisé”



Alors qu’en fait, en limitant les specs, on limite la créativité. Tout le monde reprendrons les mêmes optimisation pour s’assurer de respecté les specs “Beaucoup de chargement, Ensemble de corridors, “Brouillard à distance”, réutilisation massives des mêmes textures, Peu d’éléments interactifs, etc.”












Punkenjoy a écrit :









ok <img data-src=" />









Punkenjoy a écrit :









NonMais a écrit :







Pour info le prérequis mini en RAM vient de passer à 6 Go sur la page, ça résout le problème 3264 bits.



au pire je rachète un lot de 3 barrettes d’au moins 2Go chaque. Et comme ça je passe à 12Go. Enfin je verrai car en ce moment (passage VDSL2 chez free qui foirouille?) j’ai des pings de merde et du coup je ne peux plus vraiment jouer (je suis passé de 42ms à 75ms avec par moment du plus de 200 ( =&gt; injouable) sous LoL : et je vois vraiment la différence : je me fais poutrer à chaque fois, le timing est trop important dès que tu tombes contre un gars qui sait jouer. Je n’ai même pas osé lancer un BF3…)