NVIDIA annonce Pascal, Erista et sa future GeForce GTX Titan Z à... 2 999 $

NVIDIA annonce Pascal, Erista et sa future GeForce GTX Titan Z à… 2 999 $

Let's caméléon !

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

25/03/2014 3 minutes
87

NVIDIA annonce Pascal, Erista et sa future GeForce GTX Titan Z à... 2 999 $

NVIDIA tient en ce moment la nouvelle édition de sa GPU Technology Conference (GTC) à San Jose en Californie. L'occasion pour la marque de dévoiler ses nouveautés pour les mois à venir, après nous avoir parlé de Tegra K1 ou de ses GeForce 800M avec Battery boost lors de récents évènements.

NVIDIA GTC NVIDIA GTC

Avec Pascal, NVIDIA veut s'attaquer aux goulots d'étranglement

En ouverture de la nouvelle édition de la GTC, Jen-Hsun Huang a tenu à évoquer CUDA et ce qui est le principal problème auquel les développeurs font face aujourd'hui : la limitation de la bande passante. C'est notamment le cas lors de la communication nécessaire entre le GPU et le CPU.

Ainsi, la société a décidé de dévoiler son interface NVLink, développée en partenariat avec IBM. Le but est ici de faciliter les échanges entre ces deux puces compatibles, mais aussi entre les différents GPU qui peuvent être disponibles au sein d'un même système. Un gain de 5x à 12x est promis, il sera intéressant de voir ce qu'il en est dans la pratique. 

La seconde annonce évoquée a déjà été traitée à différentes occasion : 3D Memory. Ici, le but est d'intégrer la mémoire directement au sein du packaging avec la technique dite du « 3D stacking » afin de disposer d'une bande passante mémoire bien plus importante que sur les solutions actuelles.

NVIDIA GTC

Le tout sera intégré nativement à la prochaine architecture de NVIDIA qui prendra forme au sein d'un modulé spécifique : Pascal. Un nom donné en l'honneur de Blaise Pascal, célèbre mathématicien, philosophe et scientifique français. Ce produit était précédemment connu sous le nom de code Volta et ne sera pas disponible avant 2016.

GeForce GTX Titan Z : Deux GK110 dans une même carte proposée à près de 3 000 $

Après avoir évoqué quelques projets exploitant CUDA, le PDG a levé le voile sur un projet que certains attendaient : la GeForce GTX Titan Z. Globalement, celle-ci combine la puissance de deux Titan Black via deux GK110 fonctionnant toujours à la même fréquence, soit 5760 CUDA Cores, intègre 12 Go de GDDR5 et annonce une puissance de calcul de 8 TFLOPS pour 2999 $... tout de même !

On attend néanmoins de connaître tous les  détails de la bête, même si à ce prix, elle n'intéressera sans doute que les scientifiques et autres adeptes de CUDA ou de rendu 3D extrême. Reste à voir si une version « grand public » est prévue.

 titan Z

Après avoir annoncé des partenariats autour de GRID et de son nouvel produit dédié au rendu photo-réaliste, Iray VCA, il a été question de CUDA dans son usage mobile, de Tegra K1 et son intégration aux futures voitures signées Audi. L'occasion de l'annonce d'un nouveau kit de développement fonctionnant sous Linux, proposé à 192 $ : Jetson K1. 

Erista : Tegra utilisera Maxwell en 2015

Mais il a surtout été question de la prochaine génération : Erista. Celle-ci n'est pas attendu avant l'année prochaine et se basera sur l'architecture Maxwell pour sa partie graphique. Celle-ci étant connue pour son efficacité énergétique, on peut s'attendre à une belle avancée sur ce point.

Portal Shield

En attendant, il a été question du portage de Portal par Valve pour la console portable maison : la Shield. (sous Android donc) Mais aucune annonce de la nouvelle génération, qui était pourtant attendue. Les participants se consoleront : une Shield a été offerte à chacun d'entre eux.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Avec Pascal, NVIDIA veut s'attaquer aux goulots d'étranglement

GeForce GTX Titan Z : Deux GK110 dans une même carte proposée à près de 3 000 $

Erista : Tegra utilisera Maxwell en 2015

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Commentaires (87)


Personnellement je garde ma GTX 670 pour un bout de temps encore. En revanche si le NVLink a pour but d’augmenter le gain de performances que permet le SLI c’est une bonne chose <img data-src=" />


Vivement le prochain GPU nommé Fortran, en l’honneur de Sylvie Fortran, célèbre chanteuse française d’origine bulgare <img data-src=" />








tAran a écrit :



Vivement le prochain GPU nommé Fortran, en l’honneur de Sylvie Fortran, célèbre chanteuse française d’origine bulgare <img data-src=" />



<img data-src=" /> Faux, il a été crée par John Bacchus <img data-src=" />



Non vivement le Gpu nommé Bernard en l’honneur bernard bebrusse garagiste français d’origine vosgienne… <img data-src=" />








julienfr33 a écrit :



Non vivement le Gpu nommé Bernard en l’honneur bernard bebrusse garagiste français d’origine vosgienne… <img data-src=" />





Si on pouvait éviter de polluer les commentaires avec une série de jeux de mots du genre sans intérêt ce serait pas mal. Merci.



<img data-src=" />









David_L a écrit :



Si on pouvait éviter de polluer les commentaires avec une série de jeux de mots du genre sans intérêt ce serait pas mal. Merci.



<img data-src=" />









Putain aucun humour<img data-src=" />



3000$ <img data-src=" />



Bon dans un an on la trouve à 500€








julienfr33 a écrit :



Putain aucun humour<img data-src=" />





Les blagues les plus courtes. ….





Après avoir évoqué quelques projets exploitant CUDA, le PDG a levé le voile sur un projet que certains attendaient : la GeForce GTX Titan Z. Globalement, celle-ci combine la puissance de deux Titan (5760 CUDA Cores), intègre 12 Go de GDDR5 et annonce une puissance de calcul de 8 TFLOPS pour 2999 $… tout de même !

2999 € Aaarghh, bon, gagnez au loto <img data-src=" /><img data-src=" />


On peux farmer des bitcoin avec ? <img data-src=" />








cid_Dileezer_geek a écrit :



2999 € Aaarghh, bon, gagnez au loto <img data-src=" /><img data-src=" />







Ou alors ce dire que finalement pour ce que ça sers on en a pas besoin pour le moment <img data-src=" />









knos a écrit :



3000$ <img data-src=" />



Bon dans un an on la trouve à 500€







Si c’est proposé, des clients potentiels sont derrières.



Ils achètent surement pour l’option chauffage qui est avec <img data-src=" />



Je suis entièrement d accord avec Mr David. Merci de faire preuve de sérieux, please



// mode faux derche

Genève power


Petite question, la série des GeForce 800M sont telles déjà dans des ordinateurs en vente comme des MSI ou est-ce encore une nouvelle gamme à venir ?








atomusk a écrit :



On peux farmer des bitcoin avec ? <img data-src=" />





Ce sera plus intéressant en Maxwell ;)







zOeil a écrit :



Petite question, la série des GeForce 800M sont telles déjà dans des ordinateurs en vente comme des MSI ou est-ce encore une nouvelle gamme à venir ?





Je ne crois pas que des modèles soient déjà en vente, à vérifier.









Meteor2000 a écrit :



Si c’est proposé, des clients potentiels sont derrières.



Ils achètent surement pour l’option chauffage qui est avec <img data-src=" />



<img data-src=" /> c’est pour l’option chauffe tasse de café, machine à vapeur…pour faire le café <img data-src=" /> et option barbecue pour cuire le popcorn <img data-src=" /> <img data-src=" />



La GeForce GTX Titan Z c’est une carte bi-GPU je suppose ?

Ca me semble logique vu l’annonce, mais ce n’est pas clairement précisé…


GRAAAAAAAAVIER ! merci nvidia !








chaps a écrit :



La GeForce GTX Titan Z c’est une carte bi-GPU je suppose ?

Ca me semble logique vu l’annonce, mais ce n’est pas clairement précisé…





Oui, c’est confirmé :)









Meteor2000 a écrit :



Si c’est proposé, des clients potentiels sont derrières.



Ils achètent surement pour l’option chauffage qui est avec <img data-src=" />







C’est de série <img data-src=" />





C’est notamment le cas lors de la communication nécessaire entre le GPU et le CPU. Ainsi, la société a décidé de dévoiler son interface NVLink, développée en partenariat avec IBM. Le but est ici de faciliter les échanges entre ces deux puces compatibles





Donc, pour la communication CPU - GPU, il faut que les 2 puces soient compatible. Donc des CPU Intel / AMD doivent aussi intégrer cette technologie IBM pour en profiter ?



Pour faire court : as t’on une chance de voir ca un jour ?








amFXR0 a écrit :









C’est annoncé comme intégré aux prochains CPU d’IBM ;) Je doute que le but soit le grand public. On verra dans la pratique d’ici là, mais il a bien été mentionné le besoin de compatibilité du CPU, ce qui semble logique, une communication, ça se fait dans les deux sens, les deux produits doivent donc gérer l’interface en question.



Dépassée dans 6 mois par une Maxwell équivalente en gamme. <img data-src=" />








David_L a écrit :



Ce sera plus intéressant en Maxwell ;)





Ce n’est pas la peine d’en rajouter <img data-src=" />





—-[<img data-src=" />]



Nvidia dans la démesure comme souvent <img data-src=" />



Une riposte de AMD a prévoir ?








Oxynux a écrit :



Nvidia dans la démesure comme souvent <img data-src=" />



Une riposte de AMD a prévoir ?





Pas avant le Computex je pense, mais les nouvelles générations se rapprochent, ça ne devrait plus être très long :)









tAran a écrit :



Ce n’est pas la peine d’en rajouter <img data-src=" />





—-[<img data-src=" />]





I see what you did there ! <img data-src=" />









tAran a écrit :



Ce n’est pas la peine d’en rajouter <img data-src=" />







You got to stop !



Before…



<img data-src=" />



Trêve de péroraisons douteuses







David_L a écrit :



Ce sera plus intéressant en Maxwell ;)







GK110, c’est pas du Maxwell ? Je suis paumé dans la nomenclature des fabricants <img data-src=" />









John Shaft a écrit :



GK110, c’est pas du Maxwell ? Je suis paumé dans la nomenclature des fabricants <img data-src=" />





K = Kepler

M = Maxwell



Trop compliqué, effectivement <img data-src=" /> (dans les 750 c’est du GM107)









David_L a écrit :



K = Kepler

M = Maxwell



Trop compliqué, effectivement <img data-src=" />







Merci <img data-src=" /> Donc comme d’hab’ les fabricants de GPU revendent à prix d’or des vieux coucous rafistolés <img data-src=" />



Et oui, n’ayant pas le nez dedans tout les jours, et retenant surtout le nom commercial, ça saute pas forcément aux yeux. Bon maintenant que j’ai compris le truc, ça devrait rentrer dans ce qui me reste de cervelle <img data-src=" />










tAran a écrit :



Ce n’est pas la peine d’en rajouter <img data-src=" />





—-[<img data-src=" />]







Il faut être un vieux con comme moi ( mais super sexy ) resté coincé dans les années 80 pour se marrer comme un con dans le train avec cette blague pourrie <img data-src=" />









David_L a écrit :



Si on pouvait éviter de polluer les commentaires avec une série de jeux de mots du genre sans intérêt ce serait pas mal. Merci.



<img data-src=" />





evites de balancer ta mauvaise humeur tant qu’a faire , ca donne pas envie de les lires les commentaires non plus … non mais et apres ils reclament des membres premium tsé …







sinon a 3000 euro ca merite bien un petit troll , mais je vais me contenter de me marrer : LOL <img data-src=" />



GeForce GTX Titan Z …Pour miner du Dogecoin.<img data-src=" />








Oxynux a écrit :



Nvidia dans la démesure comme souvent <img data-src=" />



Une riposte de AMD a prévoir ?









oué la 295X a moins de 1000 euro et on en entendra plus parler de cette blague de titan ( qui n’a que le prix de titanesque en fait)

a ce prix t’achete 7 290x , enfin bref , RE - LOLLL <img data-src=" /> <img data-src=" />









amFXR0 a écrit :



Donc, pour la communication CPU - GPU, il faut que les 2 puces soient compatible. Donc des CPU Intel / AMD doivent aussi intégrer cette technologie IBM pour en profiter ?



Pour faire court : as t’on une chance de voir ca un jour ?







surement pas dans les PC mais dans des truc mobile j’imagine









xloxlox a écrit :



oué la 295X a moins de 1000 euro et on en entendra plus parler de cette blague de titan ( qui n’a que le prix de titanesque en fait)

a ce prix t’achete 7 290x , enfin bref , RE - LOLLL <img data-src=" /> <img data-src=" />







<img data-src=" /> T’as idée du rapport Puissance/Watt d’une TItan Z par rapport à 7 290x … ?

AMD est tout simplement incapable de suivre sur ce terrain.



Le type arrive sur scène et il aurait pu dire cela :





Manant à genoux devant votre roi !





Le plus drôle est que d’ici peut tu aura des fortunés chanceux qui vont prendre 4 pour en faire un quad SLi genre c’est normal <img data-src=" />



C’est qui qui a la plus grosse <img data-src=" />








sniperdc a écrit :



Le type arrive sur scène et il aurait pu dire cela :







Le plus drôle est que d’ici peut tu aura des fortunés chanceux qui vont prendre 4 pour en faire un quad SLi genre c’est normal <img data-src=" />



C’est qui qui a la plus grosse <img data-src=" />





c’est moi ,c’est ma femme qui me la dit <img data-src=" /><img data-src=" />









Ricard a écrit :



GeForce GTX Titan Z …Pour miner du Dogecoin.<img data-src=" />







Pour 3000 $ autant acheter 20 750Ti si c’est pour miner avec des cartes nvidia <img data-src=" />









D4rkvicious a écrit :



c’est moi ,c’est ma femme qui me la dit <img data-src=" /><img data-src=" />







Ah, ce n’est pas ce qu’elle m’a dit pourtant.











Je suis déjà très loin —–&gt;









knos a écrit :



Ou alors ce dire que finalement pour ce que ça sers on en a pas besoin pour le moment <img data-src=" />









On va le répéter maintes et maintes fois… ça ne te sert pas à toi, qui est cantonnés en 1920 x1080p mais à d’autre gens qui pousse à des hautes résolutions…



et avec la sorti des écran 4K il y a 1 ans crois-moi tu as des déjà des joueurs qui t’on triplé cette résolution pour en arrivé à 12k (11,520x2.160)









D4rkvicious a écrit :



c’est moi ,c’est ma femme qui me la dit <img data-src=" /><img data-src=" />







Ta femme t’as dit : «c’est moi qui a la plus grosse» ? C’est correct, la France a accepté le mariage gay <img data-src=" />









Aloyse57 a écrit :









Attention, tu vas te faire gronder par David <img data-src=" /> <img data-src=" />



N’importe quoi, c’est un Pentium III que le monsieur tient dans sa main .





<img data-src=" />








AnthoniF a écrit :



On va le répéter maintes et maintes fois… ça ne te sert pas à toi, qui est cantonnés en 1920 x1080p mais à d’autre gens qui pousse à des hautes résolutions…



et avec la sorti des écran 4K il y a 1 ans crois-moi tu as des déjà des joueurs qui t’on triplé cette résolution pour en arrivé à 12k (11,520x2.160)







Mais disons que le mec qui joue déjà sur 3 écran 4k il n’a pas de souci pour les 3000$



Ils n’empêche que les jeux actuelle ne sont pas conçu pour tourner a de tel résolutions.



Et si c’est pour un usage professionnel ce n’est pas la même chose.



Bref oui ça ne me sers pas et je ne pense pas que ça te serve non plus. Et si c’est le cas je m’excuse et suis désoler pour toi si tu ne peu pas t’acheter ta carte.



La phrase que j’ai dite était tourné dans le sens inutile pour moi en ce moment. (une façon d’évité une dépense)





Enfin!!!!!



On va pouvoir avoir des jeux en raytracing à 120 fps.

Ca va déchirer<img data-src=" />








Reznor26 a écrit :



Attention, tu vas te faire gronder par David <img data-src=" /> <img data-src=" />







Ceci dit c’est clair que c’est bien pollué ici … niveau humour c’est un mix entre les grosses têtes et les imitations bidons de cantelou.



De l’humour périmé, anna lefeuk/sim doit être en transe. <img data-src=" />







Anna Lefeuk a écrit :



Je suis entièrement d accord avec Mr David. Merci de faire preuve de sérieux, please



// mode faux derche

Genève power














Ideal a écrit :



Ceci dit c’est clair que c’est bien pollué ici … niveau humour c’est un mix entre les grosses têtes et les imitations bidons de cantelou.





Et encore, t’as pas vu le fil de commentaires de la news “abonnés” du jour !

Un mix entre une diarrhée un lendemain de cuite et Patrick Sébastien bourré dans un film porno ! <img data-src=" />



Que fait la police le GIGN ?? <img data-src=" />









David_L a écrit :



Oui, c’est confirmé :)







Merci <img data-src=" />









cid_Dileezer_geek a écrit :



2999 € Aaarghh, bon, gagnez au loto <img data-src=" /><img data-src=" />





Tu connais le prix des quadro ?

Tu peux rajouter 5000$ facilement.



[quote:4966641:Reznor26]

Et encore, t’as pas vu le fil de commentaires de la news “abonnés” du jour !

Un mix entre une diarrhée un lendemain de cuite et Patrick Sébastien bourré dans un film porno ! <img data-src=" />

Dit dans ton film il y a pas aussi des hommes de petites tailles, habillés en cuir avec une nana qui s’applele BlancheFesse?



Je crois que je connais ce flim sur le cyclimse








refuznik a écrit :



Tu connais le prix des quadro ?

Tu peux rajouter 5000$ facilement.







Ce qui est assez ironique vu que la plus puissante des Quadro est d’une puissance ridicule face à ce Titan Z… Que NV vend comme capable d’égaler la puissance de Google Brain (en version triple GPU) !









Anna Lefeuk a écrit :



Dit dans ton film il y a pas aussi des hommes de petites tailles, habillés en cuir avec une nana qui s’applele BlancheFesse?





Non, mais y a des poneys volants alcooliques en tenue de sapeurs-pompiers <img data-src=" />







PS : Tu es démasqué <img data-src=" />





Ideal a écrit :



De l’humour périmé, anna lefeuk/sim doit être en transe. <img data-src=" />










zOeil a écrit :



Petite question, la série des GeForce 800M sont telles déjà dans des ordinateurs en vente comme des MSI ou est-ce encore une nouvelle gamme à venir ?









David_L a écrit :



Je ne crois pas que des modèles soient déjà en vente, à vérifier.





Si si, et en stock même <img data-src=" />



le TItan Z c’est pour jouer en triple screen 4K ? <img data-src=" />



edit ah grillé, fallait lire le reste des comms <img data-src=" />




Un nom donné en l’honneur de Blaise Pascal, célèbre mathématicien, philosophe et scientifique français. Ce produit était précédemment connu sous le nom de code Volta et ne sera pas disponible avant 2016.





La vache,heureusement que le codename n’est pas Le Gentil. <img data-src=" />








fraoch a écrit :



Les blagues les plus courtes. ….





…sont les moins longues. <img data-src=" />









knos a écrit :



3000$ <img data-src=" />



Bon dans un an on la trouve à 500€







Je veux bien que tu me dises dans quelle boutique tu trouves la GTX 690 à 500 €.









tAran a écrit :



Vivement le prochain GPU nommé Fortran, en l’honneur de Sylvie Fortran, célèbre chanteuse française d’origine bulgare <img data-src=" />





<img data-src=" />









refuznik a écrit :



Tu connais le prix des quadro ?

Tu peux rajouter 5000$ facilement.



J’y peux rien si les pros sont toujours les pigeons de l’histoire…<img data-src=" />





————————————&gt;gone



5760 Cuda cores en un GPU… pas mal…

Elle consomme quoi, 2000 W ? <img data-src=" />








Zorglob a écrit :



5760 Cuda cores en un GPU… pas mal…

Elle consomme quoi, 2000 W ? <img data-src=" />







Non non, 2 GPU <img data-src=" />

Comme les GTX295, GTX590 ou encore GTX690, cette carte est une carte bi GPU <img data-src=" />.









Ellierys a écrit :



Pour 3000 $ autant acheter 20 750Ti si c’est pour miner avec des cartes nvidia <img data-src=" />





a ce rpix la, faut vraiment etre un fanboy pour miner sur du nvidia, t’a meilleur temps de passer chez AMD



(je viens de passer les 1400Kh/s sur mes 280x, y’a plus qu’a les passer en WC et ca vas envoyer <img data-src=" />)









knos a écrit :



3000$ <img data-src=" />

Bon dans un an on la trouve à 500€







Comme la GeForce Titan… ah ben non

Ce n’est pas une carte intéressante pour celui qui joue, à l’image de la Titan, elle est plutôt axé pro. En gros c’est une sorte de Quadro bon marché.









divide a écrit :



<img data-src=" /> T’as idée du rapport Puissance/Watt d’une TItan Z par rapport à 7 290x … ?

AMD est tout simplement incapable de suivre sur ce terrain.





oui puis on peut aussi comparer 1 gtx760 a 38 295x sinon ? <img data-src=" />









xloxlox a écrit :



oui puis on peut aussi comparer 1 gtx760 a 38 295x sinon ? <img data-src=" />





en fait non tu parles bien d’un rapport donc ca doit etre comparable avec un avantage pour nvidia j’imagine mais pas qq chose d’insurmontage (un pti coup d’undervolting peut etre pour reequilibrer)

ensuite si tu rajoutes le prix dans ce calcul de rapport, bin forcement ca penche mechamment du coté des gentils (troll tout ca)

nvidia c’est de plus en plus du luxe pour jouer, merci amd sinon je serais encore sur ma 8800gtx









TofVW a écrit :



…sont les moins longues. <img data-src=" />





<img data-src=" />



le “z” c’est pour zero sur ton compte en banque si t’es un acheteur de cémoilaplugrosse compulsif, voir “acheteur Zombie” peut etre, ou “Zut je me suis encore fait avoir” <img data-src=" />








chaps a écrit :



Non non, 2 GPU <img data-src=" />

Comme les GTX295, GTX590 ou encore GTX690, cette carte est une carte bi GPU <img data-src=" />.







Redoutable efficacité la GTX 690 à part BF4 qui m’a demandé de désactiver mon second écran pour accroître le framerate en ULTRA Full HD et 120Hz, je me suis tâté pour en prendre une seconde.



Mais visiblement la GTX690 c’est petite bite comparer à la TitanZ.



Une GTX790 est sur la roadmap la TitanZ était une carte cachée hors normes.



Reste à savoir si nVidia fera une GTX790 (2 x 780) ou une GTX 790Ti (2x780Ti) <img data-src=" />



Dingue ça… Perso j’ai acheté une 680 depuis sa sortie, et vu les jeux dégueulasses avec la pseudo next gen, je pense qu’elle va me durer encore 5 ans :)



Faut vraiment etre un dingue pour acheter ce genre de carte.. autant prendre une 780 et la garder 5 ans aussi, ridicule autant d’upgrade alors que les jeux stagnent depuis quelques années..








Lnely a écrit :



Dingue ça… Perso j’ai acheté une 680 depuis sa sortie, et vu les jeux dégueulasses avec la pseudo next gen, je pense qu’elle va me durer encore 5 ans :)



Faut vraiment etre un dingue pour acheter ce genre de carte.. autant prendre une 780 et la garder 5 ans aussi, ridicule autant d’upgrade alors que les jeux stagnent depuis quelques années..







Oh mais ça fait longtemps que le fait que ce soit dégueulasse n’est plus synonyme de haut framerate.



Y’en a à la pelle des jeux plus moches que des anciens et qui rament davantage.









Emralegna a écrit :



Oh mais ça fait longtemps que le fait que ce soit dégueulasse n’est plus synonyme de haut framerate.



Y’en a à la pelle des jeux plus moches que des anciens et qui rament davantage.





Hein ? j’ai pas parlé de framerate, je pensais plutot aux graphismes, que cette next gen est bcp moins importante qu’a l’époque (exemple le passage ps2 était beaucoup plus marquant que la ps3 à la ps4)

J’entends donc par la que les jeux sont dégueulasse, ya aucune progresse visible depuis 1 an, la seule progression que j’ai relevé, c’est sur crysis 3 et BF4. Le reste, c’est du déjà vu graphiquement, et je doute qu’en 5 ans on ai besoin d’upgrade, car ces jeux sont jouable a 60 fps, sachant qu’un jeu reste jouable a 30, on a de la marge^^



apres tout y aura toujours des gens pour dire que 5% de perfs en plus a 30 000 euros c’est génial …

je souffle un bon coup et je pense a autre chose (oh! un panda sur son arbre!)



apres je me dis que si amd sortait sa 295X a 4000 euro , c’est eux qui passeraient pour le luxe et la qualité non ? marketing pour neuneu <img data-src=" />








Lnely a écrit :



Hein ? j’ai pas parlé de framerate, je pensais plutot aux graphismes, que cette next gen est bcp moins importante qu’a l’époque (exemple le passage ps2 était beaucoup plus marquant que la ps3 à la ps4)

J’entends donc par la que les jeux sont dégueulasse, ya aucune progresse visible depuis 1 an, la seule progression que j’ai relevé, c’est sur crysis 3 et BF4. Le reste, c’est du déjà vu graphiquement, et je doute qu’en 5 ans on ai besoin d’upgrade, car ces jeux sont jouable a 60 fps, sachant qu’un jeu reste jouable a 30, on a de la marge^^





oué plutot d’accord sauf sur le 30 , les derniers NFS sortent avec le cap a 30 et c’est pas jouable , ca rajoute a la mocheté en plus, si les joueurs console arrivent a s’en contenter sur pc c’est plus compliqué , on a nos petites habitudes









xloxlox a écrit :



oué plutot d’accord sauf sur le 30 , les derniers NFS sortent avec le cap a 30 et c’est pas jouable , ca rajoute a la mocheté en plus, si les joueurs console arrivent a s’en contenter sur pc c’est plus compliqué , on a nos petites habitudes





Je parle plus le commun des mortels, perso un jeu sous 50 fps je joue pas, je vois le decors derriere qui ramouille un peu ^^.

Mais c’est pas pour cette raison que j’acheterais une carte a 3000… eventuellement.

Je pense que ceux qui ont une 680 peuvent encore jouer confortablement 2-3 ans, ensuite ce sera un peu moins bon en fps, mais toujours jouable^^









Lnely a écrit :



Je parle plus le commun des mortels, perso un jeu sous 50 fps je joue pas, je vois le decors derriere qui ramouille un peu ^^.

Mais c’est pas pour cette raison que j’acheterais une carte a 3000… eventuellement.

Je pense que ceux qui ont une 680 peuvent encore jouer confortablement 2-3 ans, ensuite ce sera un peu moins bon en fps, mais toujours jouable^^





bah c’est clair que si le mec qui a depensé 3000 euro dans sa carte voit un seul jeu ramer avant 1 ou 2 ans, a mon avis il arrete tout et part garder un troupeau de chevre et faire du fromage, enfin pour payer ca faut y croire quoi









David_L a écrit :



C’est annoncé comme intégré aux prochains CPU d’IBM ;) Je doute que le but soit le grand public. On verra dans la pratique d’ici là, mais il a bien été mentionné le besoin de compatibilité du CPU, ce qui semble logique, une communication, ça se fait dans les deux sens, les deux produits doivent donc gérer l’interface en question.







Si je me trompe pas c’est bien le chipset qui gère la communication entre le GPU et CPU non ? Dans ce cas il n’y aurais qu’a attendre une nouvelle gamme de carte mère intégrant ces chipsets









chaps a écrit :



Non non, 2 GPU <img data-src=" />

Comme les GTX295, GTX590 ou encore GTX690, cette carte est une carte bi GPU <img data-src=" />.



Yep je sais merci; ce que je voulais dire c’est disons en “une pièce” si tu veux <img data-src=" /> Je connais la 690 que tu cites et ce à quoi elle m’a fait penser….

Bon moi je ne suis pas joueur, donc secteur pro, j’ai des souvenirs de retours de pb avec ces bi-GPU qui me laissent dubitatifs. Je préfère je crois 2 GPU, type (par ex) gtx 680 ou 780 disons “renouvelables à l’unité”, les choix se faisant en s’adaptant à l’évolution des développement de softs (ce qui inclut d’ailleurs de garder un oeil sur OpenCL).









Zorglob a écrit :



Yep je sais merci; ce que je voulais dire c’est disons en “une pièce” si tu veux <img data-src=" /> Je connais la 690 que tu cites et ce à quoi elle m’a fait penser….

Bon moi je ne suis pas joueur, donc secteur pro, j’ai des souvenirs de retours de pb avec ces bi-GPU qui me laissent dubitatifs. Je préfère je crois 2 GPU, type (par ex) gtx 680 ou 780 disons “renouvelables à l’unité”, les choix se faisant en s’adaptant à l’évolution des développement de softs (ce qui inclut d’ailleurs de garder un oeil sur OpenCL).







Ok, le problème de compréhension vient du fait que tu utilises le mot “GPU” pour désigner une carte graphique en soit. Hors, un GPU c’est un “Graphic Processor Unit”, et il peut très bien y en avoir 2 (voir plus) par carte graphique (d’où le terme de carte bi (ou multi) GPU).



Quand tu dis “Je préfère je crois 2 GPU”, encore une fois tu veux dire “2 cartes graphiques”.



Evite de mélanger les termes, après on comprend plus rien <img data-src=" />









chaps a écrit :



Evite de mélanger les termes, après on comprend plus rien <img data-src=" />



Ok ok, je te la refais alors : je préfère je crois une carte graphique avec 1 GPU <img data-src=" />, car des retours négatifs - en tous cas de pb - se sont montrés lors de l’utilisation de certains softs, à additionner à l’envie s’il le faut (par ex dans des boitiers cubix).

Maintenant il peut y avoir des avantages évidents, c’est sûr, mais pas celui de pouvoir changer GPU par GPU en tous cas…









Zorglob a écrit :



Ok ok, je te la refais alors : je préfère je crois une carte graphique avec 1 GPU <img data-src=" />, car des retours négatifs - en tous cas de pb - se sont montrés lors de l’utilisation de certains softs, à additionner à l’envie s’il le faut (par ex dans des boitiers cubix).

Maintenant il peut y avoir des avantages évidents, c’est sûr, mais pas celui de pouvoir changer GPU par GPU en tous cas…







J’avais déjà compris, mais reformulé comme ça c’est quand même plus clair <img data-src=" />









Zorglob a écrit :



Maintenant il peut y avoir des avantages évidents, c’est sûr, mais pas celui de pouvoir changer GPU par GPU en tous cas…







l’avantage quand t’es un peu serré niveau thune c’est d’avoir un crossfire sur un seul port de carte mere la où il faudra une carte mere capable au moins de faire 8x8x plutot que du 16x4x , ce qui est un peu plus cher , bref tu passes d’une carte mere a 60 - 70 euros voir moins a une carte a 150 euros voir plus …

il y eu un temps ou une X2 etait parfois bon marché , je me souviens de ma 6870x2 que j’avais payé neuve a 350 euro et qui n’etait pas restée sur le marché tres longtemps vu que trop avantageuse par rapport au reste de la gamme j’imagine



mais bon dans le cas d’une carte a 3000 euro je pense que la carte mere du gars elle coute 500 euro et encore il est frustré parce qu’elle est pas assez chere <img data-src=" />









knos a écrit :



Mais disons que le mec qui joue déjà sur 3 écran 4k il n’a pas de souci pour les 3000$



Ils n’empêche que les jeux actuelle ne sont pas conçu pour tourner a de tel résolutions.



Et si c’est pour un usage professionnel ce n’est pas la même chose.



Bref oui ça ne me sers pas et je ne pense pas que ça te serve non plus. Et si c’est le cas je m’excuse et suis désoler pour toi si tu ne peu pas t’acheter ta carte.



La phrase que j’ai dite était tourné dans le sens inutile pour moi en ce moment. (une façon d’évité une dépense)







Justement j’utilise le Crossfire Eyefinity de chez AMD pour une petite résolution de 5760x1080, malgré certain jeux au quelle le potage et l’optimisation qui laisse franchement à désirer, d’autre demande une puissance colossale ! quelque screenshoothttp://steamcommunity.com/profiles/76561197998417236/screenshots/ !



Un avantage en multijoueur… une immersion total et un panorama bleffant pour les yeux, ça ne sert pas que pour les pro ;-)









chaps a écrit :



J’avais déjà compris, mais reformulé comme ça c’est quand même plus clair <img data-src=" />



C’était pour montrer que je fais un effort… C’est pas toujours le cas, il faut en profiter <img data-src=" />





xloxlox a écrit :



l’avantage quand t’es un peu serré niveau thune c’est d’avoir un crossfire sur un seul port de carte mere la où il faudra une carte mere capable au moins de faire 8x8x plutot que du 16x4x , ce qui est un peu plus cher , bref tu passes d’une carte mere a 60 - 70 euros voir moins a une carte a 150 euros voir plus …

il y eu un temps ou une X2 etait parfois bon marché , je me souviens de ma 6870x2 que j’avais payé neuve a 350 euro et qui n’etait pas restée sur le marché tres longtemps vu que trop avantageuse par rapport au reste de la gamme j’imagine



Je t’arrête tout de suite : (1) le budget n’est pas particulièrement serré (et pro) mais c’est bien de ne pas faire n’importe quoi, notamment par rapport à des softs (en l’occurrence prod audiovisuelle) qui rechignent parfois avec des double GPU;

(2) je suis sur OSX, il n’est donc question ni de Crossfire ni de SLI, mais simplement d’une carte qui gérera l’affichage et l’autre (les autres) les boulots donnés au CUDA cores

(3) les softs eux-mêmes sont déjà optimisés pour le GPGPU sans crossfire et voient les différentes cartes. Y’a juste à gérer intelligemment



mais bon dans le cas d’une carte a 3000 euro je pense que la carte mere du gars elle coute 500 euro et encore il est frustré parce qu’elle est pas assez chere <img data-src=" />

Voilà, si tu veux… bien qu’évidemment l’image ne soit pas réelle, c’est à peu près ça quand même <img data-src=" />










AnthoniF a écrit :



Justement j’utilise le Crossfire Eyefinity de chez AMD pour une petite résolution de 5760x1080, malgré certain jeux au quelle le potage et l’optimisation qui laisse franchement à désirer, d’autre demande une puissance colossale ! quelque screenshoothttp://steamcommunity.com/profiles/76561197998417236/screenshots/ !



Un avantage en multijoueur… une immersion total et un panorama bleffant pour les yeux, ça ne sert pas que pour les pro ;-)





ah ca ca doit etre sympa , d’autant que pour t’appuyer on doit pouvoir s’en sortir pour moins de 1000 euro pour 3 ecran 27”

donc hop 3000 euro = un pc puissant avec du amd ou du nvidia un peu moins cretin et 3 ecran

tu nous conseilles quoi comme ecran ?









knos a écrit :



3000$ <img data-src=" />



Bon dans un an on la trouve à 500€







Oui mais dans 1 an le GPU Fortran sera sorti <img data-src=" />









knos a écrit :



Ah, ce n’est pas ce qu’elle m’a dit pourtant.











Je suis déjà très loin —–&gt;





<img data-src=" />