AMD et NVIDIA sur le point de lancer leurs nouvelles cartes graphiques

AMD et NVIDIA sur le point de lancer leurs nouvelles cartes graphiques

Parés pour accompagner le X99

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

01/08/2014 2 minutes
67

AMD et NVIDIA sur le point de lancer leurs nouvelles cartes graphiques

Alors que l'été bat son plein, et que nombre d'entre vous sont en train de siroter des cocktails sur les plages de sable chaud, ça bosse dur du côté des fabricants de GPU. En effet, tant AMD que NVIDIA préparent le terrain pour leurs nouveaux modèles, mais ils feront une fois de plus sans la gravure en 20 nm.

Si le marché des cartes graphiques est plutôt morose, AMD et NVIDIA vont tenter de profiter des mois qui viennent pour redonner un peu de pep's à leurs gammes. Ainsi, comme pour accompagner le lancement du X99 d'Intel, chacun se prépare à mettre sur le marché de nouveaux GPU.

 

Le premier à frapper sera AMD avec ses Radeon R9 285 et 285X. Celles-ci arriveront dès la mi-août pour le premier modèle, et seront l'occasion de découvrir les puces de la génération Tonga (Pro et XT). Le but sera de faire le lien entre les produits inférieurs, déjà renommés moult fois, et les R9 29x qui visent le haut de gamme. De quoi savonner la planche des éventuelles GeForce aux alentours de 200 euros à base de puce Maxwell.

 

Radeon R9 280X 

Certaines Radeon d'AMD ont déjà été renommées de nombreuses fois

 

NVIDIA de son côté ouvrira le bal seulement en septembre. Certains, comme Videocardz, indiquent que c'est la Geforce GTX 880 qui sera la première à se montrer. Une chose est sûre : ce ne sera pas la seule. Ainsi, des produits devraient être dévoilés jusqu'à la fin de l'année, afin de multiplier les annonces et marquer les esprits pour la grande période commerciale de l'année qui débutera dès novembre, mais se prépare dès maintenant.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Fermer

Commentaires (67)


Le monde des CG est un éternel recommencement: le même schéma se répète encore et encore…


J’espère qu’il y a aura une GeForce Titanausaurus à 2k :bave:


GTX 870 ou Ps4 <img data-src=" />









XalG a écrit :



J’espère qu’il y a aura une GeForce Titanausaurus à 2k :bave:







2000€ ? C’est de la carte de prolos ça ! <img data-src=" />



Need des Maxwell moyen de gamme à consommation contenu !



Ca plus les Haswell qui ont fait des progrès de consommation par rapport au C2D, je vais peut-être enfin pouvoir débarrasser mon PC de sa fonction chauffage (fort mal venu par ce temps estival).








von-block a écrit :



GTX 870 ou Ps4 <img data-src=" />







Il y a même pas la question a se posé la 870 qui doit être 50x plus puissante que la ps4 lol.









von-block a écrit :



GTX 870 ou Ps4 <img data-src=" />







Celle là est bien bonne <img data-src=" />





découvrir les puces de la génération Tsonga (Pro et XT)





On pourra faire du tennis avec?

<img data-src=" />


Est-ce qu’on pourra enfin jouer à Watchdogs avec un framerate correct? <img data-src=" />








Warchest a écrit :



Il y a même pas la question a se posé la 870 qui doit être 50x plus puissante que la ps4 lol.









sniperdc a écrit :



Celle là est bien bonne <img data-src=" />







<img data-src=" />



La GTX 880 me fera enfin, peut-être, lâcher mes viellissantes GTX 480 <img data-src=" />


Vivement Pascal !



20162017

nVidia sort Pascal –&gt; Flop

AMD &gt; nVidia

Intel rachète nVidia

AMD rachète VIA

La (vraie) concurrence repart !

<img data-src=" />








DarkMoS a écrit :



Est-ce qu’on pourra enfin jouer à Watchdogs avec un framerate correct? <img data-src=" />







Ma GTX 780 n’a pas de problème. :o









Malesendou a écrit :



Ma GTX 780 n’a pas de problème. :o





En Low ça compte pas. <img data-src=" />



On pourra revoir des benchs, ça commençait à faire un petit bout de temps qu’on en avait plus de significatifs en GPU.



<img data-src=" />








[_Driltan_ a écrit :



]

En Low ça compte pas. <img data-src=" />







C’est pas ce que l’on pensait Watch Dogs hein… Finalement, c’est limite de la rigolade.









Malesendou a écrit :



C’est pas ce que l’on pensait Watch Dogs hein… Finalement, c’est limite de la rigolade.





Ubisoft, pourtant ils font dans le fist et ils y vont jusqu’à l’épaule. <img data-src=" />



Tiens j’aurais une question … est-ce que les dernières carte Nvidia gère le multi-écrans (genre 3 écrans simultanément).



J’étais passé à AMD/ATI à cause de ça … mais si ça revient sur Nvidia je préfère avec la gestion CUDA :)








Malesendou a écrit :



C’est pas ce que l’on pensait Watch Dogs hein… Finalement, c’est limite de la rigolade.









[_Driltan_ a écrit :



]

Ubisoft, pourtant ils font dans le fist et ils y vont jusqu’à l’épaule. <img data-src=" />





Si on te chatouille les amygdales de l’intérieur, ça te fait rigoler.

<img data-src=" /> + <img data-src=" /> = <img data-src=" />



C’est bien connu <img data-src=" />

Il me semble que la mise au poing était tout de même nécessaire <img data-src=" />²



Hâte de voir la GTX 870 et ce qu’elle va proposer. Si son prix est pas trop élevé (de la part de nVidia j’ai quand même des doutes), je la prendrais pour remplacer dans un ans ma 770 4 Go. :)








ludo0851 a écrit :



Si on te chatouille les amygdales de l’intérieur, ça te fait rigoler.

<img data-src=" /> + <img data-src=" /> = <img data-src=" />



C’est bien connu <img data-src=" />

Il me semble que la mise au poing était tout de même nécessaire <img data-src=" />²





<img data-src=" />



Je need une nouvelle carte pour jouer en 4k, ma HD7870 GHZ n’est pas assez puissante.

D’un autre coté je me demande si c’est vraiment rentable de changer pour une 290X, elle est plus puissante et a un bus mémoire adapté, mais elle n’apporte rien d’un point de vue technologie.

Dernier argument pour la 290X, il ne me manque pas grand chose pour pouvoir jouer à D3 tout à fond en 4K, avec elle ca devrait passer.


Arghhh, je ne veux pas changer mon Alienware m15X, mais ma GTX460m commence à se faire vieille…








FRANCKYIV a écrit :



Tiens j’aurais une question … est-ce que les dernières carte Nvidia gère le multi-écrans (genre 3 écrans simultanément).



J’étais passé à AMD/ATI à cause de ça … mais si ça revient sur Nvidia je préfère avec la gestion CUDA :)









si tu parle de jouer en 5760x1080 par exemple j’en sais rien mais sinon si c’est juste pour plusieurs moniteurs bête et méchant, les multiples prises dvi & co servent à ça depuis l’an 2000 <img data-src=" />



Rien de neuf finalement si ce n’est une volonté d’occuper l’espace médiatique.

<img data-src=" />








Rokin a écrit :



si tu parle de jouer en 5760x1080 par exemple j’en sais rien mais sinon si c’est juste pour plusieurs moniteurs bête et méchant, les multiples prises dvi & co servent à ça depuis l’an 2000 <img data-src=" />







Ben je pose la question, car à l’époque on me disait que malgré toutes les prises disponibles, on ne pouvait pas faire de multi-écran avec Nvidia.



C’est pour ça que j’avais acheté une AMD/ATI Radeon 6970.



ca m’embete de payer une 880 des sa sortie car j’imagine que le prix va baisser quelque mois plus tard, mais bon entre mon oculus dk2 , mon pledge de star citizen, watch dogs … ma gtx 560, même OC elle tiens plus la, j’ateind a peine les 30fps








FRANCKYIV a écrit :



Tiens j’aurais une question … est-ce que les dernières carte Nvidia gère le multi-écrans (genre 3 écrans simultanément).



J’étais passé à AMD/ATI à cause de ça … mais si ça revient sur Nvidia je préfère avec la gestion CUDA :)





Jusqu’à 4 par carte depuis Kepler de mémoire, et sans DP obligatoire :)









David_L a écrit :



Jusqu’à 4 par carte depuis Kepler de mémoire, et sans DP obligatoire :)







Marchi pour la réponse :)



Ca veut dire quoi DP ?









FRANCKYIV a écrit :



Marchi pour la réponse :)



Ca veut dire quoi DP ?





Display Port <img data-src=" />



Étant toujours en mini ITX, je ne changerai pas sans amélioration de la finesse de gravure.



Ma GTX 680 en 1293Mhz / 1625Mhz watercoolée a encore de bonnes heures devant elle.








Firefly’ a écrit :



Display Port <img data-src=" />







ok marchi :)



Watch Dogs, je le tourne en ultra avec une 7950.

Donc pour le moment, je suis loin d’avoir le besoin de changer de carte graphique…


Moi ma GTX 560 Ti fonctionne encore bien, je ne ressent pas le besoin de changer. <img data-src=" />


Rien de bien révolutionnaire, il serait grand temps que les constructeurs fasse quelques avancées spectaculaires au niveau des performances de leurs cartes <img data-src=" />


Il faudrait faire un test pour savoir laquelle fera chauffage d’appoint pour cet hiver.








zicklon a écrit :



Rien de bien révolutionnaire, il serait grand temps que les constructeurs fasse quelques avancées spectaculaires au niveau des performances de leurs cartes <img data-src=" />







Pour ça, il faudrait que Intel leur ouvre ses chaines de fabrication en 0.22 Tri-Gate <img data-src=" />



Car en 0.28 SOI, on se retrouve avec de vrai radiateur.



Il est loin le temps de la Radeon 9700pro qui avait doubler les perf de la R8500 tout en étant moins cher que la FXjesaispluscombien <img data-src=" />



j’attendrai une occasion , je viens de prendre une 660 ti d’occase a 100 boules, ça me suffira pour un bout de temps.

En tout cas hâte de voir ce que maxwell offre de plus.


Est-ce qu’on arrivera à tourner the witcher 3 correctement <img data-src=" />



@Aldayo : Le tri-gate génère aussi de la chaleur ( faudrait l’avis d’un expert ), mais c’est vrai qu’on consomme moins :)


Je sais que ça n’a rien a voir mais quelle est la carte la plus puissante de VIA ou

Matrox? Je sais que pour le second c’est plutot du multiaffichage mais en performance brute pour les jeux ?








arkansis a écrit :



Étant toujours en mini ITX, je ne changerai pas sans amélioration de la finesse de gravure.



Ma GTX 680 en 1293Mhz / 1625Mhz watercoolée a encore de bonnes heures devant elle.





Rien avoir mais c’est la première fois que je lis ce pseudo sur un autre site qu’un site spécialisé en F1… Fan de F1 ou coïncidence ? <img data-src=" />









kamuisuki a écrit :



Je sais que ça n’a rien a voir mais quelle est la carte la plus puissante de VIA ou

Matrox? Je sais que pour le second c’est plutot du multiaffichage mais en performance brute pour les jeux ?







Pour Matrox, leur dernière carte dont la puissance permettait de jouer dans de bonnes conditions, c’était la Parhelia. Ca fait longtemps…












sr17 a écrit :



Pour Matrox, leur dernière carte dont la puissance permettait de jouer dans de bonnes conditions, c’était la Parhelia. Ca fait longtemps…





La 400 sortie en 2001 ? <img data-src=" />









kamuisuki a écrit :



La 400 sortie en 2001 ? <img data-src=" />







La G400 était vraiment la meilleure carte de l’époque.



Après, ils ont sorti la Parhelia qui était une bonne carte mais qui était beaucoup trop onéreuse pour rencontrer le succès.










sr17 a écrit :



La G400 était vraiment la meilleure carte de l’époque.



Après, ils ont sorti la Parhelia qui était une bonne carte mais qui était beaucoup trop onéreuse pour rencontrer le succès.





C’est dommage , comme il y a plus de 3eme concurrent, les deux avancent au ralenti..









kamuisuki a écrit :



C’est dommage , comme il y a plus de 3eme concurrent, les deux avancent au ralenti..





Il y a bien Intel qui arrive. Enfin, euh…



http://www.intel.com/content/www/us/en/architecture-and-technology/hd-graphics/h…



Doucement en tout cas. <img data-src=" />



Ils devraient faire dans le dedicated multi GPUs pour le fun, ils ne sont pas à quelques milliards près. <img data-src=" />



Je reste convaincu qu’ils vont finir par acheter nVidia. <img data-src=" />









[_Driltan_ a écrit :



]

Il y a bien Intel qui arrive. Enfin, euh…



http://www.intel.com/content/www/us/en/architecture-and-technology/hd-graphics/h…



Doucement en tout cas. <img data-src=" />





C’est vrai qu’ils ont reduit un peu leur écart mais bon , avec un I7 et la carte integée je fais pas tourner grand chose encore de récent.



A part nVidia et ATi ou Intel ya rien d’autre !!

pas de nouveaux Leader dans ce Monde de Carte GFX….<img data-src=" />


Ils n’ont rien compris chez AMD!

ils vont avoir 2 ou 3 finesse de retard par rapport à Intel et nvidia!


Je ne vois pas l’interet, a l’heure actuelle la next gen stagne et maintenant rien ne justifie vraiment l’investissement d’une carte 700+

Bref. Ma 680 je l’ai acheté au bon moment et je pense qu’elle va rester dans ma tour encore facilement 5 ans


Bon sang j’ai ri !!!!! <img data-src=" />



http://www.hardware.fr/articles/925-1/nvidia-geforce-gtx-titan-z-carte-graphique…



Même si les drivers ne sont pas au poil, c’est le pire fail que j’ai jamais vu. <img data-src=" />








[_Driltan_ a écrit :



]Bon sang j’ai ri !!!!! <img data-src=" />



http://www.hardware.fr/articles/925-1/nvidia-geforce-gtx-titan-z-carte-graphique…



Même si les drivers ne sont pas au poil, c’est le pire fail que j’ai jamais vu. <img data-src=" />







Tu m’en mettras deux … c’est pour du SLI … <img data-src=" />









FRANCKYIV a écrit :



Tu m’en mettras deux … c’est pour du SLI … <img data-src=" />





<img data-src=" /> Mer il et fou !









[_Driltan_ a écrit :



]

<img data-src=" /> Mer il et fou !







Adresse Web :

https://www.youtube.com/watch?v=EqHbaHmKkos



<img data-src=" />





<img data-src=" />



Parfait, dans 2 ans une 860 fanless sortira et je pourrai enfin changer <img data-src=" />



D’ici à ce que tout compte fait ils nous fassent du rebranding et colle encore un Kepler un peu boosté, je ne serais pas surpris!

Après tout, n’est-ce pas déjà PCI qui nous avait annoncé que tout compte fait les séries 8XX sur Maxwell devaient être attendues en 2015 ? … ou bien ma mémoire me trompe ?









mamath7 a écrit :



Le monde des CG est un éternel recommencement: le même schéma se répète encore et encore…





Oui, annonce en août, pour faire saliver provoquer un effet de manque, puis retard de 2 mois pour que les plus impatients craquent sur les vielles technologies … histoire de refourguer les merdes et les rentabiliser un peu plus.

Puis on balance en fanfare des produits mal finis et les adopteurs hatifs en sont pour leur frais.

Au final, la disponibilité est réelle et les prix sont abordables passé les fêtes de fin d’année, soit vers le 15 janvier.

Je dois commencer à veillir.









chaps a écrit :



La GTX 880 me fera enfin, peut-être, lâcher mes viellissantes GTX 480 <img data-src=" />





Tu as déjà la puissance d’une GTX 750. Qui est assi bien que ma HD 6850 (shit à celui qui râlera en se reconnaissant). De ce que j’en vois, si sous Linux c’est la chiotte du fait des drivers, sous Windows, ça suffit largement.









luxian a écrit :



Tu as déjà la puissance d’une GTX 750. Qui est assi bien que ma HD 6850 (shit à celui qui râlera en se reconnaissant). De ce que j’en vois, si sous Linux c’est la chiotte du fait des drivers, sous Windows, ça suffit largement.







Je joue en 2560x1600 (ou parfois en 1920x1080, mais avec 3DVision), du coup même mon SLI de GTX480 tire parfois un peu la langue :-p









chaps a écrit :



Je joue en 2560x1600 (ou parfois en 1920x1080, mais avec 3DVision), du coup même mon SLI de GTX480 tire parfois un peu la langue :-p







Oups, c’est quoi ton écran dis ?



En 27”, je suis très satisfait de 1920x1080 depuis des lustres, plus donnerait un affichage trop petit.









luxian a écrit :



Oups, c’est quoi ton écran dis ?



En 27”, je suis très satisfait de 1920x1080 depuis des lustres, plus donnerait un affichage trop petit.







J’ai un Dell 3007WFP HC <img data-src=" />

Ca va faire 7 ans que je l’ai (la première fois que je l’ai branché, c’était sur une 6800GT <img data-src=" />)



PS : J’ai également un Alienware OptX AW2310 en écran secondaire pour jouer en 3DVision <img data-src=" />


Perso j’attends the witcher 3 afin de voir ce qui est nécessaire pour une bonne immersion <img data-src=" /><img data-src=" />



Ou sinon dès que les écrans 4K 120Hz avec gsync (ou équivalent amd) arrivent en 30” ça peut déclencher l’achat aussi…








yvan a écrit :



Ou sinon dès que les écrans 4K 120Hz avec gsync (ou équivalent amd) arrivent en 30” ça peut déclencher l’achat aussi…







Vu le prix, j’suis pas sûr … <img data-src=" />









FRANCKYIV a écrit :



Vu le prix, j’suis pas sûr … <img data-src=" />





Faut que ça reste autour des 1000€ tout compris disons mais vu le temps que je passe devant ça ne pose pas trop de pb, le rapport usage/cout sera de toutes manières bien meilleur que bien d’autres loisirs.









yvan a écrit :



Faut que ça reste autour des 1000€ tout compris disons mais vu le temps que je passe devant ça ne pose pas trop de pb, le rapport usage/cout sera de toutes manières bien meilleur que bien d’autres loisirs.







Adresse Web :

http://www.ldlc.com/fiche/PB00152373.html



C’est plus de l’ordre de 2000 € un 30 pouces 4K …









FRANCKYIV a écrit :



Adresse Web :

http://www.ldlc.com/fiche/PB00152373.html



C’est plus de l’ordre de 2000 € un 30 pouces 4K …





C’est pas un écran de joueur (dalle TN) ça. Donc en effet c’est plutôt cher alors que les angles de vision et la justesse colorimétrique sont pas essentiels pour moi.



Je pensais plus à une version 30” 4K de ça

http://www.nextinpact.com/breve/88517-rog-swift-pg278q-ecran-g-sync-27-dasus-arr…



Effectivement ce sera vraissemblablement plus dans les 1500€ que les 1000€. <img data-src=" />









luxian a écrit :



Je dois commencer à veillir.





Arrête m’en parle pas…









mamath7 a écrit :



Arrête m’en parle pas…







Faut des lunettes à papy pour voir son écran 4k ?!?!?



<img data-src=" />









FRANCKYIV a écrit :



Faut des lunettes à papy pour voir son écran 4k ?!?!?



<img data-src=" />





Du coup OBLIGE d’avoir un écran de plus de 2m de diagonale tu comprends…

pas le choix

Vilain caribou va!