S'identifier / Créer un compte
  • Actualités
  • Dossiers
  • Tests
  • Commentaires
  • INpactiens
Publicité

GeForce GTX 690 : NVIDIA annonce son monstre bi-GPU à 999 $

Pour les tests ? Il y a le site maison

Comme certains l'attendaient, NVIDIA vient d'annoncer sa nouvelle carte bi-GPU : la GeForce GTX 690. Celle-ci est équipée de deux puces GK104 qui étaient utilisées dans la GTX 680 (voir notre dossier), ce qui est sans doute à l'origine de l'évocation des 7 milliards de transistors pour Kepler (2x 3,5 milliards). Elle ne sera disponible que le 3 mai, en quantité réduite, mais à un tarif record : 999 $.

GeForce GTX 690

Pour le moment, aucun test de la bête n'est d'ailleurs disponible, même nos confrères d'Anandtech indiquent qu'ils ne publieront pas leur dossier avant cette fameuse date de jeudi, NDA oblige, sans doute. Le caméléon cherche en effet à créer le buzz plus qu'à entendre des critiques (positives ou négatives), il a donc décidé de réserver l'exclusivité à son propre site de propagande maison qui trouve tout parfait, bien entendu, une attitude que l'on ne peut que déplorer, une fois de plus.

La presse ? Pas besoin, il y a l'analyse maison

On notera d'ailleurs que, de notre côté, le constructeur s'est contenté de nous fournir les images via un FTP dans la matinée, avec un communiqué de presse plutôt léger, sans le moindre détail technique. Il faut donc croire que NVIDIA préfère se cantonner à l'analyse de ses propres équipes, espérant que cela suffira aux acheteurs qu'il espère séduire avec ses produits.

GeForce GTX 690

Quoi qu'il en soit, on se retrouve au final avec une bête dotée de deux GK104 reliés par un pont PLX, qui embarque donc le double des unités d'une GeForce GTX 680, mais avec des fréquences légèrement réduites. Ainsi, le CPU reste sous la barre du GHz (915 MHz) pour sa fréquence de base, mais peut néanmoins atteindre 1019 MHz en fréquence « Boost ». Pour rappel, il était question de 1006 / 1058 MHz pour la version mono-GPU, soit une baisse de 9 et 4 % environ, ce qui est plutôt raisonnable.

Deux GeForce GTX 680 en une... ou presque

Pour le reste, rien ne change : on passe à 2x 2 Go de GDDR5 à 256 bits pour chaque GPU, fonctionnant à 3 GHz. On notera d'ailleurs que l'analyste NVIDIA n'hésite d'ailleurs pas à doubler ces chiffres qui ne s'additionnent pas, comme c'est souvent le cas que dans les documents marketing des constructeurs :

GeForce GTX 690

L'étage d'alimentation se contentera de deux connecteurs PCIe à 8 broches, pour un TDP global annoncé de 300 watts. Au niveau du système de refroidissement, il est bien plus massif que sur la GeForce GTX 680 et se compose de deux blocs type chambre à vapeur ainsi que d'un gros ventilateur central :


Reste à voir s'il sera silencieux dans la pratique, ce qui était l'un des gros points forts de la GTX 680. Le caméléon indique qu'il a particulièrement soigné les matériaux utilisés : aluminium chromé, et un alliage à base de magnésium.

Côté performances ? Promis, elle est super !

Bien entendu le SLi est de la partie, et NVIDIA promet que les gains de performances seront au rendez-vous, même dans ce mode. On nous affiche d'ailleurs des résultats dans quelques jeux qui se veulent impressionnants :

GeForce GTX 690GeForce GTX 690

Sorties vidéo : NVIDIA fait dans le largement compatible. Tarif de la bête ? 999 $

Pour les sorties vidéo, NVIDIA fait une fois de plus le choix de la compatibilité avant tout et propose trois connecteurs DVI-DL, ainsi qu'un Mini-DP 1.2.

GeForce GTX 690

Reste maintenant à attendre de voir ce que vaut cette nouvelle carte graphique haut de gamme dans la vraie vie, hors des labos de NVIDIA et ses analyses forcément complaisantes. La presse devrait pouvoir commencer à donner son avis jeudi prochain, à son arrivée dans les magasins.

Le constructeur annonce que la disponibilité sera réduite, mais plus forte d'ici la semaine suivante, nous vérifierons bien entendu ce qu'il en est dans les faits, et quelle sera la conversion en euros du tarif de 999 $.

GeForce GTX 690
Publiée le 29/04/2012 à 10:30

Soutenez l'indépendance de Next INpact en devenant Premium

  • Tout le contenu de Next INpact sans pub
  • Et bien plus encore...

Il y a 148 commentaires

Avatar de after_burner INpactien
after_burner Le lundi 30 avril 2012 à 10:19:45
Inscrit le mercredi 16 juillet 08 - 6967 commentaires
En même temps je me pose la question : Pourquoi envoyer des cartes graphiques aux testeurs à ce prix??
C'est une carte VITRINE, simplement, elle sera pas vendue.
Le simple fait d'en envoyer aux testeurs, avec les risques que ça comporte ( salut la carte paumé, salut la carte grillée, salut la carte plus revendable ) est très couteux, à 1000 euros la bête.

Bon après on peut se poser la même question inversée ?
Pourquoi créer une carte graphique à ce prix ?


En théorie cette carte est un produit d'appel, c'est pourquoi je pense qu'ils vont maintenant sortir des déclinaisons "moyen de gamme" de leur kepler.

Mais même pour un produit d'appel le prix est un peu élevé, p-e une manière de préparer les prix du MDG qui ne seront assez élevé aussi, vu le positionnement.

Pourtant ça avait bien commencé, une GTX680 annoncée un peu moins chère qu'une HD7970 tout en étant un peu plus perf, bien que les prix aient changés depuis.

Après pour un dual GPU, les fréquences sont moins à la baisse que j'aurais pu l'imaginer, du coup le prix est ~ égal à 2 GTX680.
Avatar de mamath7 INpactien
mamath7 Le lundi 30 avril 2012 à 10:47:53
Inscrit le jeudi 24 septembre 09 - 988 commentaires



Cette Mars2, c'est une "déclinaison" d'une carte existante non ?

Oui, et non... oui: Un peu une 590 parce que 2 gpu de 580.
non: parce que la carte n'est pas une déclinaison de 590 et est réellmeent un modéle à part entière.
Tout est bien précisé ici
Avatar de Dacoco974 INpactien
Dacoco974 Le lundi 30 avril 2012 à 10:58:50
Inscrit le vendredi 23 décembre 05 - 2290 commentaires

, donc effectivement ce jeu ne te conviendrait pas.
Par contre le prochain Ghost Recon t'irait à merveille. Personnellement je l'attends au tournant car il offrirait (du moins sur PC) de très bon graphismes avec une bonne dose tactique. Sûrement pas aussi poussé que sous Arma II je te l'accorde.


Euh, tu ne serais pas en train de l'insulter là ? Le mec kiffe ARMA II et tu lui conseille le prochain Ghost Recon, jeu arcade console casual et tout ça ? Tu n'as pas peur toi sm.gif




J'avais aussi noté ce point, les gens qui ont essayé ne semblent pas du tout gêné par ça. D'autant plus que l'enclenchement de ce système se fait si l'ennemi a été "lock". Ce qui m'inquiète le plus c'est la facilité déconcertante de l'utilisation des grenades, tu peux l'envoyer à 500m sur la cible...

Personnellement je ne suis pas réfractaire aux évolutions de gameplay, si gain il y a à l'utilisation. Si on reste sur les mêmes principes, on se retrouvera avec des "refresh" de jeux existants. Je vais attendre de tester pour me faire une idée sur ce point.

Pour revenir à cette carte, j'ai fais l'acquisition d'une HD 7970, je fais tourner très bien tous les jeux avec les réglages à fond en 1920x1080. Et je pense que je peux toujours voir les prochains arriver sereinement.
Les gammes au dessus font office de flagship et peuvent servir à des usages très spécifiques (calculs massifs sur des décimaux par exemple).
Pas besoin de se chamailler sur ce point . C'est évident que ce n'est pas un produit pour Mr Tout le monde.


Pour moi, la 7970 fait déjà parti des flagships
Avatar de Gilbert_Gosseyn INpactien
Gilbert_Gosseyn Le lundi 30 avril 2012 à 11:10:33
Inscrit le mercredi 27 mai 09 - 1075 commentaires


+1 nVidia allait pas foutre ça à 50€ non plus...



Se réaligner sur quoi ? Il n'y a rien d'équivalent chez ATI.

La 7990 n'est pas encore sortie il me semble ...
Avatar de -DTL- INpactien
-DTL- Le lundi 30 avril 2012 à 11:16:35
Inscrit le mercredi 7 septembre 11 - 1001 commentaires

Oui, et non... oui: Un peu une 590 parce que 2 gpu de 580.
non: parce que la carte n'est pas une déclinaison de 590 et est réellmeent un modéle à part entière.
Tout est bien précisé ici

La Mars 2 était très chère et limité en nombre...

Mais au moins c'était un vrai SLI sur un seul PCB et même légèrement OC. (10 MHz. )
Alors que... les Bi GPU officiel la mémoire et le GPU sont castré en fréquence.

Bref, les Bi GPU j'aime pas. Mais la Mars je ne peux que m'incliner devant la prouesse technique.
Avatar de chaps INpactien
chaps Le lundi 30 avril 2012 à 11:22:46
Inscrit le lundi 9 janvier 06 - 5311 commentaires

Alors que... les Bi GPU officiel la mémoire et le GPU sont castré en fréquence.


Bah, ici la fréquence de la mémoire ne change pas et celle du GPU passe de 1006 / 1058 MHz à 915 / 1019 MHz. Pas vraiment de quoi fouetter un chat.
Avatar de mamath7 INpactien
mamath7 Le lundi 30 avril 2012 à 11:42:21
Inscrit le jeudi 24 septembre 09 - 988 commentaires


Bah, ici la fréquence de la mémoire ne change pas et celle du GPU passe de 1006 / 1058 MHz à 915 / 1019 MHz. Pas vraiment de quoi fouetter un chat.

Il m'en faut moins pour fouetter le mien
Avatar de -DTL- INpactien
-DTL- Le lundi 30 avril 2012 à 12:23:02
Inscrit le mercredi 7 septembre 11 - 1001 commentaires


Bah, ici la fréquence de la mémoire ne change pas et celle du GPU passe de 1006 / 1058 MHz à 915 / 1019 MHz. Pas vraiment de quoi fouetter un chat.

91 MHz d'écart en mode normal.
Après en OC les car Bi-GPU...
Commentaire de silenotsy supprimé le 07/05/2012 à 14:11:17 : Réponse à un commentaire supprimé
Avatar de mononokehime INpactien
mononokehime Le lundi 30 avril 2012 à 12:43:24
Inscrit le mardi 20 décembre 05 - 1193 commentaires
Combien de temps faudra-t-il avant que cette carte sois dépassé par LE jeu qui la fera ramer tout en étant au max ? Je ne sais pas si je pose bien la question, mais j'imagine que le principal intérêt de cette carte et d'avoir quelque chose qui dure longtemps sans avoir besoin de la changer. Surtout qu'il suffira d'attendre 1 an au mieux avant d'avoir une bonne baisse de prix.
;