La GeForce GTX Titan testée, disponible dès lundi pour un peu plus de 950 €

La GeForce GTX Titan testée, disponible dès lundi pour un peu plus de 950 €

Elle fonctionne plus de trois heures par jour ?

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

21/02/2013 2 minutes
43

La GeForce GTX Titan testée, disponible dès lundi pour un peu plus de 950 €

Il y a deux jours, NVIDIA levait le voile sur sa nouvelle GeForce GTX Titan (voir notre dossier). Celle-ci a pu être testée par certains de nos confrères qui publient aujourd'hui leurs résultats. Dans le même temps, les revendeurs peuvent débuter les précommandes, la disponibilité en stock nous ayant été annoncée pour ce lundi.

Pour l'annonce de sa nouvelle carte graphique haut de gamme, NVIDIA a souhaité procéder en deux temps. En dévoilant les caractéristiques de son produit, les photos et les scores officiels tout d'abord, puis en permettant aux journalistes ayant pu recevoir une carte de publier leurs résultats ensuite. Une manière de dédoubler les publications alors que le lancement va être noyé entre celui de la PlayStation 4 et l'arrivée d'Ubuntu sur tablettes et sur smartphones.

 

Pour rappel, ce petit monstre exploite une puce GK110 qui comprend pas moins de 7,10 milliards de transistors (3,54 milliards pour le GK104 des GeForce GTX 680). Elle est cadencée à 836 MHz (jusqu'à 876 MHz en mode Turbo) et dispose de 2688 CUDA Cores. Pas moins de 6 Go de GDDR5 à 3 GHz sont aussi de la partie.

 

GeForce GTX Titan NVIDIA GeForce GTX Titan Slides

 

Comme pour la GeForce GTX 690, toutes les cartes reprennent le design de référence et seul le contenu du bundle peut varier de l'une à l'autre . Vous les retrouverez chez LDLCMateriel.net et  Top Achat qui proposent le modèle ASUS à un peu moins de 960 €, mais aussi chez Rue du Commerce, chez qui il est pour le moment plutôt question de 1000 € environ quelle que soit la marque.

 

Mais la seule question qui vaille est : à un tel tarif, cette GeForce GTX Titan arrive-t-elle à se démarquer nettement des Radeon HD 7970 proposées à 320 / 350 € avec un bundle ravageur, tout en passant devant les Radeon HD 7990 de 6 Go telles que le modèle de Club3D ou l'ARES II d'Asus ?

 

Cela ne semble malheureusement pas être le cas si l'on en croit les différents essais de nos confrères :

 

En français :

En anglais :

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Fermer

Commentaires (43)


Titan, Titan, ça me dit qq chose ? <img data-src=" />


Un peu déçu, d’habitude j’aime beaucoup les produits Nvidia, mais décidément cette HD7970 Ghz Ed. est vraiment excellente. 13 FPS de gagner sur Crysis 2 pour 500€ de plus ? meh


Faut ptete attendre des drives capables de la gérer aussi ! ^^


Ce sous-titre de derrière les fagots… Bien vu !


ils devraient changer de nom pour le produit, en France aujourd’hui c’est pas terrible Titan comme nom <img data-src=" />


Une carte graphique trop chère payé qui n’a pas 50% de perf en plus comparé à ses concurrente.



Vous pouvez vous les garder vos sois-disantes carte graphique haut de gamme.



#TitanStyle


Très bonne carte, mais pas révolutionnaire et à ce prix là, difficile de me convaincre. A 500-600 euros cela pourrait être pas mal ( à condition aussi de faire du Surround)


Heu ok, ils ont pris la version initiale de ce qu’on devait avoir <img data-src=" />



Pour le coup elle porte bien son nom, c’est vraiment une bête cette CG, Moi qui suit un inconditionnel des séries HD depuis HD4xxx ,la HD7970 ne fait clairement pas le poids. Cette CG a 1 ans d’avance.



Bon par contre le rapport performance/prix n’est pas intéressant mais ça n’est clairement pas le but recherché je pense.









coolraoul a écrit :



Pour le coup elle porte bien son nom, c’est vraiment une bête cette CG, Moi qui suit un inconditionnel des séries HD depuis HD4xxx ,la HD7970 ne fait clairement pas le poids. Cette CG a 1 ans d’avance.



Bon par contre le rapport performance/prix n’est pas intéressant mais ça n’est clairement pas le but recherché je pense.







988 en tri SLI, sinon c’est 450 ;)



Oui je viens de remarquer ça me semblait louche j’avais edit :p



370W chez PCWorld même, c’est pas si mal !




Une manière de dédoubler les publications alors que le lancement va être noyé entre celui de la PlayStation 4 et l’arrivée d’Ubuntu sur tablettes et sur smartphones.

Heu… <img data-src=" /> J’ai bien compris que PCi était sur la blacklist de Nvidia pour les tests, mais je vois pas le rapport entre la sortie d’ubuntu sur tablettes et celle d’un CG qui n’est pas destiné à ce type de produits…



Enfin, sinon le tarif arrêtera quiconque à un minimum de bon sens… Même la 8800 GTX / dual, fleuron inégalé à son époque, n’a pas atteint ce tarif (j’ai des souvenirs de 550€ au plus), alors quand des concurrents font jeu égal pour bien moins cher… <img data-src=" />


Il faut une bonne alim ouais. 850W pour un bon rendement. Mais elle chauffe beaucoup, je pense que le watercooling est une bonne option pour cette carte.



J’attends les bench des futures GT700 pour décider perso…


Si l’on s’en tiens Teraflops Single Precision elle est 3 fois plus performante que la carte de la futur PS4 ^^”

Bon elle coute aussi 5 fois plus cher visiblement








Spidard a écrit :



Enfin, sinon le tarif arrêtera quiconque à un minimum de bon sens… Même la 8800 GTX / dual, fleuron inégalé à son époque, n’a pas atteint ce tarif (j’ai des souvenirs de 550€ au plus), alors quand des concurrents font jeu égal pour bien moins cher… <img data-src=" />





Pour info, la 690 GTX est plus chère que la Titan… donc cette dernière n’est pas la carte la plus déraisonnable…



Maintenant, c’est clair que c’est un peu violent comme prix, mais si on regarde de plus près ce qu’on a, selon l’usage, ça peut être carrément une bonne affaire: un dérivé de tesla c2070 à un prix cassé, idéal pour les graphistes freelance, ou un projet de dev cuda…






Ouais bah ce sera crossfire de 7970 Ghz pour moins cher et plus perf.

C’est une carte qui n’a d’intérêt (pour le jeu) qu’en sli ou tri sli.

Celui qui n’en prendrait qu’une a tout intérêt à partir sur un sli de 680 ou un cross de 7970 (s’il est prêt à attendre un peu pour les profils multi-gpu…)








Spidard a écrit :



Heu… <img data-src=" /> J’ai bien compris que PCi était sur la blacklist de Nvidia pour les tests, mais je vois pas le rapport entre la sortie d’ubuntu sur tablettes et celle d’un CG qui n’est pas destiné à ce type de produits…



Enfin, sinon le tarif arrêtera quiconque à un minimum de bon sens… Même la 8800 GTX / dual, fleuron inégalé à son époque, n’a pas atteint ce tarif (j’ai des souvenirs de 550€ au plus), alors quand des concurrents font jeu égal pour bien moins cher… <img data-src=" />









Que de souvenir…600 euros à l’époque, une bête et j’ai pleuré lorsqu’elle a cramé 1 an après..





et dispose de 2688 CUDA Cores





C’est Skynet ! <img data-src=" />








Anna Lefeuk a écrit :



Que de souvenir…600 euros à l’époque, une bête et j’ai pleuré lorsqu’elle a cramé 1 an après..







Moi j’ai pleuré quand j’ai renvoyé le premier exemplaire au SAV car il était défectueux (carte cramée, faute dans le design, réglée deux révisions du hardware plus tard)…



Et ensuite, deux ans plus tard, elle a claqué pour de bon…



Pour le moment j’ai une Radeon HD 5870 dont le défaut principal est d’avoir un ventilo trop lent et qui plante si je ne le pousse pas un peu ce dernier avant de commencer à charger la bête…




<img data-src=" /> Erf ce coup ci je pensais quelle aurait été plus puissante que ma GTX690.








ragoutoutou a écrit :



Pour le moment j’ai une Radeon HD 5870 dont le défaut principal est d’avoir un ventilo trop lent et qui plante si je ne le pousse pas un peu ce dernier avant de commencer à charger la bête…





J’en ai une avec le disign d’origine et c’est le driver / CCC qui le limite sinon en moins de 10 min en idle, c’est une turbine &gt;_&lt;





ragoutoutou a écrit :



Pour info, la 690 GTX est plus chère que la Titan… donc cette dernière n’est pas la carte la plus déraisonnable…





la 690 est moins puissante, mais plus chère ? <img data-src=" />









Spidard a écrit :



J’en ai une avec le disign d’origine et c’est le driver / CCC qui le limite sinon en moins de 10 min en idle, c’est une turbine &gt;_&lt;



la 690 est moins puissante, mais plus chère ? <img data-src=" />







La 690 est plus puissante <img data-src=" />



Je suis sans doute coincé du cerveau, mais quand je vois un prix X fois supérieur à un concurrent, je m’attend à des performances X fois supérieures dans les jeux.



Comme ce n’est pas le cas…





Sur hardware.fr, ils citent l’usage du calcul CUDA. Je pense qu’elle est plus intéressante dans ce domaine.



On parle de la performance / watt, moi je vois surtout la performance / € …








Anna Lefeuk a écrit :



Que de souvenir…600 euros à l’époque, une bête et j’ai pleuré lorsqu’elle a cramé 1 an après..







En effet depuis ce temps là je me suis dit plus jamais 660 € dans une CG, j’en ai toujours 2 d’Asus qui fonctionnent encore bien.









Spidard a écrit :



la 690 est moins puissante, mais plus chère ? <img data-src=" />







Non, si je vois bien les benchs jeux, la 690 colle de temps à autres une belle fessée à la Titan…



Perso, je crois que la Titan ne vise pas réellement les gamers, c’est plutôt un produit pour essayer de garder une présence de CUDA sur le marché (avec un bonus perf par watt)…



Avec le bridage des 6x0 GTX en usage GPGPU, NVIDIA a en fait créé une opportunité pour AMD et OpenCL qui pourrait coûter des plumes à la stratégie CUDA. La Titan me semble être une manière de rectifier le tir et contrer la fuite des développeurs.



Mouai, ba moi je dit vive AMD !


Si la Titan avait des drivers vraiment optimisés, elle ferait un carnage !



Elle serait encore plus ultime si le die pouvait être gravé plus finement.


Je suis surpris de voir la 7970 a ce niveau ! A une époque elle faisait coude à coude à la 680 et maintenant elle est clairement devant et seulement entre 12 et 16 % moins rapide que cette titan ! :o



Ati a vraiment bosser les drivers niveau perfs et ca se voit !


C’est pas cher. Mais pourquoi ne la vendent-ils pas au moins 2500 € ? Ils ont un doute sur les performances de la carte ? <img data-src=" />


C’était donc ça, la diffusion des infos en 2 temps :

faire du buzz, pour pas grand chose au final… <img data-src=" />



Dommage ! Quitte à faire une carte ultime, aux finitions exemplaires, qui envoie du bois, nvidia aurait dû la proposer en pack water-coolé exclusivement !



On voit trop qu’ils l’ont bridée, la Titan, pour ne pas faire exploser les W et le bruit généré… Sur une K20, c’est pas grave, c’est dans une salle climatisée fermée, avec tout plein d’autres racks qui font du boucan… <img data-src=" />


Une question en passant…

La GeForce GTX Titan est visiblement orientée jeux.

La gamme Quadro est plus orientée station de travail : Photoshop, Autocad, Catia, etc… avec une précision chromatique 30 bits (10 bits par couleur). Plus d’un milliard de couleurs.



La GeForce GTX Titan peut-elle jouer dans le même registre au niveau de la précision chromatique ?



Je suppose que oui…








lataupe a écrit :



Titan, Titan, ça me dit qq chose ? <img data-src=" />







Le fermier qui écrit au vitriol??? <img data-src=" />









Fantassin a écrit :



C’est pas cher. Mais pourquoi ne la vendent-ils pas au moins 2500 € ? Ils ont un doute sur les performances de la carte ? <img data-src=" />





Ben il y a la Tesla c2070 si tu veux un peu mieux dans le genre “compute”…



Rah le sous-titre, j’ai pas capté tout de suite. <img data-src=" />

Sinon ça fait cher le bousin. La 7970 GE à l’air plus compétitive.








bogomips a écrit :



En effet depuis ce temps là je me suis dit plus jamais 660 € dans une CG, j’en ai toujours 2 d’Asus qui fonctionnent encore bien.









Je partage ton point de vu.

J’ai une vieille 4890 qui me rend encore bien service, mais j’ai quand même craqué pour une GTX 680 à 500 boules l’an dernier. Mon Psy m’a dit que c’était pour compenser la taille de mon petit organe <img data-src=" /> (j’ai jamais été trop bagnole).



Quoiqu’il en soit dans 95% du temps c’est la raison qui l’emporte (une GTX 460 il y a 3 ans) mais dans 5% des cas, pris de folie, il me faut la plus grosse, la plus puissance pour compenser (voir la raison mentionnée ci dessus^^). Et dire qu’EQ2 en 2500 x 1600 en “Full ++ qualité qui roxxe du poney” plie ma carte…(proc i5 3,2 Ghz). Si cela continue ma fille de 18 mois, va arrêter de mettre des couches du jour au lendemain histoire que je puisse l’avoir cette Titan <img data-src=" />










Dark-Jedi a écrit :



Je suis surpris de voir la 7970 a ce niveau ! A une époque elle faisait coude à coude à la 680 et maintenant elle est clairement devant et seulement entre 12 et 16 % moins rapide que cette titan ! :o



Ati a vraiment bosser les drivers niveau perfs et ca se voit !









C’est à cause des nouveaux drivers optimisés de……NVIDIA <img data-src=" />









Alan a écrit :



Une question en passant…

La GeForce GTX Titan est visiblement orientée jeux.

La gamme Quadro est plus orientée station de travail : Photoshop, Autocad, Catia, etc… avec une précision chromatique 30 bits (10 bits par couleur). Plus d’un milliard de couleurs.



La GeForce GTX Titan peut-elle jouer dans le même registre au niveau de la précision chromatique ?



Je suppose que oui…









Alan, tu parles en qu’elle langue là?









Anna Lefeuk a écrit :



Alan, tu parles en qu’elle langue là?







Ben oui évidemment… Je parle de ce qui peut différencier cette carte par rapport à une NVIDIA Quadro K5000 pour station de travail en infographie qui est déjà équipée d’un GPU avec architecture Kepler <img data-src=" />



NVIDIA en parle ici :http://www.nvidia.fr/object/quadro-K5000-fr.html#pdpContent=1



En fait, c’est une information (en langage infographistes) que je ne retrouve nulle part dans les spécifications de la GeForce GTX Titan, à savoir la “précision chromatique” par canal de couleur fondamentale. <img data-src=" />



8 Bits par canal de couleur = 16,7 millions de couleurs.

10 Bits par canal de couleur = 1,07 milliard de couleurs.

<img data-src=" />










Alan a écrit :



Ben oui évidemment… Je parle de ce qui peut différencier cette carte par rapport à une NVIDIA Quadro K5000 pour station de travail en infographie qui est déjà équipée d’un GPU avec architecture Kepler <img data-src=" />



NVIDIA en parle ici :http://www.nvidia.fr/object/quadro-K5000-fr.html#pdpContent=1



En fait, c’est une information (en langage infographistes) que je ne retrouve nulle part dans les spécifications de la GeForce GTX Titan, à savoir la “précision chromatique” par canal de couleur fondamentale. <img data-src=" />



8 Bits par canal de couleur = 16,7 millions de couleurs.

10 Bits par canal de couleur = 1,07 milliard de couleurs.

<img data-src=" />









Merci pour tes précisions









Alan a écrit :



En fait, c’est une information (en langage infographistes) que je ne retrouve nulle part dans les spécifications de la GeForce GTX Titan, à savoir la “précision chromatique” par canal de couleur fondamentale. <img data-src=" />







Il me semble avoir lu sur les forums geforce que 570GTX supportait le 10bit par canal, à condition d’avoir un moniteur compatible… pourquoi pas la Titan, du coup… à moins que NVIDIA ait décidé de laisser le marché des graphistes freelance à AMD…



Il me semble avoir lu sur les forums geforce que 570GTX supportait le 10bit par canal, à condition d’avoir un moniteur compatible… pourquoi pas la Titan, du coup… à moins que NVIDIA ait décidé de laisser le marché des graphistes freelance à AMD…

[/quote]

[quote:4471307:ragoutoutou]





Ben oui, c’est sûrement logique… pourquoi pas la Titan vu le prix ?



Mais entre les 1000 euros annoncés pour la Titan, et 1.980 euros la Quadro K5000, j’ai un doute. La Quadro 6000 est par ex. à 4.695 euros <img data-src=" />



Bien évidemment il s’agit d’utilisateurs professionnels pour la gamme Quadro.

Mais même si ce matériel est déductible fiscalement, je pense qu’il doit y avoir une chose qui ne veut pas dire son nom dans cette GeForce GTX Titan ?



Car somme toute, la gamme Tesla est technologiquement encore un cran au-dessus de Quadro.



<img data-src=" />








Alan a écrit :



Ben oui, c’est sûrement logique… pourquoi pas la Titan vu le prix ?



Mais entre les 1000 euros annoncés pour la Titan, et 1.980 euros la Quadro K5000, j’ai un doute. La Quadro 6000 est par ex. à 4.695 euros <img data-src=" />



Bien évidemment il s’agit d’utilisateurs professionnels pour la gamme Quadro.

Mais même si ce matériel est déductible fiscalement, je pense qu’il doit y avoir une chose qui ne veut pas dire son nom dans cette GeForce GTX Titan ?



Car somme toute, la gamme Tesla est technologiquement encore un cran au-dessus de Quadro.



<img data-src=" />







On est d’accord, c’est étrange de la part de NVIDIA… après avoir sur-segmenté leur offre artificiellement, ils nous sortent un produit qui semble en pleine contradiction avec cette segmentation, pas monstrueusement cher et qui dit tenir les promesses de matos beaucoup plus haut de gamme…



C’est peut-être une arnaque, ou alors c’est peut-être une manœuvre pour contrer AMD et l’openCL, au moins sur le segment grand public.



Perso, je m’attend à ce que la tesla se comporte comme n’importe quelle GTX en openGL (et donc soit inférieure aux Quadros dans les applis pro), mais offre un réel boost performances en GPU computing. Ce qui correspond au haut de gamme grand public AMD (fort en jeux, médiocre en opengl pro, fort en GPU computing)



C’est moi ou le prix me semble élevé par rapport aux perfs (surtout par rapport à la 7970..)