GeForce GTX Titan : tout savoir de la carte à 999 € de NVIDIA
Il y a quelques mois, NVIDIA dévoilait son GK110 : une puce monstrueuse disposant de pas moins de 7,1 milliards de transistors et dédiée à une carte pour serveur, la Tesla K20. Elle arrive désormais sur le marché grand public au sein d'un modèle à la référence qui annonce la couleur : GeForce Titan. Une manière de relancer un marché morose sans trop se forcer, ou un réel produit à ne pas manquer ?
La GeForce GTX 690
NVIDIA propose depuis maintenant près d'un an sa nouvelle architecture : Kepler. Celle-ci a été déclinée ces derniers mois au sein d'une gamme complète : les GeForce 600 et leurs puces GK100. Actuellement, le modèle le plus puissant de l'offre est la GeForce GTX 690 qui est composée de deux GPU (GK104) et annoncée à 999 $.
Dans la pratique,celle-ci se retrouve aux alentours de 900 € et, après des débuts difficiles, elle est disponible en stock chez de nombreux revendeurs. Mais le concurrent, AMD, annonce disposer de la carte graphique mono GPU la plus puissante sur le marché et enfonce le clou avec la Radeon HD 7990 et ses versions overclockées et améliorées telles que la ARES II signée ASUS.
La ARES II d'ASUS : l'ennemi à abattre
NVIDIA, qui n'a pas effectué un lancement de carte graphique un tant soit peu important depuis la GeForce GTX 650 Ti en octobre dernier se devait de réagir. Heureusement, la marque avait dans ses cartons le GK110, une puce annoncée au départ pour des cartes dédiées aux serveurs : les Tesla K20.
Un GK110 utilisé de manière incomplète
Nous ne reviendrons pas ici sur les améliorations apportées dans le détail au niveau de l'architecture Kepler par NVIDIA au sein de son GK110 par rapport au GK104, ceux qui veulent en savoir plus peuvent se reporter sur ce document technique publié par la marque.
Celles-ci étaient en effet dédiées surtout à une utilisation de type serveur (CUDA Compute Capability 3.5, Hyper-Q, Dynamic Parallelism, augmentation des registres accessibles par un thread, nouvelles instructions, refonte de la gestion des caches et amélioration du support de la mémoire ECC...). Pour ce qui concerne les joueurs, on notera surtout une nouvelle organisation et une répartition différente des unités.
Les SMX (Streaming Multiprocessors), qui ont été améliorés, ne sont plus regroupés par deux, mais par trois au sein des GPC (Graphics Processing Clusters). Ils contiennent toujours 192 CUDA Cores chacun et sont au nombre de 15 au sein du GK110 (soit cinq GPC). Ceux-ci ne sont néanmoins pas tous activés puisque la GeForce GTX Titan n'en comporte que 14, soit 2688 CUDA Cores au total.
On compte aussi 224 unités de textures, soit une augmentation là aussi de 75 % par rapport à la GeForce GTX 680, mais une baisse de 13 % par rapport à la GTX 690. Le cache L2 a par contre été triplé (1536 ko contre 512 ko) et les ROP sont au nombre de 48 (+50 % / -25 %). Au final, l'ensemble compte 7,1 milliards de transistors, soit près du double du GK104.
La double précision à fond les ballons pour tous (ou presque)
Pour les adeptes de calcul plus que de jeux, NVIDIA a rajouté une option au sein de ses pilotes, dédiée à débrider les unités gérant la double précision. Le GK110 en intègre 64 par SMX et elles fonctionnent en temps normal à 1/8ème de la fréquence nominale. Le rapport entre les opérations en simple et en double précision est ainsi de 1/24.
Mais une fois cette option activée, la pleine fréquence est utilisée pour ces unités, permettant de profiter à plein des performances de ce monstre pour les applications exploitant l'OpenCL ou CUDA par exemple. Attention néanmoins, le reste de la carte fonctionne alors à une fréquence réduite, les performances dans les jeux pouvant s'en ressentir.
GTX Titan : des fréquences revues à la baisse, un refroidissement plus efficace
La carte elle-même est assez grande (26,67 cm) et se situe entre les GTX 680 et GTX 690 à ce niveau. Elle nécessitera deux emplacements au sein de votre machine. NVIDIA est assez fier de son système de refroidissement qu'il annonce comme particulièrement silencieux. Ainsi, il exploite un système de chambre à vapeur, une pâte thermique de chez Shin-Etsu et expulse l'air chaud hors de la machine. L'ensemble est annoncé comme plus silencieux que le ventirad de la GeForce GTX 680.
Les sorties vidéos sont au nombre de quatre (trois pouvant être utilisées en simultanée) : deux DVI-DL, un HDMI 1.4 et un DisplayPort 1.2. Le « 3-way SLi » pourra être utilisé puisque les deux connecteurs nécessaires sont proposés, NVIDIA précise d'ailleurs que l'ensemble est parfaitement prêt pour jouer à des titres récents tels que Crysis 3 sur une définition de type 4K ou sur de multiples écrans, ce qu'il sera intéressant de vérifier dans la pratique.
Du côté des fréquences, le GPU passe de 1006 MHz pour la GeForce GTX 680 à 836 MHz (-17 %). Elle pourra grimper à 876 MHz via GPU Boost, mais c'est là encore moins que la GTX 690 qui annonçait 915 et 1019 MHz pour ses deux GPU (soit une baisse de 10 à 15 % environ). Pour ce qui est de la mémoire, par contre, les choses sont revues à la hausse. On compte au total pas moins de 6 Go de GDDR5, toujours à 3 GHz.
Le tout est interfacé via un bus de 384 bits, la bande passante disponible est donc plus importante, mais l'on se demande si une telle quantité était réellement nécessaire, ou si ce n'est qu'un argument marketing destiné à rattraper la ARES II d'ASUS qui annonce le même chiffre (mais via deux GPU).
Quoi qu'il en soit, l'ensemble annonce un TDP de pas moins de 250 watts. Le PCB dispose d'un étage d'alimentation qui se compose de six phases pour le GPU et deux phases pour la mémoire et deux connecteurs PCIe (6+8 broches) seront nécessaires à son bon fonctionnement. Ce qui est assez étonnant lorsque l'on voit que NVIDIA indique que la GeForce GTX Titan est parfaitement adaptée... à des Mini PC.
Une carte pensée pour les Mini PC... vraiment ?
Car oui, NVIDIA compte sérieusement placer de tels produits dans des PC au format compact. Le Tiki de Falcon Northwest est ainsi systématiquement montré. Son look est plutôt appréciable et la mise en avant de la carte y est plutôt bonne... reste à connaître le prix de la bête, le reste de sa configuration et sa capacité à être réellement silencieuse dans la pratique.
Mais d'autres formats semblent prévus, à base de boîtiers signés Bitfenix ou Fractal Design par exemple. Il sera intéressant de voir si de tels concepts aboutissent chez les revendeurs français.
Quoi qu'il en soit, cette mise en avant cache une autre évolution introduite avec la GeForce GTX Titan : GPU Boost 2.0 et une nouvelle gestion de l'énergie au sein des applications proposées par les constructeurs, permettant à l'utilisateur de choisir ouvertement entre le silence et la performance, de manière simplifiée.
GPU Boost 2.0 : la température est désormais au centre de tout
Avec la précédente version de GPU Boost, NVIDIA fixait une limite de TDP à ne pas dépasser et tentait de maximiser la fréquence lorsque cela était nécessaire. Une procédure critiquée en raison de son fonctionnement dans la pratique, d'autant plus que les résultats pouvaient varier d'une carte à une autre.
Finalement, NVIDIA a donc décidé de revoir sa copie. Désormais, tout dépendra de la température de fonctionnement. Vous êtes dans un environnement frais, une machine bien aérée ? Vous aurez plus de chances d'atteindre la fréquence « Boost » que celui d'un autre.
Par défaut, la carte visera les 80°C comme température de fonctionnement idéale. Sous cette valeur, la fréquence sera augmentée, au-delà, elle pourra redescendre jusqu'à celle de base. Bien entendu, la tension sera aussi adaptée.
Plus de possibilités offertes à l'utilisateur
Mais l'utilisateur aura aussi droit à des possibilités supplémentaires. Il sera ainsi possible de modifier cette valeur de température cible, mais aussi de dépasser les recommandations de NVIDIA en terme de tension. Dans ce dernier cas, l'utilisateur sera averti des dommages qu'il peut causer à sa carte à long terme et devra donner son accord pour activer cette possibilité. Les constructeurs pourront, de leur côté, limiter plus ou moins cette capacité via le BIOS de la carte.
Dans tous les cas, le fonctionnement du système de refroidissement, calibré pour être parfaitement silencieux jusqu'à 80°C, pourra être adapté si vous jugez cela nécessaire. Il sera aussi possible de modifier la valeur de la synchronisation verticale. En effet, par défaut celle-ci est celle de votre écran (dans les 60 Hz). Si vous l'activez, l'action est fluide, mais vous ne dépassez pas la limite des 60 fps.
Il est désormais proposé de passer à une valeur supérieure, ce qui ne sera pas supporté par tous les écrans. Une manière, sans doute, de venir compléter l'Adaptive VSync proposé avec les GeForce GTX 680.
Les performances ? Chut !
Pour ceux qui voudraient en savoir plus sur les performances, il faudra attendre. NVIDIA n'autorise pour le moment pas les quelques testeurs à avoir reçu la carte (dont nous ne faisons pas partie) à publier leurs résultats. Il faut ainsi se limiter aux graphiques fournis par la marque qui n'ont que peu d'intérêt.
Vous devrez donc attendre encore quelques jours pour lire les premières analyses, nous publierons alors une revue de presse de l'ensemble des tests, pour que vous puissiez en savoir plus sur le sujet.
La question du prix et de la disponibilité
Reste maintenant la question qui fait mal : quel tarif ? Officiellement, NVIDIA parle de 999 $ et les bureaux français de la marque nous ont indiqué qu'il était question de 800 € HT (soit un peu moins de 960 € TTC). Le but est en effet de remplacer la GTX 690 à un tarif identique, sans que l'on sache si celle-ci sera plus accessible le temps de vider les stocks. Il sera intéressant de voir si, à ce prix, des jeux seront offerts ou si l'on aura simplement droit à des crédits pour des jeux Free-to-play, comme sur les modèles de coeur de gamme.
Il en faut pour tous les goûts
D'après nos informations, les stocks seront suffisants pour le lancement et quelques marques seulement proposeront la GeForce GTX Titan d'ici la fin de la semaine, chez quelques revendeurs. Il faudra alors voir si la faible quantité prévue (ce qui est logique pour une carte de ce prix) suffit à garder des tarifs raisonnables, ou si ceux-ci s'envoleront. L'étude de ce point dans les semaines à venir, et des éventuels réapprovisonnement nous permettra alors de voir si cette GeForce GTX Titan n'est qu'un coup marketing, destiné à reprendre la place de numéro 1, ou si elle signe l'arrivée d'un nouveau produit haut de gamme à long terme.
Car les géants du GPU n'ont rien de vraiment sexy de prévu pour les mois à venir, ayant d'autres chats à fouetter : pas de nouvelle architecture à l'horizon, la gamme actuelle limitée par la finesse de gravure de 28 nm qui peine à être remplacée... cela explique en partie les changements de nom que l'on subit depuis quelques mois.
Le projet SHIELD, ça c'est sexy !
NVIDIA, qui sort ici une carte de plus, qui n'a rien de vraiment nouveau, est en effet plus concentré sur des projets plus dans l'air du temps tels que Tegra 4 et sa version pour smartphone, SHIELD ou encore ses produits destinés au « Cloud Gaming ». Espérons tout de même que l'on aura droit à un peu d'action du côté des GeForce avant la fin 2013...
Quelle réponse attendre de la part d'AMD ?
AMD n'est d'ailleurs pas en reste puisque la marque nous a annoncé ne pas compter sur de nouveaux modèles pour combattre cette GTX Titan. Les produits tels que la Radeon HD 7990 de 6 Go de Club3D ou la ARES II (vendue tout de même à 1400 €) seront donc le plus haut de gamme de l'offre du père des Radeon et ce pour une bonne partie de l'année. Celui-ci compte en effet sur ses HD 7800 et HD 7900, ainsi que sur ses bundles de jeux conséquents pour gagner en part de marché.
Rien n'est en effet prévu avant la fin 2013 du côté des réelles nouveautés et l'on devrait entre temps avoir droit aux Radeon HD 8000, des Radeon HD 7000 dont le nom a été modifié et qui sont pour le moment disponibles uniquement aux OEM.
Bientôt, une carte sera offerte lorsque l'on achètera des jeux
Les forces du Texan se concentrent en effet là aussi sur la mobilité et sur les PC de « Mr Tout le monde » avec l'arrivée des APU Richland, Kabini et Temash afin de contrer la montée en puissance des solutions ARM et l'ennemi de toujours : Intel. Autant de batailles qui vont être compliquées à mener pour la société qui n'a cessé de baisser en effectif ces dernières années, et dont les résultats financiers ne sont toujours pas au rendez-vous.