[Dossier PCi] Tout savoir de la GeForce GTX Titan de NVIDIA

[Dossier PCi] Tout savoir de la GeForce GTX Titan de NVIDIA

En attendant les tests...

Avatar de l'auteur
David Legrand

Publié dans

Sciences et espace

19/02/2013 2 minutes
61

[Dossier PCi] Tout savoir de la GeForce GTX Titan de NVIDIA

Comme prévu, NVIDIA vient d'officialiser sa nouvelle carte graphique haut de gamme : la GeForce GTX Titan. Derrière ce nom se cache une puce déjà connue, le GK110, qui était intégré jusqu'à maintenant sur des cartes pour serveurs, les Tesla K20. Le tout est censé remplacer la GeForce GTX 690, mais avec un seul GPU.

NVIDIA aurait-il été irrité par l'arrivée de nouvelles Radeon HD 7990 overclockées et équipées de 6 Go de mémoire ? Il semblerait puisque le caméléon a finalement décidé de mettre sur le marché son GK110, une puce au départ pensée pour les serveurs et qui prend place au sein de son nouveau bébé haut de gamme : la GeForce GTX Titan.

 

Dotée d'un seul GPU, qui compte pas moins de 7,1 milliards de transistors tout de même, celle-ci se veut à la fois performante, mais surtout raisonnable. NVIDIA semble ainsi viser son intégration au sein de Mini PC grâce à son GPU Boost 2.0, à un ventirad revu et corrigé et à une meilleure gestion de l'énergie, et ce malgré un TDP de 250 watts.

 

De quoi faire baver les amateurs de performances qui n'ont pas peur de dépenser plus de 900 € pour une carte graphique ? C'est ce que nous avons tenté de voir au sein de ce dossier.

 

GeForce GTX Titan

 

« Il y a quelques mois, NVIDIA dévoilait son GK110 : une puce monstrueuse disposant de pas moins de 7,1 milliards de transistors et dédiée à une carte pour serveur, la Tesla K20. Elle arrive désormais sur le marché grand public au sein d'un modèle à la référence qui annonce la couleur : GeForce Titan. Une manière de relancer un marché morose sans trop se forcer, ou un réel produit à ne pas manquer ?

 

NVIDIA propose depuis maintenant près d'un an sa nouvelle architecture : Kepler. Celle-ci a été déclinée ces derniers mois au sein d'une gamme complète : les GeForce 600 et leurs puces GK100. Actuellement, le modèle le plus puissant de l'offre est la GeForce GTX 690 qui est composée de deux GPU (GK104) et annoncée à 999 $. »

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Fermer

Commentaires (61)


prem’s sur la news mais pas prem’s a acheter <img data-src=" />


C’est con qu’ils sortent ça que maintenant, ils auraient fait ça y a 4 mois je l’aurais probablement achetée &gt;.&gt; 6Go de mémoire exploitable, c’est la seule carte capable d’un tel prodige.








bombo a écrit :



C’est con qu’ils sortent ça que maintenant, ils auraient fait ça y a 4 mois je l’aurais probablement achetée &gt;.&gt; 6Go de mémoire exploitable, c’est la seule carte capable d’un tel prodige.







et tu les aurait exploiter avec quoi?





7,1 milliards de transistors







TDP de 250 watts





<img data-src=" /><img data-src=" />


Perso je préfère attendre la sortie des consoles et donc des nouvelles GT700 basé sur ce même GK110 … (Enfin j’espère, les versions impaires de Nvidia ont toujours été mieux que les paires).








al_bebert a écrit :



et tu les aurait exploiter avec quoi?







Mes grosses résolutions et des jeux comme skyrim ou les jeux qui sortiront dans les années à venir ?



Moi je verrai bien un tirage au sort pour les Premium afin de faire gagner la petite cartounette que vous avez reçu… <img data-src=" />





NVIDIA n’autorise pour le moment pas les quelques testeurs à avoir reçu la carte (dont nous ne faisons pas partie) à publier leurs résultats.



<img data-src=" />








bombo a écrit :



Mes grosses résolutions et des jeux comme skyrim ou les jeux qui sortiront dans les années à venir ?







skyrim utilise tant de mémoire graphique que ça ? même en haute résolution ?



il ya un equivalent eyefinity chez nvidia ?



ce n’est pas que je dis que ça sert à rien, je m’étonne c’est tout, car le Go de ma 4890 perso j’ai déjà du mal à le saturé.



par contre le GPU lui ok pour le saturé pas de soucis.










al_bebert a écrit :



il ya un equivalent eyefinity chez nvidia ?





Oui, Surround









bombo a écrit :



C’est con qu’ils sortent ça que maintenant, ils auraient fait ça y a 4 mois je l’aurais probablement achetée &gt;.&gt; 6Go de mémoire exploitable, c’est la seule carte capable d’un tel prodige.





Non y a une 7970Ghz de Sapphire avec 6Go de mémoire et les tests ont montré qu’ils étaient… inutiles même en 5760*1080.

Après pour le futur, sûrement, mais d’ici là, y aura pleins d’autres cartes bien plus efficaces









David_L a écrit :



Oui, Surround





Surround c’est pas pour la 3D sur 3 ecran ? <img data-src=" />









David_L a écrit :



Oui, Surround







merci :)



merci, vivement jeudi pour les tests complets ! <img data-src=" />

j’en profite pour indiquer que le preview de guru3dest très impressionnant aussi, avec plus de détails (températures, bruit, et un chouia sur l’overclockabilité)








snoopy1492 a écrit :



Non y a une 7970Ghz de Sapphire avec 6Go de mémoire et les tests ont montré qu’ils étaient… inutiles même en 5760*1080.

Après pour le futur, sûrement, mais d’ici là, y aura pleins d’autres cartes bien plus efficaces





Sur une configuration Eyefi, environ 10% de gain en passant de 3 à 6Go, mais le truc c’est que c’est une carte bi-GPU, donc la gestion de la mémoire est bien différente.









snoopy1492 a écrit :



Non y a une 7970Ghz de Sapphire avec 6Go de mémoire et les tests ont montré qu’ils étaient… inutiles même en 5760*1080.

Après pour le futur, sûrement, mais d’ici là, y aura pleins d’autres cartes bien plus efficaces





Je ne comprends toujours pas pourquoi tout le monde parle de résolution écran pour les quantités de mémoire…

Le facteur le plus important étant la résolution/qualité et la quantité des textures gérés par le soft (jeu/application).

En 320x200 on peut saturé la RAM en faisant un scène avec que de grosses textures:

4096x4096*64 = 128MB

64=RGB+A+4 autre layers (specular, bump,…)

Donc 60 textures comme ça et les 6GB sont saturés. Sans utilisé des mipmaps.









bombo a écrit :



Mes grosses résolutions et des jeux comme skyrim ou les jeux qui sortiront dans les années à venir ?







J’ai une GTX 680 sur un ecran 2500 x 1400 et cela passe crême pour tous les jeux (Pong, tetris …<img data-src=" />). Une bête pareille sert à mon avis seulement dans les cas d’écran 3D ou multi écrans.



D’un autre coté, si tu veux être tranquille pour les années à venir, là tu devrais être tranquille pour une paire d’années.



Enfin, je trouve que la dernière génération de GPU de chez Nvidia est bien optimisée questions consommation, bruit et refroidissement. J’ai une vieille ati 4890 sur mon 2ieme PC qui fonctionne très bien mais pour des jeux plus sobres.



A.L.



C’est bruyant?








manus a écrit :









Désolé pour toutes les fautes… je n’ai pas relu…









manus a écrit :



Je ne comprends toujours pas pourquoi tout le monde parle de résolution écran pour les quantités de mémoire…

Le facteur le plus important étant la résolution/qualité et la quantité des textures gérés par le soft (jeu/application).

En 320x200 on peut saturé la RAM en faisant un scène avec que de grosses textures:

4096x4096*64 = 128MB

64=RGB+A+4 autre layers (specular, bump,…)

Donc 60 textures comme ça et les 6GB sont saturés. Sans utilisé des mipmaps.





Oui non mais là on parle des jeux classiques comme Skyrim pas de cas particuliers. Et bien souvent, plus la résolution est élevée, plus les besoins en mémoire se font ressentir (après je connais pas le pourquoi technique de la chose, je me base juste sur tous les différents tests sortis qui traite de ce sujet)





Skeeder a écrit :



Sur une configuration Eyefi, environ 10% de gain en passant de 3 à 6Go, mais le truc c’est que c’est une carte bi-GPU, donc la gestion de la mémoire est bien différente.





La 7970Ghz c’est une carte mono-gpu, c’est la 7990 (ou Ares 2) qui est bi-gpu ;)



??? ya des easters eggs dans les news maintenant ? <img data-src=" />








LordZurp a écrit :



??? ya des easters eggs dans les news maintenant ? <img data-src=" />





Fixed ;)









al_bebert a écrit :



skyrim utilise tant de mémoire graphique que ça ? même en haute résolution ?







Sur PC, tu rajouter des mods HD pour rendre l’univers de Skyrim maginifique, tu balance ça sur un haute résolution et tu pleure sur les fps qui font de la chute libre à l’infiniiii….. <img data-src=" />









Leezi a écrit :



Sur PC, tu rajouter des mods HD pour rendre l’univers de Skyrim maginifique, tu balance ça sur un haute résolution et tu pleure sur les fps qui font de la chute libre à l’infiniiii….. <img data-src=" />





Tu veux parler des fps qui tendent vers e (epsilon) ? <img data-src=" />









snoopy1492 a écrit :



Et bien souvent, plus la résolution est élevée, plus les besoins en mémoire se font ressentir (après je connais pas le pourquoi technique de la chose, je me base juste sur tous les différents tests sortis qui traite de ce sujet)





Pour du tri-écran en 1920*1080 et 3D (stéréo):

57601080256*2

379.6875MB de RAM vidéo par image

à 60fps

Soit 22.25GB/s de débit.

256=bits des layers de calcul en fullscreen (RGBA, hdr et autre)



Donc bon ça reste minime pour la mémoire… sinon faut que quelqu’un m’explique.





NVIDIA semble ainsi viser son intégration au sein de Mini PC





En terme de form factor, on est dans le modèle “planche à pain” assez habituels pour la gamme GTX.



Dans un barebone adapté, je veux bien imaginer caser une GTX.



Quand on cherche “mini PC” sur prixdunet, on tombe notamment sur ça, qui coùte 160€ tout mouillé.

Hauteur : 3.8 cm

Largeur : 25.2 cm

Profondeur : 16.2 cm








al_bebert a écrit :



skyrim utilise tant de mémoire graphique que ça ? même en haute résolution ?



il ya un equivalent eyefinity chez nvidia ?



ce n’est pas que je dis que ça sert à rien, je m’étonne c’est tout, car le Go de ma 4890 perso j’ai déjà du mal à le saturé.



par contre le GPU lui ok pour le saturé pas de soucis.







Skyrim dépasse les 3Go de ram avec les mods (texture très haute résolution je suppose), quand on a un très gros matos ça fait toujours de pouvoir profiter à fond des jeux.







Anna Lefeuk a écrit :



J’ai une GTX 680 sur un ecran 2500 x 1400 et cela passe crême pour tous les jeux (Pong, tetris …<img data-src=" />). Une bête pareille sert à mon avis seulement dans les cas d’écran 3D ou multi écrans.



D’un autre coté, si tu veux être tranquille pour les années à venir, là tu devrais être tranquille pour une paire d’années.



Enfin, je trouve que la dernière génération de GPU de chez Nvidia est bien optimisée questions consommation, bruit et refroidissement. J’ai une vieille ati 4890 sur mon 2ieme PC qui fonctionne très bien mais pour des jeux plus sobres.



A.L.







Moi j’ai 31440p, parfois j’me tripe en passant en portrait (~44002560) et je m’inquiète un peu des jeux à venir et des malheureux 3Go de ma 7970.







snoopy1492 a écrit :



Non y a une 7970Ghz de Sapphire avec 6Go de mémoire et les tests ont montré qu’ils étaient… inutiles même en 5760*1080.

Après pour le futur, sûrement, mais d’ici là, y aura pleins d’autres cartes bien plus efficaces







Ouais mais c’est pas celle qui coûte chez pour ce qu’elle fait et qui bouffe 3 slots ? :‘(









bombo a écrit :



Ouais mais c’est pas celle qui coûte chez pour ce qu’elle fait et qui bouffe 3 slots ? :‘(





Si <img data-src=" />

T’as pas qu’une seule 7970 pour tes 3*1440p rassure moi? :transpi

Sinon t’as quoi comme écrans? J’hésite à passer mon eyefinity 31080 en 31440p mais je suis pas sûr que les générations actuelles de cartes (ni même les prochaines) ne suivent correctement…









manus a écrit :



Pour du tri-écran en 1920*1080 et 3D (stéréo):

57601080256*2

379.6875MB de RAM vidéo par image

à 60fps

Soit 22.25GB/s de débit.

256=bits des layers de calcul en fullscreen (RGBA, hdr et autre)



Donc bon ça reste minime pour la mémoire… sinon faut que quelqu’un m’explique.





Ouais mais au-delà de la mémoire necessaire pour stocker l’image, il y a aussi le chargement de toutes les textures necessaires en mémoire car la cg ne va pas aller charger depuis le disque dès qu’elle a besoin de la texture “bois vermoulu” pour représenter une chaise <img data-src=" />

C’est là que skyrim bouffe un max car beaucoup de modes utilisent des textures ultra haute résolution…









bombo a écrit :



Skyrim dépasse les 3Go de ram avec les mods (texture très haute résolution je suppose), quand on a un très gros matos ça fait toujours de pouvoir profiter à fond des jeux.







Moi j’ai 31440p, parfois j’me tripe en passant en portrait (~44002560) et je m’inquiète un peu des jeux à venir et des malheureux 3Go de ma 7970.







Ouais mais c’est pas celle qui coûte chez pour ce qu’elle fait et qui bouffe 3 slots ? :‘(







et on me traite de cingler quand on voie mes 3*243 1080p (sans eyefinity) .. ^^









snoopy1492 a écrit :



Ouais mais au-delà de la mémoire necessaire pour stocker l’image, il y a aussi le chargement de toutes les textures necessaires en mémoire car la cg ne va pas aller charger depuis le disque dès qu’elle a besoin de la texture “bois vermoulu” pour représenter une chaise <img data-src=" />

C’est là que skyrim bouffe un max car beaucoup de modes utilisent des textures ultra haute résolution…





Oui c’est exactement ce que je dis plus haut, la résolution de l’écran n’a pas un impact violent sur la RAM vidéo.

Par contre côté calcul là c’est autre chose.









manus a écrit :



Oui c’est exactement ce que je dis plus haut, la résolution de l’écran n’a pas un impact violent sur la RAM vidéo.

Par contre côté calcul là c’est autre chose.





Ouais mais normalement, en jouant en eyefinity ou surround, tu change le fov, donc plus d’info est affiché à l’écran qu’en simple moniteur, donc plus de texture à charger…

Je pense que ça vient de là…

Mais 6Gb ça reste un peu exagéré, mais vu le prix, il peuvent au moins mettre ça <img data-src=" />









snoopy1492 a écrit :



Si <img data-src=" />

T’as pas qu’une seule 7970 pour tes 3*1440p rassure moi? :transpi

Sinon t’as quoi comme écrans? J’hésite à passer mon eyefinity 31080 en 31440p mais je suis pas sûr que les générations actuelles de cartes (ni même les prochaines) ne suivent correctement…







Non j’en ai deux, une MSI Lightning en “principale” et une 7970 ghz edition, de chez MSI, un peu OC, mais j’ai oublié le model j’crois qu’elle est vendu pour tourner en 1010Mhz et la première en 1070Mhz, faudrait que je check. J’ai pas pris deux Lightning pour avoir un port DVI-DL au cas où.



Honnêtement ça tourne, j’suis pas sûr de gagner tant que ça avec une 3ème.



Sinon l’eyefinity, honnêtement je conseil pas. C’est cool d’avoir 3 écrans, mais de manière générale deux suffisent. Et pour les jeux compatible avec eyefinity, c’est cool y en a plein, mais à chaque fois (quasiment) c’est l’HUD qui pèche, j’te laisse imaginer la vie, le radar, les informations en général qui se retrouve sur les bords gauche/droite des écrans externes (pour illustrer mes propos. Du coup je joue principalement qu’en mode “normal” un seul écran.



Y a aussi un effet “fisheye” que j’exècre, certains aime bien, donc faut voir. Puis bon, les écrans 1440p après c’est pas donné et le rapport gain/prix il est clairement pas là (surtout qu’il faut aussi la machine derrière, j’ai quand 2*7970, ça doit faire ~900€ de GPU + un gros CPU derrière pour assurer le CF).



Pour l’instant avec ma config, y a que farcry 3 qui me fait pêcher, mais il est hyper CPU dépendant ( malgré mes 6 coeurs HT cadencé à 4.4Ghz…) et j’suis obligé de jouer en “moyen” en mode portrait ( aka 4400*2560). Après c’est sûr que ça avait de la gueule, mais bon le bezel des écrans est toujours là pour te ramener sur terre :-)









manus a écrit :



Oui c’est exactement ce que je dis plus haut, la résolution de l’écran n’a pas un impact violent sur la RAM vidéo.

Par contre côté calcul là c’est autre chose.









Franchement ça dépend vraiment des jeux, perso je joue souvent en mode 3portrait, y a des jeux qui scale tout simplement du coup, la c’est vraiment qu’on voit pas grand chose, mais y en a où c’est tout l’inverse et le FoV explose, j’vois le dernier DmC, ça va c’est un jeu console, mais y a un FoV de fou en 44002560, et là faudrait jeter un oeil sur la consommation de mémoire.









al_bebert a écrit :



et on me traite de cingler quand on voie mes 3*243 1080p (sans eyefinity) .. ^^







J’avoue, tu verrais la gueule de mon bureau, c’est assez massif 3 écrans 27”, et encore, j’aurais pu partir sur du 30” pour bénéficier du 16/10ème ^^’









bombo a écrit :



Non j’en ai deux, une MSI Lightning en “principale” et une 7970 ghz edition, de chez MSI, un peu OC, mais j’ai oublié le model j’crois qu’elle est vendu pour tourner en 1010Mhz et la première en 1070Mhz, faudrait que je check. J’ai pas pris deux Lightning pour avoir un port DVI-DL au cas où.



Honnêtement ça tourne, j’suis pas sûr de gagner tant que ça avec une 3ème.



Sinon l’eyefinity, honnêtement je conseil pas. C’est cool d’avoir 3 écrans, mais de manière générale deux suffisent. Et pour les jeux compatible avec eyefinity, c’est cool y en a plein, mais à chaque fois (quasiment) c’est l’HUD qui pèche, j’te laisse imaginer la vie, le radar, les informations en général qui se retrouve sur les bords gauche/droite des écrans externes (pour illustrer mes propos. Du coup je joue principalement qu’en mode “normal” un seul écran.



Y a aussi un effet “fisheye” que j’exècre, certains aime bien, donc faut voir. Puis bon, les écrans 1440p après c’est pas donné et le rapport gain/prix il est clairement pas là (surtout qu’il faut aussi la machine derrière, j’ai quand 2*7970, ça doit faire ~900€ de GPU + un gros CPU derrière pour assurer le CF).



Pour l’instant avec ma config, y a que farcry 3 qui me fait pêcher, mais il est hyper CPU dépendant ( malgré mes 6 coeurs HT cadencé à 4.4Ghz…) et j’suis obligé de jouer en “moyen” en mode portrait ( aka 4400*2560). Après c’est sûr que ça avait de la gueule, mais bon le bezel des écrans est toujours là pour te ramener sur terre :-)







Perso je joue qu’en eyefinity portrait, donc les problèmes de hud je les vois pas trop, mais je suis en 23” FHD, en 27” portrait ça peut changer les choses niveau HUD (surtout qu’il sera plus petit…).

Bref je me tâte encore, je vais déjà me prendre deux 7970 Ghz le mois prochain, je verrai comment ça tourne, et je pense que je ne changerai d’écrans qu’une fois évalué le besoin réel <img data-src=" />

Sinon le scaling en tri-fire de 7970 est plutôt pas mal (j’ai hésité un temps <img data-src=" />), je prendrai la carte mère qu’il faut pour pouvoir upgrader plus tard quand le PC passera sous Haswell <img data-src=" />









manus a écrit :



Oui c’est exactement ce que je dis plus haut, la résolution de l’écran n’a pas un impact violent sur la RAM vidéo.

Par contre côté calcul là c’est autre chose.





L’activation de certains aliasings peut très bien augmenter de manière drastique la mémoire vidéo, de manière proportionnelle à la résolution









snoopy1492 a écrit :



Perso je joue qu’en eyefinity portrait, donc les problèmes de hud je les vois pas trop, mais je suis en 23” FHD, en 27” portrait ça peut changer les choses niveau HUD (surtout qu’il sera plus petit…).

Bref je me tâte encore, je vais déjà me prendre deux 7970 Ghz le mois prochain, je verrai comment ça tourne, et je pense que je ne changerai d’écrans qu’une fois évalué le besoin réel <img data-src=" />

Sinon le scaling en tri-fire de 7970 est plutôt pas mal (j’ai hésité un temps <img data-src=" />), je prendrai la carte mère qu’il faut pour pouvoir upgrader plus tard quand le PC passera sous Haswell <img data-src=" />







Le scaling est correct en tri, mais le truc c’est que mes cartes souffrent pas plus que ça pour l’instant :-)



Sinon l’eyefinity portrait, c’est vraiment sympa, j’préfère perso, avec mes écrans et leur résolutions j’ai l’impression d’avoir une fenêtre ouverte sur le monde virtuel, c’est vraiment incroyable je trouve. MAIS il y a se problème de bezel qui me dérange vraiment, j’ai 3 Asus PB278Q, les bezels sont trop gros, et trop épais en profondeur pour que ce soit véritablement intéressant de les superposer. J’en ai démonté un pour voir et je peux pas retirer le plastique sans faire un peu de bricolage pour fixer la dalle sur la partie arrière relié au VESA, donc pour l’instant, tant que je me motive pas, j’utilise pas trop.









snoopy1492 a écrit :



Perso je joue qu’en eyefinity portrait, donc les problèmes de hud je les vois pas trop, mais je suis en 23” FHD, en 27” portrait ça peut changer les choses niveau HUD (surtout qu’il sera plus petit…).

Bref je me tâte encore, je vais déjà me prendre deux 7970 Ghz le mois prochain, je verrai comment ça tourne, et je pense que je ne changerai d’écrans qu’une fois évalué le besoin réel <img data-src=" />

Sinon le scaling en tri-fire de 7970 est plutôt pas mal (j’ai hésité un temps <img data-src=" />), je prendrai la carte mère qu’il faut pour pouvoir upgrader plus tard quand le PC passera sous Haswell <img data-src=" />







vous êtes juste des grand malade.



je part cacher mon pauvre phenom II 965BE ses 4 pauvres Go de ram et sa vielle 4890 ^^










Skeeder a écrit :



L’activation de certains aliasings peut très bien augmenter de manière drastique la mémoire vidéo, de manière proportionnelle à la résolution







Mais à haute résolution (aka 1440p+) on a beaucoup moins besion d’anti-aliasing, il devient difficile de distinguer un FSAA activer ou non, ça prend énormément de ressource pour un effet assez ridicule (comparé au gain en 1080p). En général je me contente d’un MSAAx2 et ça fait largement le taf.









snoopy1492 a écrit :



Perso je joue qu’en eyefinity portrait, donc les problèmes de hud je les vois pas trop, mais je suis en 23” FHD, en 27” portrait ça peut changer les choses niveau HUD (surtout qu’il sera plus petit…).

Bref je me tâte encore, je vais déjà me prendre deux 7970 Ghz le mois prochain, je verrai comment ça tourne, et je pense que je ne changerai d’écrans qu’une fois évalué le besoin réel <img data-src=" />

Sinon le scaling en tri-fire de 7970 est plutôt pas mal (j’ai hésité un temps <img data-src=" />), je prendrai la carte mère qu’il faut pour pouvoir upgrader plus tard quand le PC passera sous Haswell <img data-src=" />









Oubli: Pour l’HUD en portrait, non c’est pas vraiment gênant, y a que le haut de l’écran qui peut être laborieux à atteindre avec les yeux vu la hauteur de l’écran, mais bon, tu joues pas vraiment à 50cm non plus vu la taille, donc c’est pas la mort, beaucoup, largement moins gênant que l’eyefinity paysage :-)









bombo a écrit :



Mais à haute résolution (aka 1440p+) on a beaucoup moins besion d’anti-aliasing, il devient difficile de distinguer un FSAA activer ou non, ça prend énormément de ressource pour un effet assez ridicule (comparé au gain en 1080p). En général je me contente d’un MSAAx2 et ça fait largement le taf.







Cela dépend. Sur un 27” FHD, j’aurai tendance à mettre du 4x, sur un 30” 1600p, un 2x est effectivement souvent suffisant.









bombo a écrit :



Le scaling est correct en tri, mais le truc c’est que mes cartes souffrent pas plus que ça pour l’instant :-)



Sinon l’eyefinity portrait, c’est vraiment sympa, j’préfère perso, avec mes écrans et leur résolutions j’ai l’impression d’avoir une fenêtre ouverte sur le monde virtuel, c’est vraiment incroyable je trouve. MAIS il y a se problème de bezel qui me dérange vraiment, j’ai 3 Asus PB278Q, les bezels sont trop gros, et trop épais en profondeur pour que ce soit véritablement intéressant de les superposer. J’en ai démonté un pour voir et je peux pas retirer le plastique sans faire un peu de bricolage pour fixer la dalle sur la partie arrière relié au VESA, donc pour l’instant, tant que je me motive pas, j’utilise pas trop.





Ouais les bezels sont épais sur celui-là (et encore y a bien pire) mais c’est juste impossible de trouver un bon écran avec un bezel inferieur fin (y en a avec des bezels fins sur les côtés mais pour le portrait on s’en fout <img data-src=" />)

Le Must :

http://www.overclock.net/t/591413/official-ati-amd-eyefinity-club/2210#post_1759… <img data-src=" />



Le problème du Tri-écran, ce n’est pas d’avoir une bête de combat qui roxxe du poney mais …

de faire accepter à sa belle les 3 “verrues” accrocher au mur (mon bureau étant dans le salon).

J’ai dû vendre mon âme et lui promettre un beau mariage pour pas me prendre un coup de massue: Je crois au final que question négociation, je ne me sois encore fait avoir….elles sont trop fortes, je vous dit <img data-src=" />








Anna Lefeuk a écrit :



Le problème du Tri-écran, ce n’est pas d’avoir une bête de combat qui roxxe du poney mais …

de faire accepter à sa belle les 3 “verrues” accrocher au mur (mon bureau étant dans le salon).

J’ai dû vendre mon âme et lui promettre un beau mariage pour pas me prendre un coup de massue: Je crois au final que question négociation, je ne me sois encore fait avoir….elles sont trop fortes, je vous dit <img data-src=" />





Hihi ouais je tente même pas le eyefinity dans le salon, trop peur <img data-src=" />

Dans le salon, j’ai pris un boitier HTPC à très haut WAF <img data-src=" />









snoopy1492 a écrit :



Ouais les bezels sont épais sur celui-là (et encore y a bien pire) mais c’est juste impossible de trouver un bon écran avec un bezel inferieur fin (y en a avec des bezels fins sur les côtés mais pour le portrait on s’en fout <img data-src=" />)

Le Must :

http://www.overclock.net/t/591413/official-ati-amd-eyefinity-club/2210#post_1759… <img data-src=" />







Yep je connais très bien CallSignVega, j’ai fait quelques recherches avant d’investir quand même :-p



Le souci c’est que ce sont des samsung difficilement trouvable chez nous et j’ai étudié les pour et les contre du 523” ou 327”, et vu que je peux utiliser mon PC pour faire d’autre choses que du jeu, j’ai opté pour avoir un espace exploitable en bureautique aussi :-)



Sinon en 1440p 27” ou 1600p 30”, niveau bezel, c’est pas comme si on avait beaucoup de choix :‘( j’ai pris le miens pour l’input lag relativement plus faible que les autres (hors écrans coréens) qui est quand même important quand on joue à des FPS. Sinon niveau couleur c’est assez bluffant quand même, sur des jeux comme farcry 3 qui se déroule en plein nature, ça change pas mal la donne.









bombo a écrit :



Yep je connais très bien CallSignVega, j’ai fait quelques recherches avant d’investir quand même :-p



Le souci c’est que ce sont des samsung difficilement trouvable chez nous et j’ai étudié les pour et les contre du 523” ou 327”, et vu que je peux utiliser mon PC pour faire d’autre choses que du jeu, j’ai opté pour avoir un espace exploitable en bureautique aussi :-)



Sinon en 1440p 27” ou 1600p 30”, niveau bezel, c’est pas comme si on avait beaucoup de choix :‘( j’ai pris le miens pour l’input lag relativement plus faible que les autres (hors écrans coréens) qui est quand même important quand on joue à des FPS. Sinon niveau couleur c’est assez bluffant quand même, sur des jeux comme farcry 3 qui se déroule en plein nature, ça change pas mal la donne.





C’est dommage pour les bezels, car ils nous sortent tous des TV gigantesques sur lesquelles c’est à peine si tu cherche pas le bezel, mais en moniteur, on a souvent des tanks…

Je vais attendre un peu, les prix se tassent sur le 27 1440p, et avec sa démocratisation, on aura peut-être des designs plus “fins”









snoopy1492 a écrit :



C’est dommage pour les bezels, car ils nous sortent tous des TV gigantesques sur lesquelles c’est à peine si tu cherche pas le bezel, mais en moniteur, on a souvent des tanks…

Je vais attendre un peu, les prix se tassent sur le 27 1440p, et avec sa démocratisation, on aura peut-être des designs plus “fins”







Je pense que le problème sur les écrans d’ordinateur c’est qu’ils sont réglable en hauteur/rotation/… j’imagine que c’est la cause des plastiques proéminent.









snoopy1492 a écrit :



Hihi ouais je tente même pas le eyefinity dans le salon, trop peur <img data-src=" />

Dans le salon, j’ai pris un boitier HTPC à très haut WAF <img data-src=" />









Je ne sais pas pour toi mais l’importance du WAF dans mon cas est proportionnel à la taille de la massue de ma femme.



J’ai aussi du vendre mon âme (OK pour un deuxième enfants <img data-src=" />) pour installer des prises éthernet des les pièces de la maison “Mais c’est moche tes trucs !!!!”. Heureusement que je me suis calmer questions projets informatiques car je n’ose pas imaginer ce qu’elle me demandera la prochaine fois



A.L.









bombo a écrit :



Je pense que le problème sur les écrans d’ordinateur c’est qu’ils sont réglable en hauteur/rotation/… j’imagine que c’est la cause des plastiques proéminent.





Peut-être ouais, mais on est quand même en droit d’attendre mieux…

Iiyama a des 24” avec des bezels fins (mais du Tn…) réglable dans tous les sens donc ça doit être possible même en 27” 1440p…





Pour les adeptes de calcul plus que de jeux, NVIDIA a rajouté une option au sein de ses pilotes, dédiée à débrider les unités gérant la double précision. Le GK110 en intègre 64 par SMX et elles fonctionnent en temps normal à 1/8ème de la fréquence nominale. Le rapport entre les opérations en simple et en double précision est ainsi de 124.



Mais une fois cette option activée, la pleine fréquence est utilisée pour ces unités, permettant de profiter à plein des performances de ce monstre pour les applications exploitant l’OpenCL ou CUDA par exemple. Attention néanmoins, le reste de la carte fonctionne alors à une fréquence réduite, les performances dans les jeux pouvant s’en ressentir.







Ceci veut-il dire que sur les GK106/104 sont bridées par le driver et non par le hard ? Une option “logicielle” pourrait augmenter les perfs en double precision des ces cartes alors ? PC-I a-t-il des infos sur ce point précis ? Version du driver ? Est-ce également vrai dans la version Linux des drivers Nvidia ?


7,1 Milliards de transistor dans un seul GPU… ça commence à faire.

Si on me la donne, je refuses pas ^^


Ok en bench’s elle donne quoi <img data-src=" />


Je serai curieux de voir des tests dans le cadre d’attaque par force brute (ou autre méthodes) pour retrouver les mots de passe perdus de fichier personnels?



I have a dream



A.L.








Anna Lefeuk a écrit :



Je serai curieux de voir des tests dans le cadre d’attaque par force brute (ou autre méthodes) pour retrouver les mots de passe perdus de fichier personnels?



I have a dream



A.L.





Voilà ce que donne un tesla k20 qui est la base de cette titan (la titan est légèrement moins puissante car certains éléments ont été tronqués) :

http://www.brightsideofnews.com/print/2013/2/7/elcomsoft-nvidia-tesla-k20-beats-…



Quelle peut être la durée de fonctionnement d’une telle carte graphique high end (sans trop la pousser dans un système de qualité, notamment avec alim et mobale choisies pour durer) ?



Parce que s’il est possible d’envisager de bons et loyaux services pendant, mettons, une quinzaine d’années, alors il ne serait pas absurde d’investir dans ce qui paraît aujourd’hui comme un produit destiné aux gamers invétérés et fortunés (un produit de luxe, donc) : sur 15 ans, cela reviendrait à renouveler tous les 5 ans une (bonne) carte de milieu de gamme à 300 €.



Est-ce envisageable ?








picoteras a écrit :



Quelle peut être la durée de fonctionnement d’une telle carte graphique high end (sans trop la pousser dans un système de qualité, notamment avec alim et mobale choisies pour durer) ?



Parce que s’il est possible d’envisager de bons et loyaux services pendant, mettons, une quinzaine d’années, alors il ne serait pas absurde d’investir dans ce qui paraît aujourd’hui comme un produit destiné aux gamers invétérés et fortunés (un produit de luxe, donc) : sur 15 ans, cela reviendrait à renouveler tous les 5 ans une (bonne) carte de milieu de gamme à 300 €.



Est-ce envisageable ?





Non, la carte n’a que peu d’intérêt hormis pour les bencheurs ou ceux qui veulent le plus pour n’importe quel prix (je retire le cas du PC mini-itx)

Car un sli de 680 ou un crossfire de 7970 ghz sera plus performant pour bien moins cher…



Et dans tout les cas 15ans, non clairement pas possible.

Une 7970, on pourra sûrement la garder 5 ans, la titan 7 ans sûrement.

Mais dans tous les cas pour qui n’a pas besoin de grosse puissance dès le départ, mieux vaut changer tous les 3 ans En partant sur une carte milieu de gamme style 7870xt et changer plus régulièrement ;)

Car dépenser 200€ dans une carte tous les 3 ans, ça te coûtera aussi 1000€ sur 15 ans, je mais ta carte achetée en 2025 sera à des années lumière de la titan. Bref t’aura une belle progression toutes les 3 années, plutôt qu’une grosse augmentation puis ça reste stable.. Sachant que les deux courbes se croiseront d’ici 3-4 ans…









snoopy1492 a écrit :



Voilà ce que donne un tesla k20 qui est la base de cette titan (la titan est légèrement moins puissante car certains éléments ont été tronqués) :

http://www.brightsideofnews.com/print/2013/2/7/elcomsoft-nvidia-tesla-k20-beats-…









Merci Snoopy pour l’info

Cela répond à ma question

A.L.









picoteras a écrit :



Quelle peut être la durée de fonctionnement d’une telle carte graphique high end (sans trop la pousser dans un système de qualité, notamment avec alim et mobale choisies pour durer) ?



Parce que s’il est possible d’envisager de bons et loyaux services pendant, mettons, une quinzaine d’années, alors il ne serait pas absurde d’investir dans ce qui paraît aujourd’hui comme un produit destiné aux gamers invétérés et fortunés (un produit de luxe, donc) : sur 15 ans, cela reviendrait à renouveler tous les 5 ans une (bonne) carte de milieu de gamme à 300 €.



Est-ce envisageable ?







Ta question est intéressante.

Je dirai que quelque soit la puissance 5-7 sera un max.



Je m’explique: Je ne sais pas si il est encore possible de profiter des applis actuelles diverses avec un pc vieux de 15 ans. Même si la carte (question puissance pure n’est pas pret d’être obsolète), tout l’environnement de ton PC (Connectique, interfaces de transfert de données, CPU, disques durs) ont une durée de vie limitée au regard des nouveaux standards à venir. 15 ans me semble ainsi beaucoup.



J’ai bossé 12 ans dans les réseaux informatiques (câblages informatiques ) et c’était une hérésie de la part des fabricants de vendre des systèmes “fermés”qui au passage t’oblige à acheter 2 fois plus cher TOUS les éléments de ton câblage pour avoir une garantie “bidon”de 15 à 25 ans.Lorsque je demandais le contrat de garantie, 80% des fabricants ne te la donnaient jamais car la garantie n’existait pas (bien qu’ils la vendent) et dans les 20% restants, le contrat de garantie stipulait “Si une fois installé, tu ne touches à rien pendant 15 ans, que tu ne changes aucun composant, alors tu as le droit à ta garantie. Ce qui implique, dans le cas d’un réseau d’entreprise que ton réseau fonctionnera sur du 100 ou 1000 megabits (standard actuel) dans 15 ans alors que dans un même temps on peut réver à avoir du Terrabit en débit standard pour le réseau dans 15 ans. Bref question productivité ce sera très moyen.



A.L.

et tu serai ainsi dans la situation



En tout cas ce sera pas fait par des ouvriers Français, si ça s’appelle Titan <img data-src=" />








snoopy1492 a écrit :



Non, la carte n’a que peu d’intérêt hormis pour les bencheurs ou ceux qui veulent le plus pour n’importe quel prix (je retire le cas du PC mini-itx)







Perso, je vois plutôt cette carte pour les infographistes amateurs/freelance…



Si elle tient ses promesses, avec ses 6Go de ram, elle devrait, par exemple, être LA carte à avoir quand on fait du rendu Cycles dans Blender.





Si elle tient ses promesses, avec ses 6Go de ram, elle devrait, par exemple, être LA carte à avoir quand on fait du rendu Cycles dans Blender.





Si les perfs de DP sont bien celles annoncees, elle pourrait egalement etre tres interessante comme carte acceleratrice avec CUDA et/ou OpenCL et la c’est pas mal d’applications metiers que cela concerne (Photoshop, Maya, Matlab, Mathematica…) et pour un prix pas si eleve que ca au final au vue des specs. Mais j’aimerais que PCI nous eclaire sur cette question du bloquage des capacites DP controlle par le driver…Des infos precises la dessus ? Quid des GK106/104 ?