Assemblons notre machine pour tester des cartes graphiques (entre autres)

Assemblons notre machine pour tester des cartes graphiques (entre autres)

Y'a mêmes des LED !

Avatar de l'auteur
David Legrand

Publié dans

Hardware

10/05/2019 6 minutes
31

Assemblons notre machine pour tester des cartes graphiques (entre autres)

Tester des cartes graphiques, c'est bien, mais avec quelle machine le faire ? Nous avons décidé d'opter pour un ordinateur tel que n'importe quel joueur pourrait le monter. Voici nos choix et nos explications, avant une nouvelle série de tests des derniers GPU du moment. 

Récemment nous vous avons fait découvrir deux machines qui nous servent quotidiennement au labo : celle que nous avons montée dans le cadre d'une série d'articles à venir sur les NAS puis notre serveur tour plutôt utilisé pour la virtualisation et nos analyses via différents systèmes d'exploitation.

Mais qu'en est-il des tests ? En effet, pour analyser les différents composants d'un ordinateur, il nous faut des machines types sur lesquelles les monter. Parfois, c'est un assemblage à usage unique sur un banc de test, mais à d'autres moments il faut un ordinateur complet que nous utilisons dans la durée.

C'est le cas pour les tests de cartes graphiques, où nos essais se font dans une machine classique, boîtier fermé, afin de reproduire les conditions d'utilisations d'un joueur lambda. Elle est connectée à une TV 4K afin de pouvoir utiliser n'importe quelle définition, installée sous Windows 10 dans sa dernière version. Mais de quoi se compose-t-elle ?

Ne pas tomber dans le piège de la machine ultime

Pour ce genre d'analyse, il y a deux écoles. La première consiste à utiliser le meilleur des composants du moment pour ne souffrir d'aucune limitation. De quoi éliminer certains comportements où le CPU peut être une limite dans telle ou telle situation extrême, mais elle a le désavantage de ne pas représenter la réalité, surtout sur le milieu de gamme.

En effet, rares seront ceux ayant une machine avec le CPU le plus performant du moment, 32 Go de DDR4 aux fréquences folles, le tout avec un système stocké sur une batterie de SSD Optane. Nous avons donc opté pour une machine intermédiaire, de bonne composition mais sans excès. Budget : 1 000 euros hors carte graphique.

Les modèles très haut de gamme seront analysés sur un autre système de type station de travail, avec un protocole différent puisqu'il devra aussi s'intéresser à des usages professionnels (calcul, rendu 3D, etc.).

Quel processeur choisir ?

Côté processeur, nous voulions un nombre suffisant de cœurs (donc supérieur à quatre), avec une fréquence importante pour être paré à toute situation, que les jeux soient ou non fortement multi-threadés. Nous avons donc opté pour un Core i5-9600K, commandé un peu moins de 300 euros

Il doit se contenter de six cœurs/threads mais grimpe à 4,6 GHz, n'est pas aussi abordable qu'un Ryzen d'AMD équivalent (qui permet d'avoir 8C/16T pour ce prix), mais nous permet de diversifier l'équipement du labo. Votre choix pourra bien entendu être différent, surtout si vous avez besoin de puissance CPU brute pour du calcul/rendu. Ce n'est pas notre cas.

Nous l'avons accompagné de 2x 8 Go de DDR4 Corsair. Il s'agit d'un kit Vengeance RGB (c'est une machine de joueur !) cadencé à 2,67 GHz via un profil XMP, disponible pour 110 euros environ

Modèle « K » oblige, il était livré sans ventilateur. Nous avons donc commandé un simple BeQuiet! Pure Rock Slim vendu 25 euros, suffisant pour le refroidir de manière silencieuse alors qu'il n'est pas overclocké.

Machine Gaming 2019Machine Gaming 2019

Carte mère et stockage : d'autres tests en tête

Pour la carte mère, nous avons opté pour un modèle de compromis là encore afin de rester dans un budget correct avec la B360M D3P de Gigabyte, testée récemment dans nos colonnes et que nous avons payé moins de 90 euros. Au format micro ATX elle permet un usage dans une machine compacte, ce qui était l'un de nos critères. 

Elle dispose de nombreux ports S-ATA, mais aussi d'un connecteur M.2 (S-ATA/PCIe 3.0 x4), avec des ports USB 3.1 (10 Gb/s) Type-A et Type-C. Elle pourra donc aussi être utilisée pour analyser les performances de clés USB, HDD et autres SSD dans différents formats. Nous pouvons également retirer la carte graphique, utiliser l'IGP du processeur et y tester des cartes PCIe nécessitant un port 3.0 allant jusqu'à x16 si nécessaire. 

Pour le stockage, nous avons décidé de prévoir large, c'était ainsi un gros point d'investissement de cette machine. Le SSD M.2 est un 970 EVO de Samsung d'une capacité de 512 Go. Nous l'avons complété avec un HDD Western Digital Black de 4 To, qui a l'avantage de dépasser un débit de 200 Mo/s en séquentiel. Coût de l'ensemble 350 euros.

Aucune redondance n'est présente, des sauvegardes régulières étant effectuées sur un NAS présent sur le réseau. Notez que la carte mère dispose d'un port PCIe 3.0 x4 en bas de son PCB, permettant d'utiliser une carte réseau à 10 Gb/s, ce qui peut être nécessaire lorsque nous avons de gros transferts de fichiers à effectuer.

Boîtier et alimentation : petit mais costaud

Le montage a été effectué dans un boîtier MasterBox Lite 3.1 TG de Cooler Master, payé 50 euros. Comme le Versa H17 de Thermaltake utilisé pour notre précédent projet, il est compact mais peut accueillir de grandes cartes graphiques. Il est un peu plus complexe à monter, notamment du fait de ses ouvertures en haut du panneau arrière qui sont moins pratiques, mais son look est plus « Gaming friendly » avec son panneau en verre trempé, bien que dépourvu de ventilateurs RGB. 

Nous n'avons pas ajouté de ventilation pour le moment, restant sur le simple modèle de 120 mm intégré à l'arrière. L'alimentation est également un modèle de Cooler Master, mais que nous avions sous le coude au labo depuis quelques années déjà. Il s'agit d'une Silent Pro Gold de 600 watts, un modèle modulaire permettant de gérer n'importe quelle carte graphique sans problème. Un modèle équivalent se trouve pour 90 euros environ.

Quel coût total ?

Au final, la machine nous a coûté un tout petit peu plus de 1 000 euros, hors carte réseau 10 Gb/s. Pour cette dernière, comptez 100 euros environ pour un modèle XG-C100C d'ASUS (RJ45) ou 150 euros pour une Intel X520-DA2 (2x SFP+).

L'ensemble est compact, plutôt silencieux et reste frais. Tout dépend bien entendu des réglages de la carte mère, notamment pour la ventilation où tout peut être paramétré dans l'UEFI. On peut y utiliser n'importe quelle carte graphique du moment, même des modèles haut de gamme bien que ce ne soit pas notre objectif.

Attention tout de même à adapter la ventilation du boîtier, surtout si vous utilisez le CPU/GPU de manière continue pour des calculs par exemple, afin d'assurer un flux d'air correct. Côté consommation, avec une GeForce GTX de la série 16xx nous restons à 31 watts au repos ce qui est plutôt correct. Plus de détails, très bientôt.

Machine Gaming 2019 Tableau

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Ne pas tomber dans le piège de la machine ultime

Quel processeur choisir ?

Carte mère et stockage : d'autres tests en tête

Boîtier et alimentation : petit mais costaud

Quel coût total ?

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (31)


Jacky Inpact Hardware Bonjour
Nous écoutons votre question !



Je suis toujours abasourdi par le ratio place libre/occupé dans un pc.
Les cartes vidéo et les ventilateurs pour les processeurs sont XXL,
Penses tu que dans le futur qu’il y aura du mieux ? Sommes nous prisonniers du format ATX ?


Gamer = RGB ?
Si c’est de l’humour, il vaudrait mieux le dire :ouioui:


Le mini ITX semble déjà passé de mode… C’est bien dommage.
Même les ventilateurs CPU explose en taille!



Le marché actuel c’est la giga tour full rgb pour une ambiance disco!



Dommage que vous n’ayez pas opté pour un R2600 😁. Ça m’aurait facilité la vie.



Sinon si vous pouviez un jour faire un comparatif ou récapitulatif à partir d’autres test des GPU ITX ça serait top.



LouisDuXVII a dit:





Ici c’est du Mini ATX. Mais il y a tout de même de la “perte de taille”. Le souci d’un boîtier c’est qu’il doit pouvoir s’adapter à différents usages pour se vendre. Donc même ici tu as de la place pour des HDD complémentaires, du watecooling, de la ventilation, des cartes graphiques très longues, etc.



Voir notre précédent article sur l’évolution des boîtiers et du stockage.




Nerg34 a dit:





Je n’aime pas trop raisonner en terme de mode ou pas. Le Mini ITX correspond à certains besoins, pas à d’autres. Il y a des ventilateurs pour des machines compactes, d’autres pour des designs plus classiques. On peut vouloir un ensemble silencieux, performant, ou ni l’un/l’autre. Chacun voit midi à sa porte et il y a des gammes de produits assez diversifiées.



Tu parles de Giga-tour, le modèle ici est plutôt du compact Mini ATX, donc je vois mal le rapport. Pour le RGB, ce n’était pas un critère, on peut s’en passer ou pas également (voir nos choix pour la machine serveur tour notamment). Je comprends mal ce que tu entends par GPU ITX par contre ?


A une époque les cartes graphiques à PCB court ont souvent été présentées comme GPU ITX.
C’était le cas de la R9 Nano ou de la GTX 960 Mini.



(quote:41465:Old Bear)




Il n’y a pas forcément besoin d’une référence spécifique, pas mal de cartes sont compactes (< 2017 cm) par nature, même si les constructeurs rallongent pour les clients qui sont assez bêtes pour croire que plus c’est gros mieux c’est :D).



Je doute qu’il y ait besoin d’un PC au format particulier pour tester ces cartes, même si j’aimerai bien disposer d’une machine Mini ITX à petit prix pour compléter celle-ci. Mais je bute encore sur le boîtier, je ne trouve pas exactement ce qui me plait pour le moment.


Pour le minITX, le moins cher avec possibilité d’un accès relativement facile pour des tests, ce doit être le Thermaltake Core V1 [boitier que je n’ai pas envisagé à cause de son format en cube].


Quel raison pour ne pas avoir pris un “boitier” benchmark ouvert type Lianli PC-T60B pour faciliter l’accès au composants ?



Paraplegix a dit:


Quel raison pour ne pas avoir pris un “boitier” benchmark ouvert type Lianli PC-T60B pour faciliter l’accès au composants ?




A mon avis, le problème avec ce genre de bancs de tests c’est qu’ils ne sont pas représentatifs d’un boîtier normal :




  • Au niveau du flux d’air, dans un boîtier “normal”, ça chauffe à l’intérieur au fil des minutes, et donc en utilisation prolongée les performances peuvent (éventuellement) baisser.



  • Au niveau du bruit, un composant qui est un peu bruyant boîtier ouvert peut devenir acceptable une fois le boîtier fermé. Inversement, si ça chauffe trop à l’intérieur, les ventilos peuvent s’emballer et devenir pénibles.



Merci beaucoup pour l’article, ça fait toujours plaisir d’avoir des config actuelle avec de l’argumentation.
vu que ça parle compacité dans le commentaire, moi ce qui m’embête c’est les broche d’alimentation atx.
il est pas normal que ça n’ai pas évolué depuis le temps.
quand on voit qu’une mini config itx peut se contenter d’un mini connecteur avec alim externe et des qu’on passe à une alim normal pouf un connecteur 24 broche et un autre quatre broches super mal placé sur les carte mère



Paraplegix a dit:


Quel raison pour ne pas avoir pris un “boitier” benchmark ouvert type Lianli PC-T60B pour faciliter l’accès au composants ?




Deuxième phrase de l’article ^^



Paraplegix a dit:


Quel raison pour ne pas avoir pris un “boitier” benchmark ouvert type Lianli PC-T60B pour faciliter l’accès au composants ?




J’utilise moi même une table de benchmark Dimastech MINI dans un rack et j’utilise des panneaux pour simuler un boitier fermé, ça reste une “simulation” et l’écart de T° avec un vrai boitier fermé, par exemple le Silverstone LC17 juste à côté est importante.



Un des soucis avec les cartes graphiques c’est qu’en général, elle chauffe plus que le processeur et ne font pas l’objet d’autant de soins pour être refroidies.
C’est un vrai problème à traiter dans un boitier compact.



David_L a dit:


Il n’y a pas forcément besoin d’une référence spécifique, pas mal de cartes sont compactes (< 2017 cm) par nature, même si les constructeurs rallongent pour les clients qui sont assez bêtes pour croire que plus c’est gros mieux c’est :D).Je doute qu’il y ait besoin d’un PC au format particulier pour tester ces cartes, même si j’aimerai bien disposer d’une machine Mini ITX à petit prix pour compléter celle-ci. Mais je bute encore sur le boîtier, je ne trouve pas exactement ce qui me plait pour le moment.




Pour le boitier, moi j’ai un Cooler Master Elite 110 si ça paut t’orienter… :mad2:


Mouais …. habitué aux tests de HFR, je ne suis pas du tout convaincu par cette politique d’utiliser un pc qui ressemble à Mr tout le monde.
Ce n’est pour moi qu’un prétexte pour limiter les couts et éventuellement éluder certains tests.




  1. Comme tu l’indiques dans un de tes commentaires, il y a tout un tas de besoins différents, et je doute qu’on puisse parler de config “standard”
    D’ailleurs alors meme que tu nous vends ce principe de pc standard, il est déjà question d’un matos spécifique pour les cartes high end … comment se tirer dans les pieds en 2 sec …



  2. L’intérêt d’un bench est de savoir justement quelles sont les performances max d’un composant afin de s’adapter à ses besoins dans ses conditions personnelles.
    Car ceux qui choisissent leurs composants à la main dans une tour qu’ils vont monter à la main (ou faire monter éventuellement) sont suffisamment intelligents et au courant pour savoir que les performances d’un materiel X sur une table de bench seront probablement légèrement moindres dans un vrai PC. D’autant plus qu’il y a déjà la variation de base entre les échantillons, sans parler des versions “presses” boostées par rapport aux versions grand public.



  3. D’autre part votre choix rend impossible le fait de vérifier l’influence d’un composant si on le fait varier sur une config fixe tout en gardant un environnement identique pour le reste :





  • Variation des processeurs en gardant tout le reste identique => permet de visualiser le processeur minimal pour arriver à alimenter une CG et donc ne plus etre limité par le CPU (et ne me parlez pas de faire varier le nombre de coeurs / freq, l’architecture reste importante !)

  • Variation des CG en gardant tout le reste identique. (certes plus facile a effectuer que le test du dessus car le slot PCIe est commun à toutes les CG contrairement au socket, mais limite quand meme les choix)
    Avec votre choix, il sera impossible de faire ce genre de tests très intéressants comme le faisait HFR.


Je suis d’accord avec mon vdd. Vouloir partir sur une machine standardisée va de facto éliminer énormément de cas car ces ordinateurs sont par essences non standards. De plus ça ne rend pas compte de ce que la carte est réellement capable de faire (selon le modèle ofc).



Je trouve un test synthétique plus parlant, au moins on sait qu’on est dans l’hypothétique.


Les Benchmark y’en a plein le net. Peut être est ce l’occasion de faire autre chose?



Alderic a dit:





Il n’y a pas de prétexte ici, si on voulait tester sur du 9900K on pourrait le faire sans problème. Sauf que de mon point de vue, tester une 1660 sur un 9900K, c’est complètement débile, c’est donc ce que je cherche principalement à éviter.



Tu peux être d’un avis différent, ça me va (et je n’ai pas pour habitude de calquer mes protocoles sur ce qui se fait ou se faisait ailleurs). L’idée est de proposer des tests concrets, reproductibles et qui reflètent ce que l’utilisateur rencontrera avec sa machine.



BTW, on focalise beaucoup sur le CPU dans les tests GPU, le plus souvent à tort du fait de certains tests CPU qui sont fait dans les jeux avec des paramètres assez bas pour exagérer les écarts. Penser que c’est ça qui fait toute la différence dans les tests de carte graphique c’est se méprendre, mais bon on fait avec. (Sans parler de ceux qui mettent le gros du budget d’une machine de jeu dans le CPU plutôt que de prendre un modèle légèrement moins véloce mais avec une meilleure carte graphique, ce qui ferait toute la différence.



Par contre un test de GPU n’est pas un test de variation selon les composants, ce sont deux analyses spécifiques nécessitant deux protocoles spécifiques (et donc potentiellement des machines différentes).



Et comme dit dans l’article, le cas du HdG sera de toutes façons traité à part, parce que je faire que tourner des benchs 3D sur une carte graphique à 1k€+, c’est aussi un peu bête :D)




Soraphirot a dit:





Il y a déjà la base de 3DMark pour ça ;)



David_L a dit:





Oui, mais il manque l’analyse digne de HFR :‘c



David_L a dit:


(et je n’ai pas pour habitude de calquer mes protocoles sur ce qui se fait ou se faisait ailleurs).




Ce calquer sur ce qui était une référence incontestable dans ce domaine niveau expertise, ce n’est pourtant pas une mauvaise idée. Ça serai dommage de s’en priver par orgueil.




David_L a dit:

et qui reflètent ce que l’utilisateur rencontrera avec sa machine.




Ca ne rime à rien. Personne n’a la même machine ni le même environnement, tu ne peux pas utiliser ce genre d’argument pour ca !




David_L a dit:


BTW, on focalise beaucoup sur le CPU dans les tests GPU, le plus souvent à tort du fait de certains tests CPU qui sont fait dans les jeux avec des paramètres assez bas pour exagérer les écarts. Penser que c’est ça qui fait toute la différence dans les tests de carte graphique c’est se méprendre,




Justement tout l’interet de ce genre de test avec une CG monstre et des réglages minimales, c’est de ne pas etre limité par la CG quoi qu’il arrive afin de verifier l’importance des choix de processeurs, entre HT ou non HT, fréquence, quantitée de cache, et surtout architecture.
Autant quand il n’y avait que Intel, ce n’était qu’un leger plus, autant maintenant que AMD est revenu dans la course, c’est de nouveau totalement pertinent comme test.




David_L a dit:

parce que je faire que tourner des benchs 3D sur une carte graphique à 1k€+, c’est aussi un peu bête :D)




Ca n’a rien de bête. Nombre de bugs ou comportements bizares ont été relevés par HFR justement parcequ’ils faisaient des tests parfois atypiques, qu’ils gardaient la meme plateforme pour l’ensemble des tests.
Ce qui permet justement de faire des charts apres et des comparatifs qui durent dans le temps !




David_L a dit:


Il y a déjà la base de 3DMark pour ça ;)




Dans ce cas autant ne pas faire de bench tout court si tu t’arrêtes à ca …



Alderic a dit:





Ce n’est pas une question d’orgueil, c’est juste que ma façon de faire n’est pas de me dire “qu’est ce que HFR aurait fait”. Ce n’était pas le cas à l’époque où le site était en ligne, ce n’est pas plus le cas maintenant, rien de plus. Tant sur le protocole que sur le type d’article (comme déjà dit, les comparatifs à 50 références c’est intéressant, mais impensable quand on doit publier plus d’un article par mois).



Pour le reste, comme dit, on peut préférer les tests théoriques plus que pratiques, je n’ai aucun problème avec ça. C’est juste que ce n’est pas pas mon cas, ce n’est pas pertinent de mon point de vue lorsque l’on cherche à guider l’utilisateur dans son choix (risquant de promettre un niveau de performances qu’il n’obtiendra pas). Et si c’est ce que tu cherches, il faudra le chercher ailleurs (mais c’est la pratique majoritaire donc ça ne devrait pas être un problème).



A l’inverse, montrer le décalage entre le test théorique et ce que l’on constate dans la pratique est intéressant, comme tu le dis, détecter des comportements atypique reste essentiel (notamment lorsque l’on cherche à comprendre une nouvelle architecture).


J’apprécie le projet d’être proche des préoccupations de très nombreux utilisateurs que certaines prouesses peuvent faire rêver mais que la fin de mois ramènent à la réalité.



Dans le même temps, et toujours sur la base du critère de la pratique, confronter les options dans un écosystème hardware du possible me parait de nature à éclairer les choix au delà des présupposés partisans Intel vs AMD, AMD vs Nvidia etc.



David_L a dit:


Ce n’est pas une question d’orgueil, c’est juste que ma façon de faire n’est pas de me dire “qu’est ce que HFR aurait fait”. Ce n’était pas le cas à l’époque où le site était en ligne, ce n’est pas plus le cas maintenant, rien de plus. Tant sur le protocole que sur le type d’article (comme déjà dit, les comparatifs à 50 références c’est intéressant, mais impensable quand on doit publier plus d’un article par mois).Pour le reste, comme dit, on peut préférer les tests théoriques plus que pratiques, je n’ai aucun problème avec ça. C’est juste que ce n’est pas pas mon cas, ce n’est pas pertinent de mon point de vue lorsque l’on cherche à guider l’utilisateur dans son choix (risquant de promettre un niveau de performances qu’il n’obtiendra pas). Et si c’est ce que tu cherches, il faudra le chercher ailleurs (mais c’est la pratique majoritaire donc ça ne devrait pas être un problème).A l’inverse, montrer le décalage entre le test théorique et ce que l’on constate dans la pratique est intéressant, comme tu le dis, détecter des comportements atypique reste essentiel (notamment lorsque l’on cherche à comprendre une nouvelle architecture).




Cela fait longtemps que je n’ai plus posté de commentaire et c’est le premier avec ce compte.
J’ai du respect pour votre travail, vos connaissances et le bon sens dont vous faites généralement preuve.
Mais ce sujet me pousse à réagir !



Je comprends votre point de vue, mais il me laisse perplexe !



“risquant de promettre un niveau de performances qu’il n’obtiendra pas”
-> il s’agit donc d’un test d’une configuration et non d’une carte graphique !
Afin de comparer correctement des cartes graphiques entre elles, il est indispensable que les autres composants ne les limitent pas ou le moins possible !
Sinon c’est des situations/configurations qui sont testées/comparées… et non des CG en elles même !



Pour moi il n’y a pas deux écoles…
On peut tester une voiture en ville pour juger de ses aspects pratiques… mais on n’y teste pas ses performances dynamiques ! A fortiori pour les comparer correctement !
Il faut pour cela aller idéalement sur un circuit… même si peu de personnes y ont accès !



Se limiter à un i5-9600K pour tester des CG raisonnables permet en effet d’avoir des performances plus réalistes par rapport aux achats potentiels des lecteurs… mais cela ne permet pas de comparer des CG avec fiabilité !
Et c’est pourtant l’essentiel, car je doute que les lecteurs achètent une CG sur base du nombre d’FPS dans un bench :o !
Ce qui compte, c’est les différences de performances globales entre les CG afin de choisir le meilleur rapport performances/prix pour le budget qu’on veut/peut y allouer !
Pour cela, l’indice de performance d’HFR était génial…



Après il faut évidemment concevoir une config cohérente !
Mais ce n’est pas limiter la config de test qui va conseiller les lecteurs dans ce sens… il faut pour cela un guide d’achat et/ou des infos complémentaires dans les tests.
Comparer pleins de couples CPU/GPU permettrai de faire le meilleur guide d’achat possible… mais limiter la config de test à un seul CPU n’aidera pas !



Cela dit, un i5-9600K n’est pas ridicule et ne pose pas de problème pour comparer des GTX 16xx en 4K ! Mais pour d’autres cas (pas forcement extrême) et à l’avenir…


Le i5 9600K est un très bon processeur pour du gaming.



Même par rapport à un i9 9900K, il ne sera limitant que dans certains cas peu réalistes (du genre 2080 Ti en Full HD), et encore pas de beaucoup :



https://www.guru3d.com/articles-pages/intel-core-i5-9600k-processor-review,19.html



Passer de 147 à 134 images par seconde (-9 %), c’est pas catastrophique.



David_L a dit:


Ce n’est pas une question d’orgueil, […], mais impensable quand on doit publier plus d’un article par mois).




Orgueil, principe ou peut importe le mot que tu utilises, je persiste sur le fait que ne pas s’inspirer de ce qui se faisait de mieux, quelque soit la raison, est dommage. Et dommageable pour vos lecteurs / abonnés. (ça ne veut pas dire que vous ne pouvez pas légèrement l’adapter et le personnaliser … mais la ça n’a juste rien à voir et aucun intérêt)



Les sites spécialisés en Hardware ont pour cible un public averti, voir parfois plus expert que les journalistes faisant ces tests. Un quidam lambda ne comprendra probablement pas la moitié des termes techniques utilisés dans un tel article et se contentera de regarder les graphiques ou la conclusion, et en effet dans ce cas autant se contenter des bases 3Mark & cie comme tu le disais plus haut.



Par contre si je te rejoins sur le rythme de publication, le fait d’avoir le top du top lors de la création de votre plateforme de test et d’utiliser des conditions reproductibles (avec des tables de bench justement faites pour ca…) vous permettrai de voir venir dans le temps pour plusieurs années et donc de permettre d’acumuler les tests dans un seul et meme comparatif / guide cohérent.



Ce qui sera impossible avec ta méthode, et c’est la ou je rejoins tout ce que dis compumsa : tu vas tester des configs, et non des composants.



dolphin42 a dit:




Si tu tests une config ok.



Si tu tests un composant ce n’est pas possible de faire comme ca : Quand on voit que la différence dans le score final à la fin d’un protocole complet entre certaines CG se joue parfois à moins de 10 fps, un seul test au milieu d’un protocole étant limité par le processeur suffit à biaiser la moyenne globale / le score final et peut inverser un rapport perf / prix



Et vu que ce score final est le plus important pour estimer le rapport perf / prix si important, cela rend ce type de protocole inutile, et surtout peut potentiellement induire en erreur les lecteurs / consomateurs / clients que nous somme en fonction du nombre de tests de ce protocole ou l’on retrouvera cette limitation..


J’ajoute un exemple :)


Vous testez l’RTX 2070, ensuite l’RTX 2060 et vous concluez qu’elle est en moyenne 10 % moins performante.

Alors qu’en réalité, votre config a bridé l’RTX 2070 et la 2060 est en réalité 15 % moins performante !



Dans ce cas de figure, contrairement à ce que vous désirez, vous induisez le lecteur en erreur :(

Ce n’est donc pas un test/comparatif (c’est comparer qui a de l’intérêt au sujet des performances, notamment entre générations) correct…

Il ne faut peut-être pas avoir la rigueur qu’avait HFR, mais il faut idéalement s’éloigner de l’approximation de la majorité des youtouber tester :o



L’i5-9600K n’est pas ridicule et ne bride pas forcément une RTX 2070, mais pourquoi se compliquer la tâche avec deux configurations de test, risquer des approximations, ne pas pouvoir comparer toute la gamme dans les mêmes conditions… :keskidit:



Pour comparer correctement des CG entres-elles, il ne peut pas y avoir une config qui les brides… c’est comme si vous comparez les performances de deux voitures en en bridant une !



Avec l’i5-9600K, vous apportez un comparatif de performances plus réalistes/plus concret pour qui possède ou veux posséder ce processeur, mais c’est d’un intérêt assez limité… quid des autres processeurs ?



Ce qui serait par contre intéressant, c’est ce type de comparatif par exemple : i3-8100 + RTX 2060 contre i5-9600K + GTX 1660 Ti !

Afin de pouvoir définir pour un budget, la meilleure config gaming !

Cela serait très utile… en tout cas en temps que professionnel, c’est ce qui me serait le plus utile pour conseiller nos clients !

On y arrive fort bien sans ce type de comparatif, mais avec un comparatif sérieux non bridé entre CG et en connaissant l’importance du processeur dans les jeux… mais ce type de comparatifs apporterait des certitudes, chiffres précis, résultat présentable… :chinois:


Je suis sûr que votre but est de permettre à vos lecteurs de faire le meilleur achat. Je comprends où vous voulez… mais je doute que cela soit la voie la plus pertinente :(


Bref, personnellement, les comparatifs d’HFR me manquent vraiment… l’indice de performance permettait de se faire une très bonne idée de la situation en 10 secs, y compris pour un client très peu connaisseur, on pouvait lui montrer le graphique pour qu’il comprenne très vite et bien les différences :oops: :pleure:



Après selon le budget et d’autres critères, il était facile de conseiller le meilleur couple CPU-GPU pour qui connait/conceptualise correctement leurs influences.



Mais HFR ne faisait pas les comparatifs proposés plus haut alors que c’est super pertinent pour faire un bon achat :chinois:



J’ai beaucoup d’espoir en Inpact Hardware :kimouss:



Compumsa a dit:


J’ajoute un exemple :) Vous testez l’RTX 2070, ensuite l’RTX 2060 et vous concluez qu’elle est en moyenne 10 % moins performante. Alors qu’en réalité, votre config a bridé l’RTX 2070 et la 2060 est en réalité 15 % moins performante !




Je répondrai sur le fond aux derniers commentaires plus tard (je suis en déplacement). Mais si un 9600K bride les résultats de ta RTX 2070 selon les chiffres que tu donnes, je pense qu’il y a un souci ailleurs dans la machine concernée. Je suis preneur de chiffres concrets (autre que du bench théorique) qui le confirment.



Après il y en a bien pour penser qu’utilser un chipset Zx70/90 permet aussi d’éviter des bridages par rapport à des série B/H, les constructeurs jouent sur ces impressions pour vendre plus et plus cher sans toujours un intérêt pour l’utilisateur.



Notre job c’est aussi de le montrer / expliquer, et de dire à un joueur au budget raisonnable ce qu’il doit choisir comme GPU. Car souvent, pour avoir de meilleures perfs en jeu, il vaut mieux passer d’une 2060 à une 2070 (avec un vrai gap) que d’un 9660K à un 9900K (ce qui sera le plus souvent sans réelle plus value en jeu).



Et comme dit, ce n’est pas la seule manière dont on testera les GPU (notamment sur le haut de gamme) et ça ne concerne pas l’analyse de cohérence CPU/GPU qui ne peut, de fait, se faire sur une machine à base technique unique


“tu vas tester des configs, et non des composants.”



Rien à rajouter par rapport à ce qui a été dit par Alderic et Compunsa, je rejoins leur avis même si je comprends très bien pourquoi David veut aller dans cette direction.



Pas envie de m’étaler, mais c’est en partie à cause de ce genre de méthodologie qu’on se retrouve avec des lecteurs qui associent les performances des processeurs avec la définition d’affichage : “les processeurs récents sont aussi performants que les anciens en 4k” suivi de “il faut un meilleur processeur pour jouer en full HD qu’en 4K”



TheRealBix a dit:





J’ai plutôt tendance à constater l’inverse : c’est à cause de la méthodo classique que certains pensent qu’un 9900K est nécessaire pour jouer sous peine d’avoir de mauvaises performances, ce qui est tout à fait faux (comme le fait que limiter à un CPU classique comme un 9600K revient à ne pas tester le GPU mais la configuration, rappel de ses specs).



Du coup on a souvent des machines assez déséquilibrées sans trop de raison, avec des machines de jeu au CPU trop élevé pour le besoin et au GPU qui ne l’est pas assez.



BTW, il ne faut pas non plus oublier sur le fond que même si tout cela était vrai, à quoi servirait d’annoncer une 1660 à 120 fps sur un test si dans la pratique avec un CPU classique elle serait à 100 fps, ce qui sera le résultat constaté par 99% des utilisateurs ? (mais je le répète, ces chiffres n’ont rien de réel, donc la question ne se pose pas).


Prendre un CPU plusieurs gammes supérieures au GPU n’est pas du tout déconnant (dans la limite du raisonnable), d’une part au niveau des perfs il est largement préférable d’avoir une limitation par le GPU, d’autre part pour les futures upgrades il est bien moins pénible de ne changer que le GPU plutôt que le CPU (et MB dans le cas d’intel).



Je pense que c’est d’ailleurs plus économique au final, à voir si la donne change avec AMD et ses plateformes durables.



Bref je pars en HS. De toute manière mon post au-dessus était plutôt écrit en réaction au dernier article d’Anandtech sur le 2600K et en particulier aux commentaires que j’ai pu lire ici et là.



Par contre tu réagis comme s’ils avaient dit que le 9600K était anémique, non pas du tout, mais 6 cœurs sans HT à l’heure de la multiplication des cores ça peut sembler juste pour une machine de bench censée durer plusieurs générations.



Dans ton exemple, “à quoi servirait d’annoncer une 1660 à 120 fps sur un test si dans la pratique avec un CPU classique elle serait à 100 fps”, je ne vois pas bien où tu veux en venir… Au moins les 99% sauront que cela ne leur servira à rien d’acheter une meilleure carte graphique puisque c’est leur CPU qui ne suit pas.



C’est sûrement la fatigue mais finalement je ne comprends plus ton cheminement ^^