AMD veut reconquérir 50 % du marché des cartes graphiques

AMD veut reconquérir 50 % du marché des cartes graphiques

À l'impossible nul n'est tenu

Avatar de l'auteur
Kevin Hottot

Publié dans

Économie

06/12/2016 3 minutes
154

AMD veut reconquérir 50 % du marché des cartes graphiques

Lors d'une conférence dédiée aux analystes spécialisée, Lisa Su, PDG d'AMD a assuré que son entreprise a pour ambition de revenir à égalité avec NVIDIA sur le marché des cartes graphiques, en s'assurant la moitié du marché. 

La semaine dernière, se tenait la célèbre « Credit Suisse Technology, Media & Telecom Conference ». À cette occasion, de nombreuses entreprises dans le domaine des nouvelles technologies ont pris la parole afin de faire le point sur leur activité, et AMD n'a pas fait exception. 

Une ambition forte sur le marché des puces graphiques

Interrogée sur les progrès attendus sur le plan commercial avec le lancement de puces exploitant l'architecture Polaris, Lisa Su a montré un fort enthousiasme quant aux résultats obtenus par cette nouvelle gamme. « Je dirais que nous avons très bien progressé sur les deux premiers trimestres de l'année », assure la dirigeante, qui voit ici de très bonnes opportunités de croissance pour son entreprise.

Qualifiant le marché des puces graphiques comme étant « bouillant », elle estime qu'il « n'y a aucune raison que nous n'arrivions pas à une part de marché de 50 % à l'avenir », sous entendant qu'AMD est en capacité de reprendre une large part de ce secteur, actuellement dominé par son concurrent NVIDIA. « Mais cela demandera certainement un peu de temps avant d'y arriver », tempère tout de même la présidente de la firme de Sunnyvale. 

AMD est en phase de reconquête

Si la bonne forme du marché global des cartes graphiques est un point à tempérer, une étude de JPR (relayée par Anandtech) montre un net recul des volumes de ventes ces dernières années, la progression récente d'AMD dans ce domaine reste à souligner :

GPU Market John Peddie Research JPRGPU Market John Peddie Research JPR

Lors du deuxième trimestre 2016, AMD a capté 29,9 % du marché des cartes graphiques pour ordinateurs de bureau, contre 70,0 % pour son rival NVIDIA. Si pour l'instant l'avantage est toujours du côté de la marque au caméléon, les rouges ont nettement repris du poil de la bête. Tout juste un an plus tôt, AMD ne représentait que 18,0 % de ce gâteau, l'arrivée des premières cartes équipées de puces de la génération Polaris a donc fait du bien au fabricant.

Il reste néanmoins beaucoup de travail à AMD pour parvenir à son objectif de 50 % du marché. Ces six dernières années, la marque s'est heurtée à un plafond situé autour des 40 %, qu'elle n'a nettement percé que lors du deuxième trimestre 2010, à l'époque des Radeon série HD 5000.

Écrit par Kevin Hottot

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Une ambition forte sur le marché des puces graphiques

AMD est en phase de reconquête

Fermer

Commentaires (154)


Pas facile de remonter quand on a rien à proposer en haut de gamme.

Vega = pas le droit à l’erreur.


Ah les Radeon HD 4000-5000 avaient fait un carton à l’époque <img data-src=" />



mais là on parle de quasiment doubler la part de marché c’est pas évident.








Obidoub a écrit :



Pas facile de remonter quand on a rien à proposer en haut de gamme.

Vega = pas le droit à l’erreur.





ça dépend combien de %age cette gamme représente&nbsp;



&nbsp;



&nbsp;Le hdg ne représente en effet pas grand chose au niveau du % des ventes il me semble.



Par contre c’est vrai que l’image compte beaucoup, paradoxalement je pense que beaucoup de gens même si ils achètent de l’entrée ou du milieu de gamme auront tendance à acheter un produit de la marque possédant le meilleur HDG même si au final cela ne concerne pas la gamme de produit qu’ils achètent.


Tiens, ça existe encore ATI (enfin AMD) <img data-src=" /> …


J’ai toujours été chez ATI/AMD, et j’ai toujours été satisfait. J’ai changé ma 5850 pour une 280x il y a 2 ans et ça tourne nickel.



C’est sur que les cartes GTX 1000 de Nvidia cartonnent vraiment et innovent réellement, là ou AMD s’est contenté de booster la même architecture pendant 3 ans.



Les Nvidia me font quand même bien de l’oeil, mais étant donné que je ne compte pas changer tout de suite, on verra ce qu’AMD va proposer dans les 2 ans qui viennent. Il faut qu’ils rebondissent, 2 acteurs sur le marché c’est important pour l’innovation.


&nbsp;







Noodens a écrit :



&nbsp;Le hdg ne représente en effet pas grand chose au niveau du % des ventes il me semble.




Par contre c'est vrai que l'image compte beaucoup, paradoxalement je pense que beaucoup de gens même si ils achètent de l'entrée ou du milieu de gamme auront tendance à acheter un produit de la marque possédant le meilleur HDG même si au final cela ne concerne pas la gamme de produit qu'ils achètent.









LE problème c’est qu’en général si ton haut de gamme est performant, ton milieu et bas de gamme qui en sont des dérivés le seront. C’est le cas des Nvidia avec la gen 10x0.

De haut en bas il&nbsp;donne du fil à retordre à toutes les gammes de AMD en performance et en étant moins consommatrice en plus !



En effet, les OEM et les puces des consoles semblent représenter une part importante.

Néanmoins je ne peux m’empêcher de penser que Nvidia a fait des bénéfices record grâce à son architecture Pascal (réservée au haut de gamme, sauf depuis la sortie récente des 1050Ti).

Il y a donc visiblement beaucoup de gens prêts à dépenser beaucoup d’argent dans le gaming haut de gamme.

Après il ne faut pas abuser c’est sur.


Je suis enfin revenu chez ATI et c’est avec beaucoup d’enthousiasme !

&nbsp;Après des déboires de drivers buggés sur une GTX560ti (depuis 2012, jamais corrigé par Nvidia…), au vu du prix d’une GTX 1060 (minimum 250€ avec toutes ses unités de calcul), j’ai espoir que Nvidia se fasse enfin punir (enfin leur résultat sont pourtant très positifs et valident leur politique tarifaire :/).



En milieu de gamme, je trouves ATI imbattable (180€ pour une RX480 en solde), qui est prêt à mettre 70€ de plus pr 4 fps?!


Ça n’empêche pas que le concurrent puisse proposer des choses intéressantes dans l’entrée/milieu de gamme.



Après perso j’ai souvent alterné entre AMD et Nvidia, je n’ai pas de préférence spécifique mais là ça fait par contre 2 générations que je suis sur Nvidia (970 -&gt; 1080) simplement pour la consommation électrique…

J’essaye d’acheter des produits le moins énergivore possible et à ce niveau là AMD est juste complètement à la rue.


Faudrait déjà qu’ils apprennent à faire des drivers qui marchent avant de vouloir prendre des parts de marché.

&nbsp;

J’ai eu une ATI il y a 20 ans : je devais réinstaller la bonne version de driver à chaque fois que je changeais de jeu (R6, Tribes, FIFA, etc.). Je suis donc parti chez Nvidia. 5 ans plus tard, nouvelle ATI, gardée 3 jours le temps que je me rende compte que le jeu avec lequel je jouais à l’époque avait aussi un problème avec le driver. Retour chez Nvidia. Rebelote 5 ans plus tard, ATI gardée une semaine.

Bon depuis, j’ai arrêté les frais. J’ai hâtivement pensé qu’entrer dans le giron d’AMD rectifierait le tir, mais non, sont toujours aussi manchots.&nbsp;<img data-src=" />


Ca sent une annonce d’un plan de sauvegarde de l’emploi dans pas longtemps sous prétexte de ne pas avoir atteint l’objectif réalisable de 50% de pdm. &nbsp;


Mais beaucoup plus cher ! C’est là le génie de Nvidia : toujours devant ATI en perf et conso, et du coup on se fait plaiz et on ajoute au minimum un billet de 50 voire de 100€ !


Franchement j’ai jamais compris ce problème avec les drivers AMD/Ati… je n’ai jamais eu aucun soucis et j’ai pourtant tourné des années avec leurs cartes…



Pour dire la carte avec laquelle j’ai eu le plus de soucis de drivers c’était une 8800GT de Nvidia…


Les réputations sur les drivers font long feu. AMD/ATI a eu une petite mauvaise période, et leur image ne s’en est jamais remis auprès de beaucoup d’utilisateurs ! Avec les déboires récent de Nvidia, on peut espérer que l’image tend à se ré-équilibrer sur ce sujet.








Pylos a écrit :



Faudrait déjà qu’ils apprennent à faire des drivers qui marchent avant de vouloir prendre des parts de marché.

&nbsp;

J’ai eu une ATI il y a 20 ans : je devais réinstaller la bonne version de driver à chaque fois que je changeais de jeu (R6, Tribes, FIFA, etc.). Je suis donc parti chez Nvidia. 5 ans plus tard, nouvelle ATI, gardée 3 jours le temps que je me rende compte que le jeu avec lequel je jouais à l’époque avait aussi un problème avec le driver. Retour chez Nvidia. Rebelote 5 ans plus tard, ATI gardée une semaine.

Bon depuis, j’ai arrêté les frais. J’ai hâtivement pensé qu’entrer dans le giron d’AMD rectifierait le tir, mais non, sont toujours aussi manchots.&nbsp;<img data-src=" />





objectivement je pense que les drivers AMD pour win10 sont meilleurs que les NVIDIA





&nbsp;



Sauf si tu joues sous Linux, les problèmes de driver chez AMD appartiennent au passé. Mais visiblement cette réputation leur colle a la peau car ces reproches reviennent assez souvent. J’ai eu une HD5850 de 2009 à 2012 et je n’ai jamais eu de problèmes avec les pilotes Windows.



En fait en ce moment les critiques sont plutôt tournées vers les pilotes Nvidia.


C’est plutôt l’inverse lorsqu’un constructeur ayant un logo de caméléon laisse la niche des carte accessible et fiable aux autres …



Pareil, j’ai alterné Nvidia et ATI/AMD, j’ai jamais eu aucun souci


Moi ce que j’attend c’est une carte graphique milieu de gamme, plus puissante sur tout les benchmark (et pas que DX12) et moins cher qu’une 1060 GTX, là ça ferai un carton.



Alors c’est un peu HS, mais je ne comprend pas une chose. Pourquoi Intel n’a jamais fait de vrai GPU (pas des CPGPU) ?

Ils ont la puissance financière pour se le permettre, est-ce un “accord” avec Nvidia pour ne pas se faire concurrence ? Ou est-ce simplement que ces deux entités restent sur leurs domaine de prédilection ?








heaven7 a écrit :



En milieu de gamme, je trouves ATI imbattable (180€ pour une RX480 en solde), qui est prêt à mettre 70€ de plus pr 4 fps?!





Ouais, en solde, parce que sinon c’est le même prix en fait <img data-src=" />



Techniquement nVidia a plein de techno sans équivalence chez ATI qui peuvent justifier un prix plus élevé a perf équivalente : 3D vision, Ansel, PhysX, Shadowplay, Optimus&nbsp;(je me trompe peut etre sur ce dernier), etc.


En fait ils l’ont fait,



une fois&nbsp;en 1997 (de mémoire, c’était peut être 98…) avec le i740 qui avait notamment pour but de promouvoir l’AGP.



Ils ont retenté le coup courant des années 2000 avec larabee (qui devait être en gros des centaines de cores de pentium 1, quelque chose dans le genre), mais ils ont finit par annuler.


Une carte graphique Intel ferait un carton chez les utilisateurs de Linux.








Bowbie a écrit :



Techniquement nVidia a plein de techno sans équivalence chez ATI qui peuvent justifier un prix plus élevé a perf équivalente : 3D vision, Ansel, PhysX, Shadowplay, Optimus&nbsp;(je me trompe peut etre sur ce dernier), etc.





3D vision : bide

Ansel : connais pas

PhysX : rendu très moyen a mon sens pour un coût élevé en perfs, déprécié au profil de GameWorks

Shadowplay : logiciel

Optimus : il y a pareil avec AMD (malheureusement)



En fait il ne reste véritablement que GameWorks.

Mais sur The Witcher 3 son activation n’apporte vraiment rien en terme de rendu alors que le coût en performances est élevé.









Soltek a écrit :



Ouais, en solde, parce que sinon c’est le même prix en fait <img data-src=" />





Pour avoir beaucoup surveillé les prix GPU en milieu de gamme depuis 6 mois (Nvidia et ATI), une RX480 à 180€ est aussi exceptionnel qu’une 1060 avec toutes ses unités à 250€. Sans solde tu as une RX480 à 220€ et une GTX1060 à 280€.&nbsp; Qu’il y ait une plus-value sur une GTX1060 je ne le nie pas, et heureusement, mais je la trouve tellement faible que c’est ridicule.









heaven7 a écrit :



Pour avoir beaucoup surveillé les prix GPU en milieu de gamme depuis 6 mois (Nvidia et ATI), une RX480 à 180€ est aussi exceptionnel qu’une 1060 avec toutes ses unités à 250€. Sans solde tu as une RX480 à 220€ et une GTX1060 à 280€.&nbsp; Qu’il y ait une plus-value sur une GTX1060 je ne le nie pas, et heureusement, mais je la trouve tellement faible que c’est ridicule.





Vu les différences de prix j’ai l’impression que tu compares une RX480 4GB avec une GTX1060 6GB alors qu’il existe des modèles 3GB (ils démarrent à 209€ chez materiel.net).



La RX480 en 8GB elle démarre à 280€, tout comme la GTX1060 6GB.



Je ne dis pas que ces technos ont un véritable intéret, je dis juste qu’ils ont mis du budget R&D dedans, qu’il faut bien répercuter quelquepart.



ps: shadowplay a beau etre logiciel, c’est exclusif nVidia


Ha je me souviens de Larabee, je me souvenais pas que c’était une CG. Merci pour ce point culture, j’espère franchement qu’Intel retentera l’aventure, c’est le seul acteur qui pour moi aurait les reins solides pour concurrencer AMD/Nvidia.

&nbsp;





heaven7 a écrit :



Pour avoir beaucoup surveillé les prix GPU en milieu de gamme depuis 6 mois (Nvidia et ATI), une RX480 à 180€ est aussi exceptionnel qu’une 1060 avec toutes ses unités à 250€. Sans solde tu as une RX480 à 220€ et une GTX1060 à 280€.&nbsp; Qu’il y ait une plus-value sur une GTX1060 je ne le nie pas, et heureusement, mais je la trouve tellement faible que c’est ridicule.





Les 1060 GTX de chez KFA2 sont des versions tronquées ? Parce-qu’elles se trouvent facilement à ~250 €



Exact, j’attendais que quelqu’un en parle.



&nbsp;Je surveille de tres pres les nouvelles arch intel car leurs procs 6eme generation (a part les “extremes” ou “high end”) embarquent le HD Graphics 530 qui remplace une carte graphique pour tout ce qui est video HD (4k, multi screen etc.) et peut meme servir a jouer a des jeux de base avec parametres medium.

Les gammes Iris (Intel® Iris™ Pro Graphics 580 est le dernier je crois) sont encore plus efficaces mais je n’ai pas trouve de proc socketable avec un Iris.



Je pense qu’a terme Intel va donner de plus en plus de place a ses chipsets graphiques pour capturer tout le marche laptop et virer optimus. Tant que les specs restent ouvertes (ce qui est traditionnel chez eux car tres present chez les serveurs), c’est tout benef pour les utilisateurs Linux.



&nbsp;Reste l’intel ME qui est une blackbox relativement dangereuse. Mais google et differentes boites (Purism) sont en negociation pour ca. Et c’est un autre sujet.

&nbsp;








Obidoub a écrit :



Shadowplay : logiciel





Shadowplay exploite l’encodeur hardware des carte NVidia (encodage NVENC). Donc pas que du logiciel. Et ça a été un gros argument de vente (c’en est encore un) pour ceux qui aiment filmer leur sessions de jeu ou garder les x dernières minutes simplement parce que pendant pas mal de temps, il n’y a pas eu d’équivalent AMD. Ou les équivalents étaient beaucoup moins performant.

Car l’avantage d’un encodeur hardware, par une puce dédiée pour cette utilisation, c’est que l’impact en terme de performances est simplement nul.

Pour ceux qui font du streaming (Twitch), Intel Quick Sync est le plus performant, mais après c’est NVENC. AMD est en retard. Et pour ces joueurs la, NVENV et Shadowplay sont des raisons valables pour choisir entre NVidia et AMD.



Au pif sur TopAchat en ce moment :



RX 480 4 Go : 218€

GTX 1060 3 Go : 215€



RX 480 8 Go : 252€

GTX 1060 6 Go : 256€



Faut que tu m’expliques.


Exactement, c’est là où Nvidia a bien géré son truc.

Une GTX1060 3GO n’est pas une GTX1060 6GO, elle a moins d’unité de calcul, elle est réellement bridé.

Une RX480 4GO est identique à une RX480 8GO (à part la quantité de mémoire, et éventuellement la fréquence de la mémoire). Travaillant auprès d’un ingénieur en réalité virtuel, j’ai demandé l’impact d’avoir 4 ou 8GO sur les jeux récents en QHD, il m’a répondu que c’est principalement commercial.



J’ai pris des notes de cette discussion si ça en intéresse :

Quelques généralités simples :




  • &nbsp;&nbsp;1. le fait que la ram sur le GPU soit un argument marketing est indéniable.

  • &nbsp;2. Sur tous les GPUs actuels, on est tous limités par la puissance du processeur graphique avant de l’être par la ram. La ram peut techniquement se remplir entièrement, mais le processeur graphique n’aura pas la puissance pour traiter instantanément l’intégralité de son contenu.

  • 3. Pour avoir une idée de la ram nécessaire, il faut regarder les anciens très haut de gamme, par exemple les Titan X qui avaient 6GO en avaient bien assez (elles en ont toujours bien assez), donc pour espérer utiliser autant voire plus de ram, il faut une carte qui soit plus puissante (cela donne déjà une bonne idée donc !).



    &nbsp;Quelques explications sur le rôle de la ram du GPU :

  • &nbsp;On retient que les textures y sont stockées et c’est vrai, mais il y a tous les “autres buffers” : la luminosité, les ombres, les sommets, les collisions, … Elle rempli le même rôle que la ram d’un CPU sauf qu’elle stock ce que calcul le GPU (c’est simple dit comme ça…)&nbsp;

  • &nbsp;Au premier contact avec un nouvel élément, le GPU stock cet élément dans sa ram. Cette ram est bien plus rapide que celle présente sur la CM. Lorsque l’élément doit être mobilisé il sera prêt (mais il est quand même calculé par le GPU à ce moment là qui doit avoir la puissance nécessaire pour l’afficher). La ram de la CM étant plus lente, le GPU serait moins rapide sans sa propre ram et cela augmenterai également considérablement le nombre d’appels. Donc on est bien dans une idée d’optimisation comme je l’ai dit dans mon premier poste.L’enjeu d’un GPU c’est de préparer chaque image le plus rapidement possible, pour chaque frame le temps d’affichage dépendra de l’élément qui aura mis le plus de temps à être calculé (soit la texture, soit la géométrie, ou je ne sais quoi encore…).

  • L’idée est donc de faire en sorte que personne n’ai trop de retard.Augmenter artificiellement la ram comme le font les constructeurs pour des raisons marketing, c’est comme avoir 16GO de ram sur un processeur peu puissant incapable de prendre en compte les 16GO. Par contre la ram du GPU a bien un rôle important !Par contre, la puissance du processeur graphique est différent sur les gammes qui ont 3GO ou 6GO (cf. GTX 1060), c’est un choix logique du constructeur en un sens car plus le processeur graphique est puissant, plus il profitera de sa ram. Donc l’intérêt n’est pas de prendre une carte avec plus ou moins de ram et d’en faire un argument, car la ram du GPU sera toujours surdimensionné par rapport à sa puissance. Ce qui compte réellement c’est la puissance du processeur graphique donc



    Ce que je veux dire c’est qu’une RX 480 avec 4GO de ram a un GPU identique qu’une RX 480 à 8GO de ram, ce n’est pas le cas pour les GTX 1060 3 et 6GO.


Tu as eu quels problèmes avec ta GTX 560 Ti ?


Je n’ai jamais eu de problèmes avec mes cartes Nvidia, jusqu’à ce que je change mes ti par les 1080, une vraie catastrophe dans certains jeux, ils attendent des plombes avant correctif, bref, je vais suivre de près ce qu’AMD prépare, ce serait pas mal qu’ils reviennent histoire de calmer les verts sur les prix, prix pas à la hauteur des perfs de mon avis…








Soltek a écrit :



Au pif sur TopAchat en ce moment :



RX 480 4 Go : 218€

GTX 1060 3 Go : 215€



RX 480 8 Go : 252€

GTX 1060 6 Go : 256€



Faut que tu m’expliques.







Facile les cg AMD sont proportionnellement moins chères en terme de ram <img data-src=" />



perso je suis toujours sur ma Radeon HD 4980 xD


Et on remarquera qu’à l’époque AMD avait beau pulvériser Nvidia, ce dernier a conservé plus de la moitié des parts de marché. L’esprit fanboy domine aussi bien les joueurs pc que console.


Ce n’est que depuis la génération 900 que Nvidia domine niveau consommation. Et vu les perfs des RX460/470/480 en DX12/Vulcan AMD n’est pas tant à la rue que ça niveau perf/watt (et un nuveau stepping pourrait faire gagner 3040% de consommation)


Je ne pense pas, les pilotes qui cramaient des cartes n’ont pas atteint l’image de marque de Nvidia, pas plus que les puces foireuse refourgué en connaissance de cause dans des portables. Nvidia arrive à avoir une aura à la Apple dans une certaines mesure qui fit que leurs conneries ne sont jamais bien grave.


Ouais, je suis d’accord, 12Go en ce moment, ça sert pas vraiment dans les jeux.



Mais 3 et 4 Go, c’est faible aujourd’hui… Pas à cause de la mode, mais parce que tu les remplis. Sur les derniers jeux, tu peux pas stocker toutes les textures en FullHD dans 4 Go de mémoire, il t’en faut un peu plus (donc 6Go, vu que c’est le palier suivant). En 4K, je t’en parle même pas.



Et du coup, je fait de ne pas pouvoir tout mettre, ça a un impact sur les performances: il faut remplacer des textures, des objets, et ça veut parfois dire aller les chercher sur un disque dur.&nbsp;



En fin de compte, ça se traduit par des FPS en moins.



&nbsp;Ici, tu trouveras un benchmark entre une rx 480 4Go vs 8Go. Dans certains jeux, il n’y a aucune différence (la mémoire n’est pas saturée avec les 4Go), dans d’autres, tu peux perdre beaucoup de fps à cause des entrées-sorties.



Et ça va pas aller en s’arrangeant, donc prendre un GPU avec &nbsp;4Go de mémoire aujourd’hui, c’est vraiment pas&nbsp;malin. 8Go et on est bien, 12Go et on peut voir venir. 6Go, c’est saturé dans un ou deux ans.


Perso sur les fixes j’ai toujours navigué en full AMD/ATI car j’ai toujours monté moi-même des machines de milieu de gamme sur lesquelles, jusqu’à il y a au moins 5 ans (date de mon dernier achat), AMD était bien meilleur en rapport qualité/prix qu’Intel…



Et jamais eu de soucis logiciels quelconques sous Windows… Mis à part Windows lui-même (toujours le même truc qui lâche en fait XD). Sous Linux, à l’époque de toute façon l’offre de jeux était suffisamment faible en comparaison pour justifier le dual-boot, du coup le support logiciel était bien suffisant pour le bureau et ses joujoux. Quant aux perfs sur les jeux, il m’est difficile de donner des chiffres précis, mais pour du Full HD le combo Phenom II X6 + 6870 tenait bien la route il y a encore 1 an (depuis, crash total Windows, flemme de réinstaller). Il est vrai que je privilégie la qualité de l’esthétique et du gameplay aux effets kikolool donc il est logique que mon retour soit différent des tests de magazines spécialement conçus pour tirer un max.



Sur portable, pas d’autre choix que Intel+nvidia à l’époque de mon achat, et ça tourne bien aussi sous Windows. Sous Linux le support d’Optimus change d’un noyau à l’autre et d’une distrib à l’autre, c’est pas ce que j’appellerais un truc fiable… <img data-src=" />



Bref, en 2017, pour la CG en tout cas, ce sera AMD FTW ! Eux au moins se sont nettement sortis les doigts pour le support de Linux pendant que nVidia continue à faire pousser le baobab qu’il a dans l’autre main.


T’est juste un chat noir car moi, je suis toujours tombé chez eux à des époques où ça allai bien (alors qui oui, ils ont eu des époques à problème eux aussi). Bon, sauf y a 20 ans c’est vrai :)


C’est là où on se fait berner. Oui dans deux ou trois ans les GPU auront besoin de plus de mémoire vive car ils pourront les prendre en charge. Mais aujourd’hui non.



d’ailleurs, le comparatif que tu cites est assez évocateur justement, c’est vrai que sur quelques jeux il y a une différence sensible mais si tu remarques bien, plus la résolution augmente, moins cette différence est perceptible (tout simplement car tu deviens “GPU limited” d’une certaine façon) ; c’est le cas pour Black Ops je crois. Pour les jeux qui gardent des textures “raisonnables”, soit une très grande majorité de jeu actuel, la différence est bien totalement nul (moins de 3fps). Si tu veux projeter ce test dans plusieurs années, ta RX480 8GO sera autant à la traine que ta 4GO, car son processeur sera dans tous les cas insuffisant et ce n’est pas 4GO de plus qui vont l’aider dans cette situation !



Je te conseille de jeter un œil aux tests de RX 480 de Sapphire (qui sont toutes OC, et c’est celle-ci qui était à 180€), on voit l’impact de la quantité de ram et de sa fréquence. Il existe, mais c’est vraiment pour ceux qui veulent gagner quelques points au benchmark, ça n’améliore pas vraiment ton expérience de jeu… http://www.hardware.fr/focus/118/rx-480-sapphire-nitro-vs-gtx-1060-gainward-match-280.html



Bien sûr AMD n’est pas parfait sur tout, et oui il manque des choses (genre la PhyX je reconnais que c’est dommage, idem ShadowPlay bien que je l’utilise pas). On est sur du milieu de gamme, on ne parle pas de jouer en Ultra pendant 3 ans à un jeu en 4K, donc inutile de prévoir ce scénario !



PS : sur ma GTX560ti, je ne pouvais pas sortir de vieille sans que mon pilote plante ce qui amenait finalement au redémarrage de mon ordi car même en rebootant le service ça ne revenait pas… Problème connu par Nvidia, comme bien d’autres sûrement, mais un GPU qui a 18 mois, on s’en fout totalement :/ ! Maintenant ce problème me gênerait moins vu le temps de boot d’un PC, mais avec mon HDD et ma CM à l’époque, ça me faisant réellement chier cette histoire où je ne pouvais pas mettre le PC en veille !








Alexvr a écrit :



Il faut qu’ils rebondissent, 2 acteurs sur le marché c’est important pour l’innovation.





En temps normal, j’aurais dis la même chose. Même si ma dernière nvidia remonte à une geforce 3, je constate qu’en terme d’innovation, amd n’a jamais fait que tenter de proposer des alternative à des techno proposées par nvidia depuis une 10N d’années.

Vu la déculottée qu’ils se prennent en gpu face à nvidia et celle prise aux cpu par intel, je me demande comment ils font pour rester à flot depuis si longtemps.



En espérant que leur annonce soit suivie de vrais inno :/



Mantle qui a initié Vulcan et DX12 c’est une des avancée les plus importante qui ai été. Et c’est grâce à AMD.

&nbsp;

Niveau architecture des GPU AMD n’a rien à envier à Nvidia qui a été plus souvent derrière AMD que l’inverse depuis 2010. Et en therme d’innovation marquante niveau matériel… HBM


J’espère toujours naïvement qu’un jour une autre marque de CG orientée gaming naisse. Pareil pour les CPU et pire mais vraiment pire : un nouvel OS (qui ne soit pas basé sur unix).



C’est beau un utopiste hein ? <img data-src=" />


il y a aussi Freesync en parrallele de Gsync.



En ce qui concerne Mantle, on est vraiment sur que c’est ca qui a déclenché le dev de dx12 ? Ce n’etait pas juste un dev parrallele?&nbsp;


Personnellement, j’ai toujours eu du NVIDIA pour mes cartes graphiques, sauf la dernière (hum), qui est une AMD 5850 ! Je joue 5050 sous linux et windows, et je n’ai jamais eu de problème particulier avec le pilote proprio AMD linux, à condition que celui-ci soit supporté par le jeu bien sûr ! (certains jeux ne tournent sur linux qu’avec NVIDIA, mais ils sont rares)

Actuellement, je joue sous linux CS:GO, pillars of eternity, qui ne sont pas des titres très gourmands bien sûr (ma carte à quand même 5 ans !) et qui tournent en fullHD sans pb notable.

Là , je songe à passer à la RX480, mais je me tâte encore, la 1060 ayant une tellement meilleure presse…



&nbsp;Pour ce qui est d’intel sous linux, je ne serais pas aussi catégoriques que certains commentaires que j’ai lu. J’ai un portable dual boot linux/windows avec du full IBM.

Le wifi centrino sous linux, dont j’ai vérifié que le dernier driver linux était bien installé, marche assez mal : signal faible, difficultés à se connecter (parfois je m’y reprends à 4 ou 5 fois ou même je reboote). Alors qu’il marche très bien sous windows.

Alors, j’ai acheté un petit dongle DLINK DWA-131 à 12 euros, avec un driver linux développé par un gars tout seul chez lui. Celui-ci marche d’enfert : signal au maximum et connexion immédiate. Conclusion : le driver IBM linux est pourri, ou alors la puce est IBM mal intégrée dans le portable (toshiba série professionnelle), mais j’y crois moins.


Pour revenir sur un poste plus haut qui suggérait qu’Intel se (re-)lance dans les GPU, moi je ne vois pas ce qui les empêche d’acheter NVIDIA… Ils pourraient fournir des APU autre que leurs trucs embarqués, ils auraient même une partie ARM qui pourraient les intéresser…








Citan666 a écrit :



Bref, en 2017, pour la CG en tout cas, ce sera AMD FTW ! Eux au moins se sont nettement sortis les doigts pour le support de Linux pendant que nVidia continue à faire pousser le baobab qu’il a dans l’autre main.





Je ne suis pas super au courant sur ces sujets là (alors que je joue sur Linux en plus), mais il me semblait avoir lu qu’AMD avait annoncé la fin du support de Linux pour ses nouveaux pilotes. Et que ça serait dorénavant à la communauté de bricoler des pilotes libres. Est-ce que j’ai lu de travers ? Comment ça se passe le déploiement des pilotes sur Linux aujourd’hui ?



Je demande car je commence tout doucement à regarder par quoi remplacer ma GTX770 d’ici quelques temps….



Si tu joue sous Linux, ne prends pas d’AMD.


Il me semble bien avoir lu que c’est Mantle qui a poussé MS sur cette voie selon des devs que chez MS.








Bowbie a écrit :



il y a aussi Freesync en parrallele de Gsync.



En parallèle. Ca me conforte dans mon opinion : tentative de proposer une techno similaire à une autre développée par un concurrent (bon ma foi, c’est pareil partout, quel que soit le domaine d’activité). Suiveur, rarement innovateur :s



edit :Ah non j’ai rien dit.








Incalex a écrit :



Shadowplay exploite l’encodeur hardware des carte NVidia (encodage NVENC). Donc pas que du logiciel. Et ça a été un gros argument de vente (c’en est encore un) pour ceux qui aiment filmer leur sessions de jeu ou garder les x dernières minutes simplement parce que pendant pas mal de temps, il n’y a pas eu d’équivalent AMD. Ou les équivalents étaient beaucoup moins performant.



Car l'avantage d'un encodeur hardware, par une puce dédiée pour cette utilisation, c'est que l'impact en terme de performances est simplement nul.      

Pour ceux qui font du streaming (Twitch), Intel Quick Sync est le plus performant, mais après c'est NVENC. AMD est en retard. Et pour ces joueurs la, NVENV et Shadowplay sont des raisons valables pour choisir entre NVidia et AMD.





Ah bon ?http://developer.amd.com/community/blog/2014/02/19/introducing-video-coding-engi…

VCE est disponible depuis les HD7000, donc même légèrement avant NVENC qui est sortie juste après avec les GTX600.



OBS est compatible avec cet encodeur hardware (et aussi avec celui d’Intel et Nvidia d’ailleurs), et fait très bien le boulot.

Et je ne vois pas en quoi VCE est inférieur à NVENC.









Jarre a écrit :



Pour revenir sur un poste plus haut qui suggérait qu’Intel se (re-)lance dans les GPU, moi je ne vois pas ce qui les empêche d’acheter NVIDIA… Ils pourraient fournir des APU autre que leurs trucs embarqués, ils auraient même une partie ARM qui pourraient les intéresser…





Nvidia possède une licence x86, si Intel rachète, le marché voit disparaître une des rares entreprises à pouvoir sortir du x86.



Donc les autorités de la concurrence US ne laisseront jamais passer ça. D’autant que Intel aura le quasi-monopole sur le CPU, et du coup plus de 65% du marché des GPU. Bref, trop gros, passera pas.



Juste, la 1060 3Go est castrée. La RX480 c’est juste la fréquence “normale” qui change.



Pour avoir fait l’achat y a pas longtemps, si tu sort des Sapphire Nitro et des KFA2, tu grimpes plus rapidement niveau prix chez les 1060.



Après perso, j’ai bien ramé à choisir entre les 2 <img data-src=" />


Le fanboyisme et l’image de marque et du coup les clichés aussi. Il y a plein de choses qui ont plombé AMD. Voir sa dirigeante être positive sur le futur même si c’est son boulot c’est toujours bien. Après, doubler les parts de marché je trouve ça un peu excessif.



Perso je mise beaucoup sur Vulkan qui apparemment ferait le café.


Vulkan est d’ailleurs grandement “influencé” par les travaux issues de Mantle.


Non c’est la fréquence et la bande passante de la RAM des RX480 qui n’est pas la même sur les modèles 4 Go et 8 Go.

Sur la 1060 tu as 10% d’unité de calculs en moins.



Donc l’un ou l’autre c’est “castré”.


Donc c’est bien ce que je dit. Moins d’unité calcul d’un coté, fréquence (donc bande passante) de l ‘autre. Tu trouves des modèles 4Go de RX480 que tu peut facitelement faire monter en fréquence au niveau des 8 (des gammes pour OC). Réactiver les UC, c’est possible en forçant un bios supérieur ?




Est après biensur, des 2 coté, t'as les différences de fréquences max en fonction des composants (qui dépend aussi des marques).







linkin623 a écrit :



Nvidia possède une licence x86, si Intel rachète, le marché voit disparaître une des rares entreprises à pouvoir sortir du x86.



Donc les autorités de la concurrence US ne laisseront jamais passer ça. D’autant que Intel aura le quasi-monopole sur le CPU, et du coup plus de 65% du marché des GPU. Bref, trop gros, passera pas.





Pas faux &nbsp;<img data-src=" />

Ça serait même plutôt intéressant un acteur de plus côté x86, qui viendrait du mobile par exemple. Les Qualcomm, Samsung, Mediatek et autres chinois commencent à faire des choses vraiment bien en ARM.

Je ne m’y connais pas suffisamment pour voir toutes les différences que ça implique mais avec les sous engrangés certains pourraient se lancer dans du x86 (même si se frotter à Intel doit pas être une perspective rassurante)&nbsp;<img data-src=" />









Obidoub a écrit :



Une carte graphique Intel ferait un carton chez les utilisateurs de Linux.





beaucoup de leur pross on déjà un GPU intégré



AMD a mit fin au pilote catalyst.

Le nouveau pilote propriétaire a commencé à le remplacer, mais seulement pour les cartes récentes (GCN3 et +, GCN2 de façon expérimental et bientôt GCN1).



Contrairement à l’ancien pilote propriétaire, le nouveau est hybride. En effet la partie kernel du pilote (celle qui gère l’énergie, les fréquences, les sorties vidéos, la gestion du pcie, etc …) est open source et directement intégré dans Linux. Cette partie se nomme AMDGPU.

Ensuite par dessus AMDGPU vient soit AMDGPU-PRO (le pilote propriétaire qui gère la partie userspace -&gt; OpenGL, OpenCL et Vulkan) soit mesa/galium avec le pilote radeonsi/RADV (pilote libre qui gère OpenGL, OpenCL et Vulkan).



AMD contribue pas mal au développement du pilote libre, depuis peu il OpenGL 4.5 (comme le pilote propriétaire).

Les avantages du pilote propriétaire par rapport au libre à l’heure actuelle, c’est qu’il gère le cache de shader (qui sont important pour les perf dans certaines situations), OpenCL 2.0 et Vulkan de façon complète.

Le pilote libre RADV (pilote libre pour Vulkan) n’est pas développé par AMD, mais par un développeur de redhat. AMD n’a pas l’intension d’aider les dev de RADV car ils veulent à terme ouvrir le code de l’implémentation actuellement propriétaire de Vulkan (celle qui est dans AMDGPU-PRO).



Pour OpenCL ça bouge aussi, pour des raisons de perf, AMD veut gérer OpenCL directement dans le kernel.

https://radeonopencompute.github.io/

https://github.com/RadeonOpenCompute/ROCK-Kernel-Driver



Pour résumer : AMD est enfin en train de se bouger sous Linux, ils sont en train de réécrire un paquet de truc tout en les rendant open source, donc c’est très cool.

Sauf qu’en attendant que tout soit fini, c’est plus ou moins le bordel.

Donc si tu veux les soutenir tu peux prendre une carte chez eux maintenant, sachant que l’essentiel fonctionnera mais il manquera quand même des choses (à l’heure actuelle : pas de FreeSync ni d’hdmi 2.0, pas d’OpenCL 2.0 sauf si on utilise le pilote propriétaire, pas de shader cache sur le pilote libre, vulkan encore expérimental avec le pilote radv, pour avoir support de vulkan complet faut le pilote proprio).

Si tu veux quelque chose de fini, vient dans 2-3 ans.


Si Vega est une réussite, ils sont capables de très fortement remonter. J’ai personnellement fait l’acquisition d’une RX480 pendant le Black Friday car, même si elle consomme plus que la GTX1060 6Go (je ne veux pas parler de la 3Go qu’ils ont eu l’audace de castrer sans changer le nom les pourris), elle a quand même pas mal de bons points :




  • ayant pris une Sapphire Nitro+, ça m’a coûté peu cher pour remplacer ma HD5850 et ça fait parfaitement le café en 1080p

  • les pilotes, parlons-en : beaucoup osent encore dire “c’est de la merde ça plante tout le temps”. Ah. C’est pas comme si des sites et magazines de hardware (comme CPCHardware) font de + en + remonter que les drivers GeForce baissent beaucoup en qualité depuis quelques temps, alors que les pilotes Radeon deviennent de mieux en mieux. J’ai personnellement jamais eu de soucis avec les Catalyst (sauf quand un site a voulu me pousser sur les Radeon Software pour la 5850, elle a jamais pu les digérer).

  • je tiens à préserver un maximum mes données personnelles. Alors quand on me dit qu’AMD prend quasi-rien, et que Nvidia prend BEAUCOUP (même sans Experience) si on va pas trifouiller les services, le choix est très vite fait.

  • la politique marketing de Nvidia est juste scandaleuse aussi. beaucoup en ont rien à secouer, mais entre les 970 3.5+0.5 Go et les 1060 désormais, j’ai juste aucune envie d’acheter mes CG chez eux :/

  • enfin, le prix. Même si je suis un des rares que ça dérange, le fait que les prix de chaque gamme aient glissé vers le bas (1060 au prix d’une 970) chez les Verts m’a déplu. Et qu’on me sorte pas l’argument des perfs, sinon depuis le temps la 1060 vaudrait 2000€ au moins depuis la naissance de Nvidia.



    Après, AMD n’est pas exempt de reproches. La gestion énergétique des RX480 fut catastrophique au départ, les performances n’étaient pas celles attendues (même si, encore une fois, venant d’une HD5850 ça vous change la vie) et la gamme RX est mal échelonnée avec la 470 trop proche de la 480 pour pas mal - cher. Mais je préfère les supporter eux, qui font tout pour innover (à leur rythme hein, mettons-nous d’accord) avec le peu de moyens qu’ils ont, plutôt que Nvidia qui continue de vendre toujours plus cher pour des services qui empirent de pilote en pilote.



    Bref, si vous avez lu jusque là, bravo !&nbsp;<img data-src=" />&nbsp;Et pour finir : il faut que Vega soit réussi, et il le sera à mes yeux s’il fait le bond avec les générations précédentes de HDG comme la RX480 l’a faite avec les 3xx.








Jarre a écrit :



Pas faux  <img data-src=" />

Ça serait même plutôt intéressant un acteur de plus côté x86, qui viendrait du mobile par exemple. Les Qualcomm, Samsung, Mediatek et autres chinois commencent à faire des choses vraiment bien en ARM.

Je ne m’y connais pas suffisamment pour voir toutes les différences que ça implique mais avec les sous engrangés certains pourraient se lancer dans du x86 (même si se frotter à Intel doit pas être une perspective rassurante) <img data-src=" />





Le prix d’une licence x86 c’est pas juste celui d’une licence Mpeg4 ^^



Et puis faut avoir les moyens de productions adaptés, qui sont un peu différents de l’ARM. Cette archi progresse tellement ces derniers temps que certains PC seront remplacés par de l’ARM un jour.



Se lancer dans le secteur alors que le seul marché qui progresse c’est les serveurs, je n’y crois pas. AMD a vraiment besoin de sortir une nouvelle génération potable, sinon Intel finira seul sur le x86, et trainera autant que possible pour arriver aux limites actuelles (de gravure ou d’architectures).



ATI cay nul<img data-src=" />


J’ai eu exactement la même réflexion ;)








Haken Trigger a écrit :



J’ai personnellement fait l’acquisition d’une RX480 pendant le Black Friday car, même si elle consomme plus que la GTX1060 6Go (je ne veux pas parler de la 3Go qu’ils ont eu l’audace de castrer sans changer le nom les pourris)





Et la RX 480 4Go avec sa RAM à 1.75GHz et bande passante à 224Go/s au lieu de 2GHz et 256Go/s sur la 8Go c’est écrit où dans le nom ?



Tu m’indiques comment réactivé les UC manquante sur un seul modèle, je t’indique comment augmenter la fréquence/bande passante au même niveau que la 8Go sur beaucoup de modèles. Ca te va ?


Merci XD Une mémoire, ça s’OC. Des unités de calcul, à moins d’un coup de bol, non. Surtout que l’OC est géré par les pilotes, alors qu’une carte avec des unités de calcul en nombre =/= des specs, faut voir.


Euh, non.

Comme si les acheteurs allaient s’amuser à ça, déjà qu’ils ne sont même pas au courant des différences… Ils voient un GPU 10% moins cher qu’un autre ils se disent “bof, il doit être 10% moins bien” et ça ne va pas plus loin.



Je disais juste ça parce que c’est saoulant de voir des messages avec des chiffres biaisés entre l’autre qui annonce 70€ d’écart entre une 480 et une 1060 en prenant une 480 4Go en promo versus une 1060 6Go sans promo <img data-src=" /> ou le fait d’aller pointer les différences du constructeur qu’on a pas acheté tout en masquant celles dont on a fait l’acquisition.



Au moins toi tu reconnais les deux.








Soltek a écrit :



Euh, non.



Comme si les acheteurs allaient s’amuser à ça, déjà qu’ils ne sont même

pas au courant des différences… Ils voient un GPU 10% moins cher

qu’un autre ils se disent “bof, il doit être 10% moins bien” et ça ne va

pas plus loin.



Je disais juste ça parce que c’est saoulant

de voir des messages avec des chiffres biaisés entre l’autre qui annonce

70€ d’écart entre une 480 et une 1060 en prenant une 480 4Go en promo

versus une 1060 6Go sans promo <img data-src=" />

ou le fait d’aller pointer les différences du constructeur qu’on a pas

acheté tout en masquant celles dont on a fait l’acquisition.



Au moins toi tu reconnais les deux.



Mais oui t’as raison. Ça on a compris. Et c’est la faute des autres. <img data-src=" />



J’ai fait qu’énoncer des faits pour ma part, et sans essayer d’en rajouter comme en faisant croire par exemple que la fréquence et la bande passante c’était 2 choses. Et la RX480 domine tellement que j’ai juste mis 3 semaines à choisir entre les 2.



Dans cette gamme de prix, en achat de CG seul, on est loin du mec qui n’y connaît rien en acheteurs. On parle quand même de 250-300+€ à lâcher dans un seul composant, en plus de devoir le monter, du coup je pense qu’on est plutôt avec une majorité de gens qui savent ce qu’ils font.

Du coup, OC la mémoire c’est facile avec WattMan qui permet de le faire simplement. En revanche, activer des unités potentiellement absentes ou endommagées sur une puce, c’est autre chose, et c’est bien plus risqué.

Enfin, j’ai certes omis le fait que la RX480 4Go avait une fréquence mémoire moindre. De une, j’ai quand même pointé les principaux défauts des RX, je n’ai pas volontairement “masqué” des détails comme tu sembles le croire. Car, de deux, au moins beaucoup de cartes customisées par les fabricants tiers ont un OC d’usine aux fameux 2GHz. Tu peux me donner une GTX1060 3Go avec autant d’unités de calcul que les 6Go ? (j’avoue ne pas avoir vérifié, c’est donc une vraie question)


moi pour avoir du 6GO , sachant que mes jeux surtout Skyrim prennent déjà plus de 4GO de VRAM , ta pauvre AMD aurait déjà été dépassé …



Et pour le “futur” plus de VRAM plus d’adaptabilité pour les 2K 4K dans les prochaines années ( enfin quand j’aurai un autre écran quoi )



Vu les différences de perfs sur plusieurs site j’ai pas hésité à prendre la 1060 6GB


En même temps, 3Go de VRAM (voire 4 Go vu que les devs AAA ne savent plus optimiser leur bordel) ça devient juste de nos jours XD

&nbsp;


Sauf que Freesync ( même si basé sur une techno libre ) est bien moins performant que le G-sync mais bon le prix des écrans G - sync ( embarquant donc une puce nvidia) est aussi bien plus cher








Incalex a écrit :



Pour ceux qui font du streaming (Twitch), Intel Quick Sync est le plus performant, mais après c’est NVENC. AMD est en retard. Et pour ces joueurs la, NVENV et Shadowplay sont des raisons valables pour choisir entre NVidia et AMD.





OBS prend en charge le VCE d’AMD qui est similaire à NVENC.Pour avoir tester les trois technos, j’en suis arrivé à la conclusion que pour avoir un truc sympa niveau qualité, il vaut mieux faire encoder via CPU sur une machine tier.

&nbsp;





Bowbie a écrit :



il y a aussi Freesync en parrallele de Gsync.



En ce qui concerne Mantle, on est vraiment sur que c’est ca qui a déclenché le dev de dx12 ? Ce n’etait pas juste un dev parrallele?&nbsp;





Disons que Mantle a donné un sacré coup de pied dans la fourmilière, et Microsoft a suivi la voie. De même pour Vulkan.

&nbsp;





Haken Trigger a écrit :



Dans cette gamme de prix, en achat de CG seul, on est loin du mec qui n’y connaît rien en acheteurs. On parle quand même de 250-300+€ à lâcher dans un seul composant, en plus de devoir le monter, du coup je pense qu’on est plutôt avec une majorité de gens qui savent ce qu’ils font.





Euh bof, tu n’a pas idée du nombre de personne que j’ai déja croisé avec des machines à 2000€, qu’ils auraient pu payer 1500€, et me dire “j’ai pris le meilleur” sans vraiment savoir ce qu’il y avait dedans.

A leur décharge, les fabricants font tout pour noyer le poisson (cf les discussions sur les specs des cartes qui bougent en fonction de la quantité de mémoire).



&nbsp;Bien moins performant ?



Source ? à part que la plage de fréquence est un peu plus réduite il ne me semble pas que la différence soit si énorme…



Surtout que par exemple le G-sync sur portable n’est que de l’adaptive-sync, donc du free-sync et donc le g-sync nvidia sur portable est de mauvaise qualité si on suit cette logique.


Au moins, entre amd et nvidia, il n’y a pas d’entente illicite sur les tarifs… Du moins, je suppose… <img data-src=" />



Bien jolies en tous cas les dernières CG d’amd.








reitrop a écrit :



Je ne suis pas super au courant sur ces sujets là (alors que je joue sur Linux en plus), mais il me semblait avoir lu qu’AMD avait annoncé la fin du support de Linux pour ses nouveaux pilotes. Et que ça serait dorénavant à la communauté de bricoler des pilotes libres. Est-ce que j’ai lu de travers ? Comment ça se passe le déploiement des pilotes sur Linux aujourd’hui ?



Je demande car je commence tout doucement à regarder par quoi remplacer ma GTX770 d’ici quelques temps….





Tu as lu trop vite et de travers. ;) AMD a annoncé l’arrêt progressif du support de son blob propriétaire historique car ils préparent eux-mêmes une nouvelle base de pilotes bien plus ouverte et partant bien plus “intégrée” au noyau. Bref, le constructeur s’est enfin décidé à adopter une vraie politique de support en phase avec le libre (ne nous leurrons pas, il y aura encore certainement des parties obfusquées. Mais le fait qu’il n’y ait plus qu’un pilote unique maintenu par le constructeur est une grosse avancée).





Obidoub a écrit :



Si tu joue sous Linux, ne prends pas d’AMD.



Désolé, mais tu mérites le point <img data-src=" /> pour ne pas du tout préciser de limite de temps / budget à ton conseil. S’il s’agit d’acheter aujourd’hui, pour en profiter dès aujourd’hui, une carte de très haut de gamme (qui durera donc des années) effectivement nvidia a l’avantage.

Dès lors que l’on peut attendre au moins 6 mois, quand une première version stable des nouveaux pilotes AMD sera sortie, les cartes nvidia n’auront plus aucun intérêt (surtout que le support AMD n’ira qu’en s’améliorant) pour du jeu sous Linux.



Et même pour ceux qui envisagent de s’acheter une carte de manière générale, il est de toute façon recommandé d’attendre les nouveaux GPU AMD autant que possible, car il y aura forcément des retombées sur les prix côté nvidia aussi en fonction des perfs réelles.

&nbsp;









Soltek a écrit :



Euh, non.



  Comme si les acheteurs allaient s'amuser à ça, déjà qu'ils ne sont même pas au courant des différences... Ils voient un GPU 10% moins cher qu'un autre ils se disent "bof, il doit être 10% moins bien" et ça ne va pas plus loin.        






  Je disais juste ça parce que c'est saoulant de voir des messages avec des chiffres biaisés entre l'autre qui annonce 70€ d'écart entre une 480 et une 1060 en prenant une 480 4Go en promo versus une 1060 6Go sans promo <img data-src="> ou le fait d'aller pointer les différences du constructeur qu'on a pas acheté tout en masquant celles dont on a fait l'acquisition.        






  Au moins toi tu reconnais les deux.








 Je ne biaise pas les chiffres.       

Une Nitro + 4GO a un meilleur indice qu'une RX480 de référence, son meilleur prix est bien 180€ pendant le BF et avant.

Une Asus GTX1060 Dual 6G est une bonne GTX1060, son meilleur prix est bien à 250€ pendant le BF et avant !

je défend l'idée que ces cartes sont dans la même cour, car les 8GO de la RX480 sont juste abusés et inutiles... Si vous vous êtes convaincu de l'inverse tant mieux pour eux, mais c'est réellement ridicule... J'ai réussi à lancer un modèle maison de 40 millions de triangles avec des textures en 2K et ce n'est pas ma ram qui me limite, c'est mon GPU qui est à bout ! On finira de toute façon limité par nos unités de calcul, et la carte n'en aura dans tous les cas plus assez pour remplir ses 4GO, c'est mathématique !






 La mauvaise foie serait de dire qu'enlever des unités de calcul a autant d'impact que d'enlever de la RAM. La différence la plus sensible c'est sur la fréquence de la ram entre les différentes versions de RX480, et ça s'oc très bien ça...    






 Clairement les constructeurs réussissent leur coup, vu qu'on est trop fainéant pour chercher toutes les subtilités, le consommateur lambda s'arrête au chiffre derrière le GO... Plus parlant paraît-il !       

Sauf que la différence entre une 1060 3GO et 6GO est bien plus importante qu'entre une RX480 8GO et 4GO. La GTX1060 3GO tu peux la mettre dans la même cour qu'une RX470, mais pas en face d'une RX480 4GO !






 Je parle bien de carte intéressante en rapport qualité prix, une RX480 à 180€ est moins bien qu'une GTX1060 6GO à 250€, mais à mon sens, elle est pas "70€" moins bien !








Citan666 a écrit :



Désolé, mais tu mérites le point <img data-src=" /> pour ne pas du tout préciser de limite de temps / budget à ton conseil. S’il s’agit d’acheter aujourd’hui, pour en profiter dès aujourd’hui, une carte de très haut de gamme (qui durera donc des années) effectivement nvidia a l’avantage.

Dès lors que l’on peut attendre au moins 6 mois, quand une première version stable des nouveaux pilotes AMD sera sortie, les cartes nvidia n’auront plus aucun intérêt (surtout que le support AMD n’ira qu’en s’améliorant) pour du jeu sous Linux.&nbsp;&nbsp;



&nbsp;

Théorie VS réalité.

Je connais des gens qui ont de l’AMD sur Linux (gamme R7, ni trop vieille ni trop récente) et c’est toujours aussi catastrophique qu’avant.



Justement, le problème c’est que la différence entre une RX480 8Go et 4Go, ce n’est pas que 4Go de mémoire, mais 4Go et quelques MHz. Et la bande passante n’est pas un facteur négligeable.

On est pas la pour polémiquer sur le fait qu’une 1060 3Go perd plus en proportion face à la 6Go qu’une RX 480 4Go ne perd face à la 8Go.



Mais bien sur le fait que les fabricants ne facilitent pas l’accès à l’information (pour ne pas dire l’obfusque carrément) : quand on compare les deux produits sur une étagère, on ne voit qu’une différence de quantité de vRAM (qui, comme tu le signale, peut éventuellement être sacrifiée sur ces cartes).


Bah non, absolument pas théorie vs réalité. Tu l’aurais compris si tu avais pris la peine de lire.



Pour une carte dont on veut profiter TOUT DE SUITE, pour jouer, sous Linux, Nvidia sera (sans doute) mieux*. C’est normal, vu que AMD est en pleine phase de transition au niveau de ses pilotes.



Dans 6 mois, les fonctionnalités essentielles seront toutes là.

Dans un an, si nvidia n’a pas réagi entre temps, ils seront complètement écrasés par AMD.



Elle est là la réalité : celle d’un acteur dont un des pans entier de la stratégie de reconquête de marché repose sur l’ouverture, quand l’autre profite de sa supériorité économique pour ignorer l’écosystème.

Et si le marché du jeu sous Linux reste encore extrêmement réduit, je suis sûr que le fait de proposer des pilotes fiables sous Linux pour de la CG va élargir les usages. Et au-delà, les usagers Linux ayant tendance à être force de suggestion visà-vis de leur entourage non averti, cela permet à AMD de se procurer des évangélistes… <img data-src=" />



* Je dis sans doute, considérant les retours ici. Mais mon expérience personnelle est tout autant laborieuse sous nvidia (voire pire, pour l’aspect autonomie cf optimus et bumblebee) que sous AMD…








Obidoub a écrit :



3D vision : bide

Ansel : connais pas

PhysX : rendu très moyen a mon sens pour un coût élevé en perfs, déprécié au profil de GameWorks

Shadowplay : logiciel

Optimus : il y a pareil avec AMD (malheureusement)



En fait il ne reste véritablement que GameWorks.

Mais sur The Witcher 3 son activation n’apporte vraiment rien en terme de rendu alors que le coût en performances est élevé.





PhysX tapait beaucoup sur les performances à ses débuts quand ça a été incorporé aux cartes nVidia, maintenant c’est faux de dire que le coût en perf est élevé.



Pour ce qui est de GameWorks le coût est élevé en terme de performances mais par contre je ne peux pas te laisser dire que ça n’apporte rien sur The Witcher 3 <img data-src=" /> Have a look at this <img data-src="> Et oui j’ai joué et fini le jeu (mais pas les DLC payants mais bon on s’en fout)



PS : Bon sang les spaghetti sur le crâne de Geralt quoi <img data-src=" />









[_Driltan_ a écrit :



Pour ce qui est de GameWorks le coût est élevé en terme de performances mais par contre je ne peux pas te laisser dire que ça n’apporte rien sur The Witcher 3 <img data-src=" /> Have a look at this <img data-src="> Et oui j’ai joué et fini le jeu (mais pas les DLC payants mais bon on s’en fout)&nbsp;&nbsp;



&nbsp;

Bof.

&nbsp;

Toutes les petites conneries du genre les cheveux et les ficelles de l’armure qui réagissent au vent, on y a droit aussi sans Gameworks. Pareil pour les effets d’eau, de poussières et de particules.. A la limite le seul truc qu’on voit ce sont fourrures mais là encore la différence n’est pas énorme. Elle ne vaut pas son coût en performances.&nbsp;



Au moins avec PhysX ils essayaient de faire des choses qui claquent&nbsp;<img data-src=" />&nbsp;Même si avec du recul c’était quand même assez moche (l’eau qui ressemble à des boules de gélatine, le brouillard à de la mousse…).



Ca c’est sur, la fréquence et le GPU seront toujours plus importants que la mémoire embarquée. je voulais juste nuancer de l’importance de la RAM, qui n’est pas que Marketing, et la comparaison avec les anciens HdG à 6Go de RAM n’est pas forcément révélatrice, puisque même si leur GPU est suffisamment puissant pour continuer à gérer des résolutions normales, ils risquent très vite d’être limité par la mémoire.



Et là je suis pas d’accord sur un point, c’est le :&nbsp;



&nbsp;





heaven7 a écrit :



dans deux ou trois ans les GPU auront besoin de plus de mémoire vive car ils pourront les prendre en charge. Mais aujourd’hui non.&nbsp;





C’est déjà le cas, cf. le bench que je t’ai montré. C’est sur quelques titres, d’accord. Mais ca va se démocratiser dans les mois à venir, pas dans un ou deux ans. Et quand c’est le cas, c’est pas 1 ou 2 fps que tu perds en 1080p, mais presque dizaine, voir bien plus (sur Mirror’s Edge, c’est flagrant).&nbsp;



Dans 1 an, racheter une carte parce qu’on a pas pris la version à 8Go de RAM et que 15 fps perdues se ressentent vraiment, ca remet en question l’achat.



Chez NVidia, proposer une version 3Go, c’est presque insultant.









Derived a écrit :



Dans 1 an, racheter une carte parce qu’on a pas pris la version à 8Go de RAM et que 15 fps perdues se ressentent vraiment, ca remet en question l’achat.&nbsp;



&nbsp;

Ouep, et ça commence déjà, avec Deus Ex Mankind Divided qui demande 8GB de mémoire vidéo pour les modes élevés. J’ai essayé avec 4GB et ça crashe donc j’imagine que les 8GB sont réellement nécessaires. Après ce jeu n’est pas un modèle d’optimisation mais avec l’arrivée de la PS4 Pro on peut imaginer que les jeux vont évoluer graphiquement et demander de plus en plus de ressources.



Et c’est sans parler de la VR.



PhysX et Arkham Asylum : plein de prospectus qui volent quand on marche dessus <img data-src=" /> un effet de particule qui rajoute un peu de réalisme.



Gameworks : beaucoup de réalisme mais ça fracasse les cartes graphiques en terme d’IPS.



Le truc c’est qu’on voit carrément la différence avec ou sans Gameworks tu fais preuve d’un chouilla de mauvaise foi je trouve <img data-src=" /> Bon après on a pas tous une 1080 pour jouer à + de 60 IPS avec Gameworks activé sur un écran 2K ou 4K donc on se dit que c’est minime même si ça agit beaucoup sur l’immersion.


Je leur souhaite d’y arriver pour un peu de concurrence.

Je suis chez nVidia car actuellement les ATI chauffe trop et consomme beaucoup trop. J’attends leur nouvelles cartes sur ces points.








Incalex a écrit :



Shadowplay exploite l’encodeur hardware des carte NVidia (encodage NVENC). Donc pas que du logiciel. Et ça a été un gros argument de vente (c’en est encore un) pour ceux qui aiment filmer leur sessions de jeu ou garder les x dernières minutes simplement parce que pendant pas mal de temps, il n’y a pas eu d’équivalent AMD. Ou les équivalents étaient beaucoup moins performant.





Perso après ~500h en hardcore à Diablo3 avec le même perso, je me suis mis à utiliser la fonctionnalité AMD en me disant qu’au moins le jour où je crèverais, je serais triste, mais j’aurais une vidéo souvenir. Résultat vague d’écrans bleus, mort du personnage alors qu’il n’y avait qu’un pauvre mob à coté, évidemment sans vidéo souvenir…

J’ai pas fait le lien tout de suite, mais je n’avais jamais eu d’écran bleu avant, et je n’ai plus jamais eu d’écran bleu depuis que j’ai désactivé la fonctionnalité en question.

<img data-src=" />



En ce moment les R9 FURY et FURY X et dans une moindre mesure les R9 NANO ce vendent très très bien y a qu’a voir le topic dédié sur hardware.fr y a des FURY à 229€.


En parlant de pilotes, AMD vont sortir une grosse mise à jour de leur pilotes le 8 décembre avec des améliorations de performances pour les cartes basées sur polaris :http://wccftech.com/amd-radeon-software-crimson-relive-driver-leak/



Du coup il faudra attendre la sortie de la RX490 pour avoir des tests à jour avec cette nouvelle version des pilotes








Pylos a écrit :



…Bon depuis, j’ai arrêté les frais. J’ai hâtivement pensé qu’entrer dans le giron d’AMD rectifierait le tir, mais non, sont toujours aussi manchots.&nbsp;<img data-src=" />





Sur le manchot, j’ai une préférence pour Nvidia. <img data-src=" />



C’est ambitieux. Mais ça se fera sans moi.

Jamais je remettrais les pieds chez AMD / ATI. J’ai eu trop de problèmes (rien que le Catalyst Control Center, je ne veux plus en entendre parler).

Alors que du côté du caméléon, il n’y a que ma 670 qui m’a déçu avec les problèmes de suttering qui ont bien duré 6 mois.



Alors oui Nvidia c’est plus cher mais tant pis je préfère y mettre le prix.


Pour les historiens, que s’est-il passé entre Q2 et Q4 2014 ?








Pas de Bol a écrit :



Pour les historiens, que s’est-il passé entre Q2 et Q4 2014 ?





Je dirai l’arrivée des GPU Maxwell chez les verts.

&nbsp;





Tidus93 a écrit :



(rien que le Catalyst Control Center, je ne veux plus en entendre parler).





Ça tombe bien il a disparu <img data-src=" />



Linux = lol_amd

C’est une niche mais avec steam sur linux et des plus en plus de jeux portés, c’est une niche qui va grossir un peu.

&nbsp;

&nbsp;


Ça donne quoi les CG AMD de nos jours ? Je veux dire par rapport à nVidia ? J’aimerais changer et je me tâte à revenir chez eux.



😘


HD5870 pour moi et maintenant (à cause de NextInpact) une R390X. Ma prochaine dans 5 ans grâce à NextInpact ?








matroska a écrit :



Ça donne quoi les CG AMD de nos jours ? Je veux dire par rapport à nVidia ? J’aimerais changer et je me tâte à revenir chez eux.



😘





Ça dépend des gammes. Pour le moment, sur le bas et le milieu de gamme, les produits polaris peuvent tirer leur épingle du jeu sur le rapport perf/prix. Elles accusent un manque d’efficacité énergétiques face aux gammes Pascal toutefois. La partie logicielle de chez nVidia est aussi plus fournie, avec des outils comme shadowplay.

Sur le “haut du milieu de gamme”, tu peux peut être trouver des R9 Fury, des GPU d’ancienne génération qui ont vu leur prix cassé pour venir s’intercaler entre la GTX 1060 et la GTX 1070 (tant en terme de prix que de perfs).

Mais je ne te conseille pas ces produits, d’une part car l’efficacité énergétique est vraiment à la traine, et aussi parce que les 4Go de vRAM sont un peu léger de nos jours.









heaven7 a écrit :



Mais beaucoup plus cher ! C’est là le génie de Nvidia : toujours devant ATI en perf et conso, et du coup on se fait plaiz et on ajoute au minimum un billet de 50 voire de 100€ !







Et à ce tarif là la différence de consommation n’est jamais amortie… cqfd






Et à ce tarif là, la différence de consommation ne sera jamais amortie… cqfd


Je confirme…




C’est oublier un peu vite ce qu’a mis AMD en R&D notament avec l’API Mantle qui est quand même à l’origine de Vulkan auquel s’est rallié NVidia d’ailleurs, mais aussi FreeSync, etc..



Par ailleurs, la plupart des technos AMD sont misent en Open Source et ils travaillent activement avec la communauté Linux pour l’adaptation de driver pour leurs produits tout en laissant le choix d’utiliser le driver propriétaire.




Illusoire ! Intel a verrouillé l’accès à l’API x86, il n’est plus possible aujourd’hui d’obtenir une licence pour une entreprise tiers.



Seuls ceux qui les ont obtenu auparavant peuvent les exploiter, mais les nouvelles API misent en œuvre par Intel leurs sont interdites, ils doivent donc construire une API d’extension qui implémentent des fonctions similaires qui doivent être prisent en charge par les compilateurs.



Sur la brochure commerciale, vont-ils insister sur l’option “chauffe-pied”. Ça pourrait marcher, il faut dire que ça caille en moment.


Merci du feedback ! J’ai encore une vieille CG sur un de mes poste, une 9800GTX mdr. Sinon il est vrai que les softwares nVidia que ce soit GeForce Experience ou bien même les pilotes sont plus aboutis qu’AMD et plus simples à mettre à jour, in-app update, propre et simple.



<img data-src=" />




Il y a eut effectivement quelques éditions des Catalyst qui n’étaient pas top.



Ceci dit, depuis la mise en oeuvre du Radeon Software Crimson Edition, il n’y a plus aucun problème, l’interface est rapide et complète tout en étant légère en ressource.



Maintenant les mises à jour auto sont fiable et rapide et ne demandant la plupart du temps aucun redémarrage.




Plus maintenant avec les Crimson…



en tout cas les cartes AMD comme d’hab se bonifie avec le temps



https://www.youtube.com/watch?v=gEw3CaNSbUo



très grosse maj attendu sur les driver avec des tones de fonctionalité même pour les vieux modèles



http://wccftech.com/amd-radeon-software-crimson-relive-driver-leak/



par contre pour les cartes haut de gamme on attend toujours








matroska a écrit :



Merci du feedback ! J’ai encore une vieille CG sur un de mes poste, une 9800GTX mdr. Sinon il est vrai que les softwares nVidia que ce soit GeForce Experience ou bien même les pilotes sont plus aboutis qu’AMD et plus simples à mettre à jour, in-app update, propre et simple.



<img data-src=" />





Tout dépend de ce que tu appelles abouti, mais je pense qu’en terme de stabilité et d’interface, les pilotes AMD font désormais jeu égal avec les pilotes nVidia (et oui on peu les maj via l’interface)



Si Intel se met à intégrer des cœurs graphiques AMD dans ses produits (info à vérifier bien sûr), alors cette annonce d’AMD de conquérir 50% du marché des puces graphiques devient tout à fait réaliste.


Et tout dépend de ce que l’on veut dire par propre quand on voit toute la télémétrie que nvidia récupère via ses drivers :)








stratic a écrit :



Si Intel se met à intégrer des cœurs graphiques AMD dans ses produits (info à vérifier bien sûr), alors cette annonce d’AMD de conquérir 50% du marché des puces graphiques devient tout à fait réaliste.





J’ai vu aussi la rumeur et en tant qu’utilisateur de Linux je suis dégoûté.

Les puces graphiques Intel sont une pure merveille, je ne veux pas d’AMD et de leurs drivers pourris (toujours sur Linux bien sûr, aucun problème à signaler sous Windows).









Charly32 a écrit :



Ça tombe bien il a disparu <img data-src=" />





Tiens donc ? Pourtant mon PC boulot équipé d’une AMD FirePro dispose bien d’un logiciel en barre des tâches appelé “AMD Catalyst Control Center”.









Argonaute a écrit :



Il y a eut effectivement quelques éditions des Catalyst qui n’étaient pas top.&nbsp;





Quelques ? &nbsp;Ah ben faut croire que je n’ai pas eu de chance, tout les cartes ATI (aussi bien dédiée qu’intégrée ou chipset) m’ont posé des problèmes. Enfin bon peu importe, je ne me ferai plus avoir.



Perso j’ai une AMD 7950 dans l’un de mes pc et dans l’autre une NV 970 j’ai plus de problème sur ma machine Windows…. et pourtant sur Windows 10. Donc bon le problème de pilote du côté amd je pense que c’est du passé par contre chez nvidia c’est du présent …


Je sais que je ne représente pas la majorité, mais depuis mon passage sous linux il y a 10 ans avec une carte graphique AMD, je me suis juré de ne plus jamais acheter du AMD.

&nbsp;

J’ai eu l’occasion récemment de voir que les drivers ne se sont pas améliorés. Du coup je conseille également du NVIDIA a mes proches, ou du Intel si pas besoin de puissance graphique.



Surtout je n’avais pas apprécié le fait que AMD ne mette même pas une personne à temps plein sur les drivers linux, on voyait très bien qu’ils étaient à l’abandon le plus total




Radeon RX 480 Nitro+ OC (8 Go) et Civilization VI : 224,95 € avec le code CADEAUX





Sur NextINpact&nbsp;<img data-src=" />

Excellent modèle.


Bien pour AMD, mais il faudrait qu’ils se positionnent en haut de gamme dans lequel on sent bien qu’nvidia n’a pas de concurrent avec des prix qui sautent.



Si ils peuvent faire aussi des efforts niveau consommation, pourquoi pas passer chez eux








robin4002 a écrit :



Ah bon ?http://developer.amd.com/community/blog/2014/02/19/introducing-video-coding-engi…



VCE est disponible depuis les HD7000, donc même légèrement avant NVENC qui est sortie juste après avec les GTX600.      






OBS est compatible avec cet encodeur hardware (et aussi avec celui d'Intel et Nvidia d'ailleurs), et fait très bien le boulot.    



Et je ne vois pas en quoi VCE est inférieur à NVENC.





My bad pour le fait que VCE soit arrivé avant, bien que il me semble que des programmes l’exploitant sont arrivés après (mais pour le coup, ce n’est pas une affirmation)



Le support de OBS pour VCE à longtemps été un débat coté OBS. La branche VCE a été mergée récemment (mais pas pour cause de stabilité, mais de license sur le code VCE). Néanmoins, la qualité était inférieure à celle de NVENC (du moins à la sortie, je ne me suis pas renseigné récemment. De toute façon NVENC et VCE sont tous les deux inférieurs au QSV d’Intel en matière d’encodeurs hardware).



La ou NVidia a bien vendu son produit, c’est bel et bien Shadowplay. Simplement parce que VCE était sorti, mais rien ne l’exploitait. Alors que NVENC est sorti, Shadowplay l’exploitait parfaitement. De mémoire, le logiciel “officiel” pour VCE est Raptr, et il me semble que même aujourd’hui, que ce soit en qualité/performance il est inférieur a Shadowplay.



AMD a bien fait la techno, mais la ou ces technos sont très utiles, c’est bien pour filmer des sessions de jeu avec peu d’impacts sur les performances. Comme le dis Charly32 (cité ci-dessous), VCE/NVENC et même QSV (qui est bien plus performant) ne valent pas le CPU pur pour un ratio poids/qualité. Et NVidia a bien mieux joué sur ce point la, contrairement à AMD ou sa technologie a été exploitée en retard.



Dommage que pour utiliser Shadowplay, il est nécessaire d’avoir GeForce Experience.

&nbsp;





Charly32 a écrit :



OBS prend en charge le VCE d’AMD qui est similaire à NVENC.Pour avoir tester les trois technos, j’en suis arrivé à la conclusion que pour avoir un truc sympa niveau qualité, il vaut mieux faire encoder via CPU sur une machine tier.





L’encodeur software (CPU pur) à une longueur d’avance en terme de ratio poids/qualité.

Mais uniquement sur ce domaine la. Pour du streaming, dans le cas ou on est limité en débit, c’est un argument de qualité, puisqu’a débit équivalent, le CPU donnera un meilleur rendu.

En revanche et en jeu, si on veux le moins ressentir des baisses de performances, les encodeurs hardwares sont très utiles. Et pour faire du local record avec une bonne qualité aussi.



Je reviens juste sur le “il faut encoder via CPU sur une machine tiers”.

J’approuve totalement car c’est actuellement mon setup de stream. PC de jeu qui encode via QSV sans limite de débit, envoi en RTMP sur un 2 PC, serveur Linux, qui ré-encode ça via ffmpeg, sans accélération hardware.

C’est le meilleur compromis pour avoir une bonne qualité de stream, et pas de pertes de performances coté PC de jeu.

Mais ça demande 2 PCs, et savoir faire son serveur Linux (compiler son nginx-rtmp, ou pire vu que nginx-rtmp apprécie pas trop le 1440p60fps, trouver des solutions tierces)



Merci de la précision, à voir donc.



<img data-src=" />








stratic a écrit :



Si Intel se met à intégrer des cœurs graphiques AMD dans ses produits (info à vérifier bien sûr), alors cette annonce d’AMD de conquérir 50% du marché des puces graphiques devient tout à fait réaliste.





Si cela s’avère vrai cela montre qu’Intel a du mal avec ses iGPU, quand on voit que sur les roadmap d’Intel il y a peu d’évolutions concernant les iGPU



Je suis aussi utilisateur de Linux mais je ne tire pas de conclusion sur cet aspect. L’effet peut aussi être inverse. Si Intel maintien la même volonté de publier des drivers pour Linux (et c’est vrai qu’ils font du très bon boulot), alors ça peut aussi amener à avoir de bons drivers pour de la technologie AMD sous la pression d’Intel.



C’est vrai qu’AMD à un peu laissé tomber ses drivers sous Linux depuis qulques années (faute de moyens). Mais, il faut se souvenir que dans un passé pas si lointain, c’était l’inverse. Les drivers AMD étaient plus ouverts et utilisables sous linux que ceux de NVidia. Tout n’est question que de volonté et de moyens.








Tidus93 a écrit :



Tiens donc ? Pourtant mon PC boulot équipé d’une AMD FirePro dispose bien d’un logiciel en barre des tâches appelé “AMD Catalyst Control Center”.



Le fait qu’ils ne le proposent plus ne signifient pas qu’ils le désinstallent de force partout, hein.

Si les pilotes n’ont pas été mis à jour depuis longtemps, ce n’est pas étonnant que tu disposes encore de Catalyst… Tout comme un PC de 15 ans peut toujours avoir un Windows XP comme OS, MS ne l’a pas fait disparaître à l’arrêt du support.









matroska a écrit :



Ça donne quoi les CG AMD de nos jours ? Je veux dire par rapport à nVidia ? J’aimerais changer et je me tâte à revenir chez eux.



😘





deux choses, les drivers c’est de mieux en mieux, voir même mieux que nVIDIA sous WINDOWS, en suite la meilleur affaire ce sont les R9 FURY pour du jeux en FULLHD voir un peux plus en 1440P, même si se genre de modèles auraient mérité d’avoir du HDCP 2.2 et du HDMI 2.0a, et éventuellement 8 GO.



les RX480 sont à éviter sauf modèle 8 GO à moins de 200€, donc si tu veux tous de même prendre une RX480 8 GO attends qu’il soit à moins de 200€, ou alors une vers OC de la RX470 en 8 GO surtout si la RAM et le GPU sont OC tu aura encore une petite marge pour overclocker, bien sur uniquement si c’est pour moins de 200€ si c’est plus chère que 200€ attends quelques temps.



si tu veux vraiment du NEUF en théorie VEGA sortira vers le 20 JUIN 2017, dans le pire attends Octobre 2017 VEGA aura surement bien baisser de tarifs.









Jos a écrit :



Surtout je n’avais pas apprécié le fait que AMD ne mette même pas une personne à temps plein sur les drivers linux, on voyait très bien qu’ils étaient à l’abandon le plus total





https://cgit.freedesktop.org/~agd5f/linux/

à ce que je sache ce repo est très actif.

Et la presque totalité des gens qui travaillent dessus sont des employés d’AMD.

Grâce au récent effort d’AMD pour améliorer le pilote open source pour GCN, ce dernier supporte maintenant OpenGL.

Une carte récente d’AMD, tu la branche et l’essentiel fonctionne.

Il manque par contre encore des trucs comme FreeSync, l’hdmi 2.0 et autres choses géré par le dal (display abstraction layer) car il n’a pas été accepté, AMD doit le rendre plus léger et plus facile à maintenir. (si tout ce passe bien il sera margé dans linux 4.11).









Obidoub a écrit :



J’ai vu aussi la rumeur et en tant qu’utilisateur de Linux je suis dégoûté.



Les puces graphiques Intel sont une pure merveille, je ne veux pas

d’AMD et de leurs drivers pourris (toujours sur Linux bien sûr, aucun

problème à signaler sous Windows).





Le pilote libre pour les cartes GCN fonctionnent très bien, gère OpenGL 4.5 et même Vulkan pour les cartes les plus récentes. Personnellement ma HD7970 fonctionne très bien sous Linux.



Merci !



<img data-src=" />








loapinouminou a écrit :



les RX480 sont à éviter sauf modèle 8 GO à moins de 200€, d



Why ?









Tidus93 a écrit :



Tiens donc ? Pourtant mon PC boulot équipé d’une AMD FirePro dispose bien d’un logiciel en barre des tâches appelé “AMD Catalyst Control Center”.





Il a quel âge? Je ne suis pas torp le marché pro, mais si ta carte n’est pas dans cette liste, alors effectivement c’est encore le CCC (non pas le comité contre les chats) qui s’applique.









  • FirePro R5000

  • FirePro V5900

  • FirePro V7900

  • FirePro V7900 SDI

  • FirePro W600

  • FirePro W2100

  • FirePro W4100

  • FirePro W4300

  • FirePro W5000

  • FirePro W5000 DVI

  • FirePro W5100

  • FirePro W7000

  • FirePro W7100

  • FirePro W8000

  • FirePro W8100

  • FirePro W9000

  • FirePro W9100





    &nbsp;





    Incalex a écrit :



    L’encodeur software (CPU pur) à une longueur d’avance en terme de ratio poids/qualité.

    Mais uniquement sur ce domaine la. Pour du streaming, dans le cas ou on est limité en débit, c’est un argument de qualité, puisqu’a débit équivalent, le CPU donnera un meilleur rendu.

    En revanche et en jeu, si on veux le moins ressentir des baisses de performances, les encodeurs hardwares sont très utiles. Et pour faire du local record avec une bonne qualité aussi.



    Je reviens juste sur le “il faut encoder via CPU sur une machine tiers”.

    J’approuve totalement car c’est actuellement mon setup de stream. PC de jeu qui encode via QSV sans limite de débit, envoi en RTMP sur un 2 PC, serveur Linux, qui ré-encode ça via ffmpeg, sans accélération hardware.

    C’est le meilleur compromis pour avoir une bonne qualité de stream, et pas de pertes de performances coté PC de jeu.

    Mais ça demande 2 PCs, et savoir faire son serveur Linux (compiler son nginx-rtmp, ou pire vu que nginx-rtmp apprécie pas trop le 1440p60fps, trouver des solutions tierces)





    Moi je pensais plutôt à une carte d’acquisition HDMI, comme ça aucun iNpact sur le PC de jeu, et un seul encodage de bonne qualité! Mais d’un coup ça fait augmenter la note (2nd assez puissant, boitier d’acquisition, électricité) et ce n’est pas viable pour celui qui n’est pas pro/semi-pro.

    Simple curiosité, c’est quoi ton set-up ? Comment tu récupère le flux sur le PC d’encodage?

    &nbsp;





    ndjpoye a écrit :



    Why ?





    Je pense qu’il voulait dire “évitez les RX 480 8GO à PLUS de 200€”. <img data-src=" />









Charly32 a écrit :



Je pense qu’il voulait dire “évitez les RX 480 8GO à PLUS de 200€”. <img data-src=" />





Idem, pourquoi ? En plus là c’est un mouton à 5 pattes et d’ici qu’il arrive, les autres auront surement aussi baisser.



Disons qu’à environ 200€, c’est un bon deal prix/perfo.

C’est pile poil dans le trou de la concurrence, qui n’a rien à proposer entre la 1050 Ti et la 1060 3Go.



La RX 470 que l’on peut parfois trouver à 170€ en soldes est aussi un bon deal, le problème d’alimentation du modèle de référence de la RX 480 en moins.&nbsp;


Je vois que tu essayes, et je t’en remercie.



Quel sont les critères et la réflexion qui lui font dires ça ? Parce qu’il la trouve bien moins puissante qu’une 1060 3GO (environ 230€ hors promo) ou qu’une 6 Go (1iers modèles plutôt vers 280€hors promo) ?

C’est les critères qui me manque.








Charly32 a écrit :



Moi je pensais plutôt à une carte d’acquisition HDMI, comme ça aucun iNpact sur le PC de jeu, et un seul encodage de bonne qualité! Mais d’un coup ça fait augmenter la note (2nd assez puissant, boitier d’acquisition, électricité) et ce n’est pas viable pour celui qui n’est pas pro/semi-pro.&nbsp;





C’est une solution qui marche aussi (et que certains streamers que je connais utilisent). Mais 2e PC obligatoire, une capture card ça coûte cher et ça demande aussi des ressources. Mais bien plus simple à mettre en place qu’un serveur Linux ^^. J’ai d’ailleurs été surpris de voir à quel point une capture card consomme en charge CPU lorsqu’elle est chargée sur OBS.

&nbsp;



Charly32 a écrit :



Simple curiosité, c’est quoi ton set-up ? Comment tu récupère le flux sur le PC d’encodage?&nbsp;





Je ne sais pas si je frôle pas le hors-sujet mais bon (et à vrai dire, je ne sais même pas si il y a un système de message privé).

&nbsp;

Le PC sur lequel je joue (i7 6700k/GTX 1080) capture le jeu via OBS et stream en réseau local vers mon 2ème PC (qui est mon ancien PC de jeu ^^). Ce flux la, je l’encode par QSV (charge sur le PC faible), avec le paramètre ICQ (pas de limite de débit, ICQ c’est un genre de “facteur de qualité d’image”), ce qui peux donner des débits &gt;200Mbps en pic de mouvement. Et j’enregistre aussi en local.

Le PC secondaire est un ArchLinux i5 2500k. Il faut un serveur RTMP pour récupérer le flux (enfin, pour que PC1 puisse streamer sur PC2), avant j’utilisais nginx-rtmp (un petit module open-source à compiler), mais j’ai eu des soucis de protocole rtmp quand j’envoyais du 1440p60fps.

Du coup je passe maintenant par MonaServer http://www.monaserver.ovh/) qui fait très bien le boulot.

Ensuite, juste a faire un ffmpeg -i rtmp://localhost:port/flux -o rtmp://twitch/ (avec toutes les options qui vont bien pour avoir du CBR et les keyframes a 2 secondes).



L’avantage, c’est de pouvoir stream avec

&nbsp;- Peu de charge sur le PC de jeu

&nbsp;- Un débit convenable pour Twitch et les viewers

&nbsp;- Des enregistrement locaux de très bonne qualité (j’aime bien dire “quasiment lossless” mais en réalité c’est faux)



Le désavantage c’est qu’il faut se setup tout ça à la main, et donc ce n’est pas à la portée du premier venu (même si je trouve que ça reste relativement facile, sauf pour passer les bon arguments à ffmpeg). nginx-rtmp permettait de lancer ffmpeg automatiquement dès réception du flux rtmp. MonaServer ne le permet pas (mais j’vais ptet me coder un truc pour automatiser ça)



rapport qualité prix, si et seulement si tu &nbsp;peux acheter à moins de 200€ un RX480 avec 8 GO alors c’est une bonne affaire c’est pas un prix délirant compte tenu de la prestation, après idéalement il vaut mieux€ des version CUSTOM des cartes graphique sauf pour les BARBONE ou dans se cas la version blower est à privilégier sur les petits(volume) ordinateur.



dans quelques mois peut être AVRIL 2017, il y aura des version CUSTOM de la RX480 8GO aux environ des 200€.



d’autant que je lis qu’il y a des nouveau driver qui permettrait d’augmenter les performances de RX480 jusqu’à 8% dans le meilleurs des cas et cela pour le 13 Décembre 2016.


En regardant en diagonale sur un comparateur de prix, on aurait :

(c’est plutôt des prix d’appels sur certains modèles et/ou revendeurs, pas une moyenne)

&nbsp;

GTX 1050 Ti ~ 160€

GTX 1060 3 Go ~230€

GTX 1060 6Go ~280€



RX 470 ~ 180€

RX 480 4Go ~ 210€

RX 480 8Go ~250€





Les deux modèles de RX480 sont très proches en terme de performance, le modèle 4GO étant pénalisé par la fréquence moindre de sa vRAM. Mais on parle d’environ 2% de performances, soit rien du tout (face aux 40€ de différence). En full HD, 4Go sont pour le moment suffisant. A moins de vouloir faire du SLi ou jouer en 1440p, la RX 480 4Go est un bon choix aux alentours de 200€. Si un promo fait chuter une modèle 8Go vers les 200/210€, ça devient une très bonne affaire. Attention toutefois à l’efficacité énergétique qui est bien moins bon que chez les verts et au modèle de référence qui souffre d’un problème de design d’alimentation.

A noter qu’AMD un promis un nouveau stepping des puces polaris qui devrait améliorer les choses de ce côté, reste à voir quand et dans quelles proportions.

&nbsp;&nbsp;

En face, la GTX 1060 3Go offre, en moyenne, des performances égales des RX480 (ça dépendra des jeux, les cartes AMD ayant généralement un net avantage dans les jeux DX12/Vulkan cf iciet ).

Ses 3Go peuvent aussi se montrer limités pour jouer en full HD avec les curseurs à fond, en particulier les pack de textures très détaillés (d’où le choix probable de nVidia de proposer une puce castrée par rapport au modèle 6Go, afin d’écouler les puces défectueuse sans pour autant brider complètement la carte).



Du coup, entre une RX 480 4Go et une GTX 1060 3Go, le choix est assez ténu, une fois mis l’efficacité énergétique et la suite logicielle nVidia dans la balance.&nbsp;

Si tu arrive à trouver une RX480 8Go vers 200/210€,&nbsp; alors l’avantage est net en faveur de la carte AMD (car on s’affranchit de la limite de la vRAM). &nbsp;


Merci pour ces infos!&nbsp;<img data-src=" />


A moins de vouloir faire du SLi ou jouer en 1440p, la RX 480 4Go est un bon choix aux alentours de 200€.

Avec la GTX 1060 tu peux oublier le SLI et surement aussi avec la GTX 1050


Là, j’ai un point de vue :)



Pour moi, t’oublies un critère : est ce que tu veut dépasser la résolution 1920 x 1080 ?

Au vue de tout les articles que j’ai vue, la 1060 6Go prend plus souvent ses distances (de la 480 8Go) dans les résolution supérieurs. Sinon, en 1920x1080, ça se resserre plus. Bon, ca varie beaucoup selon les sites (en partie à cause des réglages je pense et peut être des version de drivers).



Nb : Ayant passé 3 semaines à rechercher pour choisir entre 480 et 1060 j’avoue, j’ai eu du mal avec une affirmation posée comme ça, sans justification&nbsp;<img data-src=" /><img data-src=" />


Au vue de ta réponse, je me dis que j’ai peut être mal interprété ton premier propos.



Tu te positionnes sur un rapport performance prix sur les produit vendu actuellement =&gt; si je prend un exemple, pour toi, le prix d’une 1060 6Go est actuellement trop haut par rapport au service qu’elle rend c’est ça ? (Idem pour les RX480)



&nbsp;








xillibit a écrit :



A moins de vouloir faire du SLi ou jouer en 1440p, la RX 480 4Go est un bon choix aux alentours de 200€.

Avec la GTX 1060 tu peux oublier le SLI et surement aussi avec la GTX 1050





C’est vrai. Cependant, vu le bordel des systèmes multi GPU, je ne trouve pas ça illogique de le réserver au haut de gamme : s’il existe un produit mono GPU faisant aussi bien qu’un SLi, il vaut mieux prendre le produit mono GPU. nVidia force la main des clients, ce qui est moyen je te l’accorde, mais ça doit leur économiser pas mal de travail de validation et ne concerner qu’une faible proportion de leur clients.

&nbsp;





ndjpoye a écrit :



Là, j’ai un point de vue :)



Pour moi, t’oublies un critère : est ce que tu veut dépasser la résolution 1920 x 1080 ?

Au vue de tout les articles que j’ai vue, la 1060 6Go prend plus souvent ses distances (de la 480 8Go) dans les résolution supérieurs. Sinon, en 1920x1080, ça se resserre plus. Bon, ca varie beaucoup selon les sites (en partie à cause des réglages je pense et peut être des version de drivers).



Nb : Ayant passé 3 semaines à rechercher pour choisir entre 480 et 1060 j’avoue, j’ai eu du mal avec une affirmation posée comme ça, sans justification&nbsp;<img data-src=" /><img data-src=" />





C’est vrai, je me suis arrêté au full HD parce que c’était surtout la cible de ces produits : viser le full HD sans compromis. Pour du 1440p, à moins de jouer à des jeux lights type e-sport ou consentir à sacrifier la qualité graphique, j’irai plutôt voir la gamme du dessus, avec les GTX 1070.









Charly32 a écrit :



C’est vrai, je me suis arrêté au full HD parce que c’était surtout la cible de ces produits : viser le full HD sans compromis. Pour du 1440p, à moins de jouer à des jeux lights type e-sport ou consentir à sacrifier la qualité graphique, j’irai plutôt voir la gamme du dessus, avec les GTX 1070.





1080 alors !

&nbsp;

La 1070 ne permet pas le “no compromise” en 1080p. (full options +AA en 60ips constants)

Plusieurs titres récents font chuter les IPS selon la situation.&nbsp;<img data-src=" />



Certes. Il y a aura toujours quelques scènes plus gourmandes que les autres, ou des limites dans le moteur du jeu (je pense à Diablo 3 là) qui pourront mettre à la mal le compteur de FPS.

Après faut voir la qualité apportée pour le budget supplémentaire : pour ma part je vois pas trop la différence entre un MSAA 4x et un MSAA 16x en jeu, (mis à part la chute de FPS <img data-src=" /> )

D’ailleurs, vu le surcoût entre une 1070 et une 1080, il serait limite plus avantageux de payer un écran GSync pour palier à la chute de FPS <img data-src=" />

&nbsp;

&nbsp;


Oui certaines scènes ou endroits de la carte sont parfois mal foutus.&nbsp;Sur The Division les 34 de la ville sont jouables sans chutes, mais certaines zones… my god. Et pas patché depuis la sortie du jeu.

Pareil sur les city builders mais c’est surtout dû à la grosse demande en CPU.



Par contre l’anti aliasing encore en 2016 est le gros point noir de ces cartes, même haut de gamme. Et on ne peut se permettre de le couper en 1080p…



Pour les écrans G-Sync je t’avoue que je n’ai jamais trop regardé les détails techniques, le prix m’ayant fait fuir avant&nbsp;<img data-src=" />


Après avoir longtemps eu de l’ATI HD je suis passé à la GTX970..

La nouvelle gen d’NVIDIA est trop couteuse pour que je change et surtout la 970 tien encore très très bien la route. Il n’empêche qu’en milieu de gamme, ATI a toujours eu un meilleur rapport pref/prix.

On verra si ils arrivent à se relancer mais coté pilote, je trouve qu’ils ont fait un bond en arrière rave la R480.

Même si les possesseurs de 10x0 chez Nvidia ont pas mal de soucis aussi.

Nous, possesseurs de la gen précédente bénéficions de pilotes au top. En gros faut jamais se précipiter sur les nouveautés hardwares, surtout de nos jours. Mais je souhaite que du bon à ATI, sans eux, le prix des CG serait abominables. J’attends d’ailleurs les procos ZEN avec impatience (relative)


Effectivement le driver open source est de meilleure qualité que le driver open source pour les nvidia, mais reste quand même moins performant que le driver proprio de nvidia. Après je n’ai pas retesté depuis un moment sur AMD



C’est dommage qu’AMD ne supporte pas officiellement le driver open source du coup, comme le fait Intel. Il aurait beaucoup a y gagner








Charly32 a écrit :



Il a quel âge? Je ne suis pas torp le marché pro, mais si ta carte n’est pas dans cette liste, alors effectivement c’est encore le CCC (non pas le comité contre les chats) qui s’applique.





FirePro R5000FirePro V5900FirePro V7900FirePro V7900 SDIFirePro W600FirePro W2100FirePro W4100FirePro W4300FirePro W5000FirePro W5000 DVIFirePro W5100FirePro W7000FirePro W7100FirePro W8000FirePro W8100FirePro W9000FirePro W9100

&nbsp;



Moi je pensais plutôt à une carte d’acquisition HDMI, comme ça aucun iNpact sur le PC de jeu, et un seul encodage de bonne qualité! Mais d’un coup ça fait augmenter la note (2nd assez puissant, boitier d’acquisition, électricité) et ce n’est pas viable pour celui qui n’est pas pro/semi-pro.

Simple curiosité, c’est quoi ton set-up ? Comment tu récupère le flux sur le PC d’encodage?

&nbsp;



Je pense qu’il voulait dire “évitez les RX 480 8GO à PLUS de 200€”. <img data-src=" />





Hum effectivement j’ai une FirePro M5100.

Je ne sais pas de quand date le PC. Je l’ai eu récemment mais pas impossible que ce soit un stock qu’ils avaient depuis longtemps.









Jos a écrit :



C’est dommage qu’AMD ne supporte pas officiellement le driver open source du coup, comme le fait Intel. Il aurait beaucoup a y gagner





Contrairement à ce que tu pense c’est le cas. AMD contribue énormément au pilote libre depuis ~2ans.



Et oui pour l’instant le pilote open source d’AMD reste inférieur au pilote propriétaire de Nvidia.

En 2017 le cache de shader devrait être disponible sur le pilote radeonsi, on verra ce que ça donnera.



oui compte tenu du faite que j’ai une R9 290 OC d’origine, je pense devoir attendre, en faite je ne veut pas payer la TAXe nVIDIA surtout que je me content du 1920*1080, ma CG date de JUIN 2014.



aussi j’ai regarder les performances des RX480 dans l’ensemble c’est correct en 1920*1080 après ça va dépendre des jeux et des driver.



pour les jeux vidéos sur PC on est dans une maladie grave, nouveau jeux vidéos = un nouveau driver quelque soit le constructeur du GPU, des driver de 250 MO à 350 MO à chaque fois.



aussi AMD à encore du mal à maîtriser le Hardware des GPU récent et met bien 6 mois à bien optimiser ses driver, mais que je sache une Carte graphique on ne la change pas tout les ans mais bien tout les 2.5ans à 3ans.



en suite on le voit bien pour de la 4K de toute façon il faut 8 GO, alors la GTX1060 6 GO peut être un excellent choix pour maximum du 2560*1440P, sauf que comme on le voit un R9 FURY voir FURY X est bien mieux placer en terme de rapport performance prix.



si on estime qu’en 2560*1440 une R9 FURY est 7.8% moins performante qu’une R9 FURY X, alors la R9 FURY est plus puissante que la GTX 1060 6 GO:&nbsp;



&nbsp;http://www.hardware.fr/getgraphimg.php?id=369&n=17



&nbsp; la R9 FURY X à 97, donc en théorie la R9 Fury à&nbsp;89,434 hors la première GTX 1060 6GO fait 81, donc en moyenne il vaut mieux prendre une R9 FURY à 229€ qu’une GTX 1060 6 GO.



bon l’idéal c’est aussi d’avoir un écran 1440P Display port 1.2 ou plus.



en faut le R9 FURY et suivant étaient vendu bien trop chère.

&nbsp;


Ok, là je comprend.



Désolé, j’avais mal compris la première fois&nbsp;<img data-src=" />


Hello,

Ici, coté production audiovisuelle pro, plein de monde serait enclin à changer d’un coté vers l’autre etc… Par exemple pour se vouer entièrement à OpenCL, plus fréquentable philosophiquement pour certains, plus universel pour d’autre, etc…

&nbsp;

Seulement il faut y voir l’ensemble des aspects : tout le monde veut un max. de VRAM (minimum 6 Go, 8 appreciated et répandu) parce que c’est très important pour les softs “nodaux” par exemple (Flame, Smoke, DaVinci Resolve, Fusion…) ; ensuite le double GPU quasi généralisé (un pour GUI, l’autre pour computing, y’a pas trop de SLI dans ce monde là) se transforme chez certains en triple ou quadruple, ce qui impose de regarder les choses de près.

Ces softs demandent à ce qu’il y ait une quantité de RAM identique dans les GPU qui bossent, sous peine de n’utiliser que le max de celle du maillon faible, donc si tut te plantes dans tes choix, tu t’es planté sur plusieurs CG et là t’as vraiment les boules.

De plus, ça bosse sur des logiciels “optimisés CUDA” MAIS aussi sur d’autres quui ne le sont pas, voire pas du tout.



Concrètement, il faut avouer que nVidia assure pas mal dans sa réactivité et son support, qu’ils communiquent très bien sur cuda, et que quand ça tourne c’est bon pour un moment. Y’a donc plein de GTX 980 ti et de Titan X par ci par là, voire les gammes en-dessous. Même sur les mac (les anciens mac pro caddies où tu fais ce que tu veux) sur lesquels il n’est plus censé y avoir du nvidia depuis des années, les nouveaux webdrivers arrivent en moins de 2 jours et cuda est mis à jour pas moins vite qu’ailleurs (alors que je le répète, tout Apple est sur AMD depuis au moins 4-5 ans et ils font donc du support officieux qui ne s’est jamais arrêté).

&nbsp;

Ce suivi et cette endurance, ça paie chez un pro, qui je le rappelle n’a que rarement envie d’investir du temps dans du réel bricolage, et qui accepte donc de payer un peu plus pour que ça envoie avec du support.



Mais… AMD montre beaucoup de combativité. Ils sortent des cartes qui ne se font plus laminer en perf, et cherchent à racoler par la base, en s’arrachant sur le rapport perf/prix. Il est tout à fait possible qu’ils ramènent à eux du monde. C’est tout à fait jouable…

&nbsp;

Restera toujours, dans ce milieu là le fait que l’un propose OpenCL et CUDA et l’autre OpenCL, là on peut rien y faire. <img data-src=" />


Merci beaucoup pour les détails ! Merci également à Citan666. Vu que ça ne sera pas avant un an, voire deux, je m’intéresserai un peu plus au sujet <img data-src=" />