NVIDIA : les revenus dans les serveurs dépassent ceux des GeForce

NVIDIA : les revenus dans les serveurs dépassent ceux des GeForce

Jusqu'à quand ?

Avatar de l'auteur
David Legrand

Publié dans

Hardware

20/08/2020 3 minutes
42

NVIDIA : les revenus dans les serveurs dépassent ceux des GeForce

Il fallait s'y attendre, la tendance était claire et l'échéance s'approchait chaque trimestre. Pour la première fois, NVIDIA a gagné plus d'argent sur le marché des serveurs que dans celui du « gaming ».

Pour ce second trimestre fiscal 2021 (se terminant le 26 juillet 2020), NVIDIA annonce un chiffre d'affaires de 3,87 milliards de dollars, en hausse de 50 % par rapport à l'année dernière et de 26 % par rapport au trimestre précédent. Son bénéfice net est de 622 millions de dollars, en hausse de 13 % sur un an, en baisse de 32 % sur le trimestre.

Mais ce qui sera retenu, c'est surtout la répartition des revenus (en dollars) :

NVIDIA répartition revenus Q2 2021

Ainsi, la branche data center est la première contributrice aux revenus de l'entreprise, notamment poussée par l'annonce d'Ampere et les serveurs DGX/HGX A100, ainsi que par l'acquisition de Mellanox, désormais finalisée.

Les nouvelles GeForce arrivent

La tendance s'inversera-t-elle au trimestre prochain avec l'annonce, ce 1er septembre, de la prochaine génération de GeForce ? Le modèle haut de gamme est attendu par certains aux alentours de 1 500 euros. Sera-t-elle d'ailleurs proposée comme une GeForce (Ultimate) ou une Titan ? 

Micron a de son côté « fuité » quelques détails dans un document (retiré depuis) sur une RTX 3090 avec 12 Go de GDDR6X à 21 Gb/s, contre 14 Gb/s pour la GDDR6 actuelle. Une chose est sûre : l'entreprise devra marquer le coup. Car outre l'arrivée des prochaines Navi 2X d'AMD, Intel approche à grands pas avec son Xe, sur tous les marchés.

La GPU Technology Conference (GTC) se tiendra d'ailleurs (en ligne) du 5 au 9 octobre prochain. On pourrait y avoir droit à d'autres annonces, peut-être les déclinaisons Quadro de la nouvelle génération, mais pas que. Car le défi majeur de NVIDIA reste de développer ses revenus hors de ses secteurs de prédilection.

Et on peut voir dans les derniers chiffres que ses efforts en ce sens continuent pour le moment de patiner.

Un avenir qui reste à écrire pour NVIDIA

Lors de son entretien avec les analystes financiers, Jen Hsun Huang sera sans doute interrogé sur le sujet et sur les rumeurs d'un rachat d'ARM qui, s'il est initié, devrait faire s'allumer en rouge tous les voyants des autorités en charge de la concurrence. Les obligations liées à un tel accord pourraient être assez lourdes à porter.

Si le ciel de NVIDIA n'a jamais été aussi clair, le constructeur se trouve plus que jamais à la croisée des chemins. Huang a déjà montré par le passé sa capacité à faire les bons choix, il sera cette fois encore attendu au tournant. L'action de l'entreprise est en baisse (-4,89 %), à 485 dollars après un pic à près de 500 dollars mardi dernier.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Les nouvelles GeForce arrivent

Un avenir qui reste à écrire pour NVIDIA

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Fermer

Commentaires (42)


Je ne me fais pas de soucis pour nVidia sur le marché du particulier. Ils ont une solide réputation chez les joueurs. Ils produisent les shield qui sont les meilleurs boîtiers Android TV et de loin.



nVidia n’est pas Intel qui a attendu que AMD soit revenu dans la course pour réagir (et encore si peu et si mal).


“les revenus dans les serveurs dépassent ceux des GeForce”
Heu, en même temps dans nos serveurs, on met souvent des Geforce !



revker a dit:


Ils produisent les shield qui sont les meilleurs boîtiers Android TV et de loin




J’suis pas persuadé que la shield rapporte gros à la Nvidia…



Par contre je me demande dans quelle catégorie entre la fourniture du Tegra à Nintendo pour la Switch : Gaming ou OEM ?



Booloki a dit:





Pense à ne pas le dire à NVIDIA, parce qu’ils pourraient se fâcher :D




Le_poilu a dit:


J’suis pas persuadé que la shield rapporte gros à la Nvidia…




La Shield c’est la Switch, donc si ;)


Ca ne m’étonne pas. Je suis même surpris car je pensais que ce marché était déjà leur principale source de revenus. Quand ils vendent leurs GPGPU V100, T4 ou A100 entre 10 K€ et 12 K€, et que ça se vend comme des petits pains depuis au moins 6 ans… A comparer aux tarifs des GPU grand public c’est incomparable. Et les architectures sont partagées donc les coûts de R&D aussi.



David_L a dit:


La Shield c’est la Switch, donc si ;)




C’est la même puce, on est d’accord, d’où mon interrogation sur l’apports des ventes de switchs dans les finances Nvidia.
Mais la shieldTV en tant que produit fabriqué et vendu par Nvidia n’est surement pas un super seller au point de peser dans revenus de Nvidia.



Il faudrait savoir combien rapporte la vente du Tegra à Nintendo, c’est surement sans commune mesure avec ce que doit rapporter la vente de la ShieldTV (même pas sur que la ShieldTV soit dans le positif)


1500 euros pour la prochaine carte graphique haut de gamme, j’ai l’impression d’être un pauvre quand je vois les prix pratiqués … je vais rester avec ma bonne vieille gtx 980 qui fera le boulot encore un moment.


Nvidia ne fournit il pas Tesla aussi pour ses systèmes embarqués ? Même si le constructeur est lilliputien par rapport à ses concurrents, sa forte croissance pourrait aussi devenir une bonne diversification de revenu.



ToMMyBoaY a dit:


Nvidia ne fournit il pas Tesla aussi pour ses systèmes embarqués ? Même si le constructeur est lilliputien par rapport à ses concurrents, sa forte croissance pourrait aussi devenir une bonne diversification de revenu.




Tesla est passé à une puce développée en interne l’an dernier.
D’ailleurs on le voit peut-etre sur la branche “Auto” des revenus de Nvidia, y’a comme une grosse baisse à partir de 2020 :-)



lololasticot a dit:





La hausse des prix du haut de gamme vient surtout du fait que la limite entre pro et grand public s’efface peu à peu. Les RTX c’est aussi ça d’une certaine manière. Même s’il y en aura toujours pour dépenser autant dans des cartes qui ne feront que du jeu.



Pour le reste, ça n’empêche pas la montée en performances d’une génération à l’autre à tarif constant. C’est juste qu’avec un budget de 500 euros, on a pas le GPU le plus performant du marché (avant c’était déjà le cas, mais c’était simplement moins visible).


Pour les datacenters c’est surtout le Cloud gaming qui portent les chiffres d’Nvidia ? Que ce passera-t-il si le marché s’effondre ?



Pour les Geforces, vivement la fin du mois pour avoir des annonces concrète, marre des sites de hardware qui publie 3 articles par jour parce que quelqu’un lance une rumeur sortie de nulle part concernant les pères ou le prix =_=‘ En espérant que grâce à AMD et Intel une vraie concurrence se mette en place pour le bonheur des consommateurs (rapport perd/prix plus intéressant).



Parce qu’on prend vraiment une douille sur toutes les gammes de prix (voir l’évolution des prix des générations GTX compares au RTX) et ma 1080ti qui deviens de moins en moins performante au fil des mise à jour de driver :roll:



bonizuka a dit:


Pour les datacenters c’est surtout le Cloud gaming qui portent les chiffres d’Nvidia ?




Non



lololasticot a dit:


1500 euros pour la prochaine carte graphique haut de gamme, j’ai l’impression d’être un pauvre quand je vois les prix pratiqués … je vais rester avec ma bonne vieille gtx 980 qui fera le boulot encore un moment.




Je penche plutôt pour 2000€, nvidia n’a pas de limite



bonizuka a dit:


Pour les datacenters c’est surtout le Cloud gaming qui portent les chiffres d’Nvidia ? Que ce passera-t-il si le marché s’effondre ?Pour les Geforces, vivement la fin du mois pour avoir des annonces concrète, marre des sites de hardware qui publie 3 articles par jour parce que quelqu’un lance une rumeur sortie de nulle part concernant les pères ou le prix =_=‘ En espérant que grâce à AMD et Intel une vraie concurrence se mette en place pour le bonheur des consommateurs (rapport perd/prix plus intéressant).Parce qu’on prend vraiment une douille sur toutes les gammes de prix (voir l’évolution des prix des générations GTX compares au RTX) et ma 1080ti qui deviens de moins en moins performante au fil des mise à jour de driver :roll:




J’ai quand même un peu l’impression que les évolutions des cartes graphiques c’est un peu du bullshit pour vendre à tout prix, ma vieille gtx 980 me permet toujours d’avoir 120 fps constant sur des jeux récents, j’ai pas d’écran 4k, juste un écran 144 Hz et ça me suffit pour jouer.



Le_poilu a dit:


Il faudrait savoir combien rapporte la vente du Tegra à Nintendo, c’est surement sans commune mesure avec ce que doit rapporter la vente de la ShieldTV (même pas sur que la ShieldTV soit dans le positif)




Surtout qu’avant l’annonce de la switch, NVidia vidé les stocks en vendant la shield K1, avant l’annonce semi officielle (par un courrier fuité sur internet) qu’il n’y aurait pas de Shield Tablet 2 (pour raisons commerciales). Ensuite est apparue la switch…
Donc en gros, Nintendo a certainement demandé à NVidia de ne plus vendre de tablettes.
Donc le contrat doit être assez juteux.



lololasticot a dit:


J’ai quand même un peu l’impression que les évolutions des cartes graphiques c’est un peu du bullshit pour vendre à tout prix




Vu que dans l’entrée moyen de gamme une même carte peut se vendre au même prix pendant 4 ans, et que son successeur arrive “à peine” à tirer 25% de perfs en plus (GTX 1050-> GTX1650), je dirais oui, ça stagne.



Le RTX était un bon argument marketing, mais j’ai la net impression que les RTX 2xxx ne permettent pas d’exploiter le raytracing (dans les jeux) comme on aimerait le voir: généralisé, fluide.



(quote:48882:brice.wernet)
Donc en gros, Nintendo a certainement demandé à NVidia de ne plus vendre de tablettes.




Nintendo n’en a rien à secouer du marché des tablettes. Le secteur est morose et les ventes des tablettes Shields étaient pas folles. Nvidia a juste décidé d’arrêter les frais sur ce segment et s’est concentré sur les boitiers télés, qui se vendent mieux.



Booloki a dit:


“les revenus dans les serveurs dépassent ceux des GeForce” Heu, en même temps dans nos serveurs, on met souvent des Geforce !




Je ne sais pas qui est ton assembleur, mais chez la plupart des marques, les gammes “pro” sont interdite de GeForce. Il me semble que c’est sous la pression de NVidia qui force à utiliser des Quadro ou autre gamme pro que des GeForces.
Par exemple, chez Dell, pour commander des PC de bureau avec un CG GeForce et pas un Quadro, on passe par leur gamme Alienware.



(quote:48883:brice.wernet)
Vu que dans l’entrée moyen de gamme une même carte peut se vendre au même prix pendant 4 ans, et que son successeur arrive “à peine” à tirer 25% de perfs en plus (GTX 1050-> GTX1650), je dirais oui, ça stagne.Le RTX était un bon argument marketing, mais j’ai la net impression que les RTX 2xxx ne permettent pas d’exploiter le raytracing (dans les jeux) comme on aimerait le voir: généralisé, fluide.




Petit rappel : comparer des cartes par leur dénomination marketing est idiot. Les constructeurs le savent, ils jouent sciemment là dessus (notamment Turing chez NVIDIA). Réduire une architecture à un pourcentage aussi.



Pour le RT, les choses sont pourtant claires et NV l’a très bien dit au lancement de Turing : c’est une migration sur 10 ans. On ne change pas un pipeline graphique, on ne grimpe pas en perf, dans les mesures nécessaires pour passer au full-RT en une génération. Comme ce fût le cas pour la programabilité, CUDA, comme ça l’est sur l’impact des tensor, etc.




lololasticot a dit:


J’ai quand même un peu l’impression que les évolutions des cartes graphiques c’est un peu du bullshit pour vendre à tout prix, ma vieille gtx 980 me permet toujours d’avoir 120 fps constant sur des jeux récents, j’ai pas d’écran 4k, juste un écran 144 Hz et ça me suffit pour jouer.




La magie du monde PC est là : on est jamais obligé de rien, on peut toujours adapter à un niveau de performances qui nous convient.




NSophis a dit:


Je penche plutôt pour 2000€, nvidia n’a pas de limite




Aucune information (valable je veux dire) ne va dans ce sens en tous cas. Après cela ne veut pas dire qu’il n’y aura pas une ROG d’ASUS dans ces environs, on verra. Pour le moment, on a surtout des tarifs partenaires et vu les montants, selon la méthode de calcul les écarts peuvent être élevés.



Sans parler du fait qu’il faudra distinguer le tarif annoncé par NV, celui pratiqué par les partenaires/revendeurs, etc. Et là aussi il peut y avoir de grosses différences, tout dépendra de comment le lancement sera organisé.



David_L a dit:


Petit rappel : comparer des cartes par leur dénomination marketing est idiot. Les constructeurs le savent, ils jouent sciemment là dessus (notamment Turing chez NVIDIA). Réduire une architecture à un pourcentage aussi.




Pour le coup je ne suis pas d’accord. C’est via la dénomination marketing qu’on se fait une idée de la gamme du produit. C’est pas la faute du consommateur si les marketeux font tout et n’importe quoi aujourd’hui pour le tromper dans sa compréhension. C’est comme les fabricants de DD qui mettent du SMR dans les produits à dénomination “NAS”. Le client pense acheter la gamme qui lui correspond alors que le fabricant l’a fait glissé vers une autre.



Et en informatique malheureusement ce que veut le grand public c’est un gain de performance. Le changement de paradigme, la conso qui baisse, la taille qui rétrécit c’est que du bonus. Les entreprises vont être contentes de savoir qu’elles peuvent miser sur une nouvelle technologie spécifique pour un besoin spécifique, mais le lambda n’a pas de besoin spécifique, il en a plein. Et il ne veut pas de concession. Donc une nouvelle archi GPU c’est bien, mais si ça veut dire que la hausse de perf n’est pas au niveau habituel à cause d’une fonctionnalité encore trop peu utilisée, les gens seront forcément déçus.


Comme quoi ils ne vendent pas encore assez cher leurs gpu aux particulier!



lololasticot a dit:


J’ai quand même un peu l’impression que les évolutions des cartes graphiques c’est un peu du bullshit pour vendre à tout prix, ma vieille gtx 980 me permet toujours d’avoir 120 fps constant sur des jeux récents, j’ai pas d’écran 4k, juste un écran 144 Hz et ça me suffit pour jouer.




Mon ressentit c’est que les jeux sur pc évoluent de moins en moins au niveau des graphisme :



. Les consoles : Elle seront toujours un frein à l’évolution. Si un jeu possèdes des textures en 1k dessus il est pas possible d’en faire des 4k sur pc. La différence coute trop cher. Au niveau du nombre de polygone c’est pareil.



. Les moteurs : La 3d actuelle n’est qu’une succession de bidouille. Mais vu que les jeux sont de plus en plus “grand” cela prend de plus en plus de temps pour bidouiller. Je le vois chaque jours avec les textures. Si un objet est gigantesque ça sera une texture à la con répétée sans possibilité d’ajouter des détail. Si l’objet est petits tu aura un max de détail mais ça sera complexe à mettre en oeuvre à cause de l’uv mapping.



. F2p : Si tu veut toucher un maximum de monde le jeu doit tourner sur un maximum de machine. Pourquoi ce faire chier à faire des graphisme de fou que seul 2% des joueurs pourront profiter.



(quote:48893:skankhunt42 )
Elle seront toujours un frein à l’évolution. Si un jeu possèdes des textures en 1k dessus il est pas possible d’en faire des 4k sur pc.




T’as regardé le JV de près depuis quelques années ? Les studios historiquement console-only se mettent tous à sortir sur PC car l’architecture des consoles est devenu un copier/coller des ordinateurs. Les portages PC sont de plus en plus propres avec la prise en charge de résolutions ultra wide nativement, la facilité de gestions des textures (pas mal de triple A proposent de DL un pack de textures 4k contrairement à ce que tu dis).



Le vrai frein à l’évolution c’est le photoréalisme. Parce que oui effectivement les petits détails ça coute cher et les consoles n’y arrivent pas, mais les PC non plus. On a fait des bonds énormes dans le rendu réaliste et, comme pour tout, les derniers échelons à gravir sont les plus chers, les plus compliqués.



Et associer “graphismes de fou” à “jeu vidéo pas f2p” c’est hyper réducteur. On a pas besoin de photoréalisme pour faire un bon jeu.



(quote:48893:skankhunt42 )
Les consoles : Elle seront toujours un frein à l’évolution.




Non, et depuis que tout a migré en x86 ce sera de moins en moins un problème. Sans parler de ce que permettra le cloud en termes de montée en puissance.




Soraphirot a dit:


Pour le coup je ne suis pas d’accord. C’est via la dénomination marketing qu’on se fait une idée de la gamme du produit.




Non, ça c’est ce que le constructeur apprécie que tu penses, nuance.




Soraphirot a dit:


Et en informatique malheureusement ce que veut le grand public c’est un gain de performance.




Pas vraiment, la plupart s’en fout. Les joueurs y font attention, mais ce n’est pas vraiment le gros du volume du marché (mais c’est une part importante en valeur). Il n’y a pas de règle sur ce que XX veut. Il y a différents profils. Mais sur le grand public, les mécaniques courantes ce sont : petits prix et une identification d’un produit qui a bonne réputation (d’où les logos/programmes marketing).



David_L a dit:


Non, ça c’est ce que le constructeur apprécie que tu penses, nuance.




Oui et non. Ca les arrange pour les raisons que tu expliques, mais parce que justement ça a été ce repère pendant longtemps.



Soraphirot a dit:


T’as regardé le JV de près depuis quelques années ? Les studios historiquement console-only se mettent tous à sortir sur PC car l’architecture des consoles est devenu un copier/coller des ordinateurs.




En ce moment je bosse sur un jeu vidéo alors je sais de quoi je parle…



Une “simple” texture 4k c’est un ensemble de 4 sous textures pour environ un poid total entre 16 et 60 mo. Puis si tu ouvre ce genre de texture pour la bidouiller sur photoshop tu monte très vite entre 250 et 500 mo.



Je te laisse imaginer ce que ça prend comme place pour un jeu entier et la puissance que ça demande. Si les consoles n’affichent que du 1k tu aura au mieux du 2k et pas du 4k. Le jeu n’en vaut pas la chandelle.



En ce qui concerne la modélisation c’est pareil… Si ta console affiche un modèle en low poly tu va pas t’amuser à passer des heures et des heures à le transformer en high poly pour 5% de joueurs sur pc.



Le temps et le matériel, c’est de l’argent.




Le vrai frein à l’évolution c’est le photoréalisme. Parce que oui effectivement les petits détails ça coute cher et les consoles n’y arrivent pas, mais les PC non plus. On a fait des bonds énormes dans le rendu réaliste et, comme pour tout, les derniers échelons à gravir sont les plus chers, les plus compliqués.




Actuellement le frein du photoréalisme c’est les outils…



Je vais prendre comme exemple les textures ou tu à basiquement trois choix :




  1. Tu exporte ton modèle directement dans le moteur puis tu lui applique une texture basique que tu répète en priant pour que ça passe. Si tu veut ajoute des détail c’est à coup de décals ( projection d’image ). Si ta surface n’est pas plane c’est très difficile à placer. En ce qui concerne la puissance de la machine c’est transparent car il y à le LOD pour gérer ça. Si trop loin ça ne s’affiche pas ou alors en qualité dégueu ( mip maps ).



  2. Tu exporte ton modèle dans un soft de peinture 3d comme substance painter. Tu peut y ajouter un maximum de détail pour avoir du photo réalisme. Mais tu sera limité en terme de taille à cause du texel density. Un objet gigantesque même avec une texture 4k unique, sera tout flou > poubelle.



  3. Tu utilise un système de layers. Par exemple sous unity il y à le layered shader qui permet d’afficher 4 textures controllées par un masque RGBA ( rouge / vert / bleu / alpha ). Tu peut donc avoir trois textures qui ce répètent, les mélanger et rajouter par dessus des détails. C’est assez complexe à mettre en oeuvre et il y à peu de documentation la dessus.




Du coup quand tu modélise un niveau il faut en permanence choisir une des trois technique en fonction du niveau de détail que tu veut, de la taille et de la complexité d’un objet.




On a pas besoin de photoréalisme pour faire un bon jeu.




Non mais ça aide à l’immersion surtout si ton jeu de base ce veut être réaliste. Valve pourrais dès demain foutre des textures 4k sur toutes ces maps et y ajouter un maximum de détail. Mais ils savent très bien que ça sert pas à grand chose car la majorité des joueurs ont une patate.




David_L a dit:


Sans parler de ce que permettra le cloud




Le seul avantage du cloud c’est de faire du stream de contenu pour éviter de ce retrouver avec un jeu qui pèse 1to sur le disque dur. Pour le reste j’ai l’impression que ça va finir comme les forfait illimité SFR.



Soraphirot a dit:


Nintendo n’en a rien à secouer du marché des tablettes. Le secteur est morose et les ventes des tablettes Shields étaient pas folles. Nvidia a juste décidé d’arrêter les frais sur ce segment et s’est concentré sur les boitiers télés, qui se vendent mieux.




Ce qui est sûr, c’est que les shield K1 n’ont pas été vendues très longtemps et ont disparu quasiment en même temps de toutes les boutiques. vec une réapparition éclair avant une disparition complète. Pourtant, NVidia devait avoir du stock puisqu’il m’ont changé la tablette gratuitement après une casse écran sans aucune négo nécessaire (au moment où on ne pouvait plus les acheter).



(quote:48899:skankhunt42 )
Si les consoles n’affichent que du 1k tu aura au mieux du 2k et pas du 4k. Le jeu n’en vaut pas la chandelle.




Oui c’est lourd j’en conviens, mais le fait est que ça existe. Et puis si tu es malin tu fais ta texture en 4k d’origine puis tu la downsizes pour la sortie console. Pas de surcoût pour adapter, une source en bonne qualité pour un futur remaster/dlc UHD, emballé c’est pesé.




(quote:48899:skankhunt42 )
Si ta console affiche un modèle en low poly tu va pas t’amuser à passer des heures et des heures à le transformer en high poly pour 5% de joueurs sur pc.




Encore une fois normalement tu travailles en high poly avant d’ajuster pour que ça fonctionne sur le niveau de perf que tu vises. J’ai l’impression que tu prends le problème à l’envers en voulant à chaque fois partir d’un truc basse qualité.




(quote:48899:skankhunt42 )
Actuellement le frein du photoréalisme c’est les outils…




Est-ce que ça serait pas plutôt la quantité de détails à prendre en compte le problème ? Aujourd’hui les modèles sont assez détaillés, mais il faut aussi détailler la flore, la faune, la pilosité faciale…




(quote:48899:skankhunt42 )
Non mais ça aide à l’immersion




Alors c’est un avis très subjectif.




(quote:48899:skankhunt42 )
surtout si ton jeu de base ce veut être réaliste




Et là pour le coup qu’est-ce qui aide le plus à l’immersion : la physique des objets/éléments ou le rendu visuel ?




(quote:48901:brice.wernet)
Ce qui est sûr, c’est que les shield K1 n’ont pas été vendues très longtemps et ont disparu quasiment en même temps de toutes les boutiques. vec une réapparition éclair avant une disparition complète. Pourtant, NVidia devait avoir du stock puisqu’il m’ont changé la tablette gratuitement après une casse écran sans aucune négo nécessaire (au moment où on ne pouvait plus les acheter).




Oui, comme tout produit en fin de vie. Les fabricants se gardent toujours un stock pour les produits sous garantie.



Soraphirot a dit:


Encore une fois normalement tu travailles en high poly avant d’ajuster




Ce n’est pas comme ça que ça marche hein… Tu dois d’abord travailler en low poly puis choisir la ou tu va ajouter du high poly. Parce que high poly ne veut pas dire uniforme. Ça permet surtout de gagner du temps pour connecter des surfaces.




Est-ce que ça serait pas plutôt la quantité de détails à prendre en compte le problème ?




Je vais prendre un exemple concret : Un immeuble.



Lors de la phase de modélisation sous blender tu peut via des plugins faire un immeuble très rapidement. Chaque “section” peut être assigné à différent matériaux, genre mur / fenêtre / rebord / toit.



Pour le moment ce n’est donc que du “bonheur”.



Ensuite tu peut importer ton immeuble dans un logiciel de peinture et la ça commence à devenir compliqué. Car chaque matériaux ne peut communiquer avec l’autre. Si ton “détail” touche le toit puis les mur tu devra donc passer constamment de l’un à l’autre et ajuster. Pour des détails de type image c’est absolument ingérable. Je passe sur le fait qu’une fois un truc mis en position il n’est plus capable de le changer de place.



Tu peut contourner le problème en rajouter un deuxième model de ton immeuble avec tous les objets fusionné. Tu aura donc un model pour le détail et un autre pour du global.



Ensuite dans le moteur il te faudra créer un matériaux avec deux layer pour le matériaux d’origine et les détails. Ça prend énormément de temps et tu te rend vite compte que ça peut devenir ingérable.



Après si tu est un “ouf” tu peut créer ton propre shader pour éviter tout ce processus à la con. C’est très fastidieux et à la moindre mise à jours du moteur ça peut merder à fond.



Le soucis la dedans c’est que si tu modifie un chouilla ton modèle tu sera obligé de recommencer pas mal de chose par la suite… Alors qu’en théorie si tout était correctement connecté tu pourrais aller très vite. Substance possède des matériaux intéligent pour similer la poussière et autre connerie. Tu peut même simuler la pluie avec des particules.



Pas mal de modèles possèdent des détails géométrique supplémentaires avec les normal maps et la gestion des ombres. Le seul impératif c’est d’avoir une caméra correctement placés.



Après si tu veut parler d’optimisation tu devrait également découper ton immeuble par étages, dans un fps “liénaire” seul le premier étage doit être détaillés et le reste est trop loin.




mais il faut aussi détailler la flore, la faune, la pilosité faciale…




C’est très facile ça… T’a des générateur d’arbre / plantes et des outils pour peindre directement sur ton terrain et la gestion du vent / personnage qui marche dans l’herbe.



Le plus complexe dans les jeux vidéos en terme de graphisme c’est la modélisation et les textures et garder une cohérence sur le niveau de détail. Ce qui veut dire parfois que c’est ton jeu que tu dois adapter au moteur et non l’inverse. Sachant qu’en plus t’est aussi dépendant des mise à jours du moteur.



Le jeu sur lequel je bosse en ce moment à changer de version d’unity, la lumière n’est plus calculée de la même façon et donc les ombres. Du coup absolument tout mes matériaux ont du subir une retouche.



Hé oui, ça reste de l’informatique. Entre la théorie et la pratique il y à un gouffre énorme.



Soraphirot a dit:


Oui et non. Ca les arrange pour les raisons que tu expliques, mais parce que justement ça a été ce repère pendant longtemps.




Une dénomination marketing n’est que ça. Si elle est honnête tant mieux, mais ce n’est pas son objectif. Un produit a des caractéristiques. Pour comparer un produit ces dernières sont utiles, pas le nom marqué sur la boite.


Erreur - Post à supprimer



(quote:48899:skankhunt42 )
En ce moment je bosse sur un jeu vidéo alors je sais de quoi je parle…
Le temps et le matériel, c’est de l’argent. Actuellement le frein du photoréalisme c’est les outils…




C que tu soulignes surtout, ce n’est pas le manque de performances, mais le coût pour exploiter, et le retour sur investissement probable, qui est peu lié à la présence de machines capable de restituer un jeu dans toutes sa splendeur, mais surtout au fait qu’il est difficile de vendre un jeu actuellement. Le marketing fait la vente, et on n’est plus à une époque où acheter les pages du milieu de GEN4/Joystick suffit à faire les ventes.



Beaucoup de jeux, même plus beaux, n’apportent pas grand chose à d’anciens jeux déjà présents et bradés.



Déjà début 2000, certains jeux qui avaient de la pub ont fait des ventes catastrophiques (genre 40005000 boites) soit au mieux à peine de quoi couvrir un an de salaire de 23 personnes.



Enfin, certaines personnes se fichent pas mal du photoréalisme. Perso j’adore la technique du cell shading. Et dire d’un jeu où un gars porte 10 armes et 400kg de munitions pour tuer de l’alien qu’il est “réaliste”, ça me fait toujours sourire. Enfin, le photoréalisme sans la physique est nuisible: je pardonne un jeu peu détaillé si le feu ne se transmet pas d’un véhicule à une cabane en bois, je remarque ce manque immédiatement sur un jeu “photo réaliste”. (Exemple aussi: les jeux “réalistes” comme HL2: tous les humains ont les mêmes vêtements, la même taille, la même corpulence. Ca m’a choqué et m’a cassé “l’immersion”)



(quote:48903:skankhunt42 )




En fait dans l’ensemble je suis d’accord c’est un travail compliqué mais j’ai envie de dire comme tout travail de ce niveau. Et puis quand tu bosses à ce niveau de réalisme tu fais ça en équipe (ou alors tu acceptes de sortir ton jeu dans 15 ans minimum).




(quote:48903:skankhunt42 )
Ce qui veut dire parfois que c’est ton jeu que tu dois adapter au moteur et non l’inverse.




Ça me parait logique, sinon ça devient la foire à la bidouille et aux patchs qui ne marchent que pour une version précise et provoque les problème ci-dessous.




(quote:48903:skankhunt42 )
Le jeu sur lequel je bosse en ce moment à changer de version d’unity, la lumière n’est plus calculée de la même façon et donc les ombres. Du coup absolument tout mes matériaux ont du subir une retouche.




Oui mais ça c’est Unity aussi. C’est le problème d’un moteur qui a été pensé en se disant “qu’est-ce qu’on peut apporter au gens”, contrairement à Epic qui fait du jeu vidéo et qui donc sort Unreal en se disant plutôt “qu’est-ce que je peux régler comme problème”.
Après j’ai aussi l’impression que les dev JV ont vite tendance à changer de version Unity parce “l’éditeur fait ça en plus trop bien” (je fréquente une commu de dev indés et à chaque grosse sortie Unity je vois ça). Malheureusement en informatique quand tu commences un projet il faut essayer à tout pris de rester sur la techno choisie au début, sinon c’est effectivement un enfer, peu importe le domaine. Mais Unity a pas mal de ratés on est d’accord.


Ne faudrait-il pas utiliser le conditionnel ? C’est dans le prévision pour 2021 ces chiffres !



Soraphirot a dit:


En fait dans l’ensemble je suis d’accord c’est un travail compliqué mais j’ai envie de dire comme tout travail de ce niveau.




Disons que c’est compliqué dans le sens “ chiant “. J’utilise souvent cet exemple ” creuser un trou de piscine à la cuillère”.




Et puis quand tu bosses à ce niveau de réalisme tu fais ça en équipe
C’est bien pour ça que je le jeu de skate c’est moyennement vendu… La map de la beta qui à un an est minuscule mais bourré de détail ( en mode démo techno ) et la map finale est plate et sans aucune saveur. T’a l’impression que les objets ont étés placés au pif.



Oui mais ça c’est Unity aussi.




Ha peut être… Mais d’un autre côté il pourraient aussi proposer des outils de migration… Si toutes les valeurs doivent passer de 4 à 2.5 pourquoi ne pas sortir une moulinette qui permet d’enlever partout 1.5 au lieu de devoir le faire à la mano ?



Après c’est sur que si t’a un dev dans l’équipe il pourra peut être pondre ce genre d’outil et même peut être le vendre sur l’asset store. Mais si il ce vend comme des petits pain, il y à de forte chance que unity ne fasse jamais ce boulot.



C’est le danger des plugins.



(quote:48917:Boris le Belge)
Ne faudrait-il pas utiliser le conditionnel ? C’est dans le prévision pour 2021 ces chiffres !




Non, ce sont les chiffres du second trimestre fiscal 2021 qui termine le 26 juillet 2020 pour NVIDIA, comme précisé dans l’actualité ;)


Tiens je me souviens que dans un présentation GTC d’il y a 2 ou 3 ans, Jen-Hsun disait que le marché de l’automobile c’était un potentiel de 100 fois le marché du gaming en chiffre d’affaire. Pour l’instant ça a l’air un peu raté pour nvidia en voyant ces chiffres.



SwAY256 a dit:





Les enjeux sont à bien plus long terme. Tous les paris de ce genre le sont. Parfois ça marche, parfois non. C’est la vie. Pour l’automobile on verra, il faudra déjà que ce marché existe en soi



lololasticot a dit:


1500 euros pour la prochaine carte graphique haut de gamme, j’ai l’impression d’être un pauvre quand je vois les prix pratiqués … je vais rester avec ma bonne vieille gtx 980 qui fera le boulot encore un moment.




C’est déjà le cas non ? En regardant les 2080Ti neuves sur materiel.net on est pas loin de €1400. Perso ça me dépasse que ça se vende à ce prix là, c’est juste hallucinant.



Moi ce qui me fait peur c’est qu’ils vendent le milieu de gamme à €1000. j’ai eu une 670, 970 et maintenant 1070 pour lesquelles je n’ai pas déboursé plus de €400. Mais il faut constater que depuis les RTX ce n’est plus possible de suivre. Heureusement que la 1070 fait encore le boulot.



Obidoub a dit:





Déjà dit plus haut, mais comparer les cartes par xx70 n’a pas de sens, le marketing est là pour entretenir des confusions. L’équivalent de la 1070 côté RTX… n’existe pas. Elle est au niveau des GTX 1660 Super en général. C’est surtout que la gamme s’est assez largement étendue en termes de puissance.



Pour rappel la 1070 au lancement c’était 500 euros, les derniers bons plans la concernant c’était 280 euros (début 2019). Les 1660 Super se trouvent dans les 250 euros, avec une meilleure efficacité énergétique, des designs plus compacts, une architecture plus récente. On ne peut pas dire que le perfs/prix soit en baisse.



Dans les 400 euros actuellement, tu as les 2060 (Super), qui prennent la place de la 1070 à l’époque où elle était vendue à ce prix avec plus de perfs, RTX/DLSS (et tout ce que ça implique sur les usages de type calcul); le moteur vidéo, etc. La next gen va sans doute amener une décote avant un remplacement complet de la gamme et là encore une hausse du perfs/prix.



Ce qui “gêne” en général, c’est qu’un public habitué à du xx70 se retrouve avec du xx60 et le vit mal même si sur le fond, les perfs grimpent, le perfs/prix grimpe, le perfs/w grimpe. C’était l’un des paris marketing de NVIDIA sur Turing.



Comme je disais au début de mon commentaire : il ne faut pas se laisser abuser par le marketing. Son but est de pousser à la hausse en gamme.


À partir du moment où Nvidia conserve la même nomenclature pour ses gammes, il est logique que les consommateurs comparent des cartes dont la numérotation est semblable. Une 1070 est forcément comparée à une 2070, même si la 2060 est la remplaçante en terme de gamme tarifaire et propose déjà une amélioration des perfs pour un prix équivalent.



Wirby a dit:





C’est la logique qu’attend NVIDIA, ne pas s’en extraire c’est se faire avoir (pour être poli).