Cela fait près de 40 ans que le PC gagne de la place dans les foyers. Et à chaque grande période, sa tendance pour séduire les clients. La dernière en date ? Les machines et solutions destinées aux « créateurs ». Simple astuce marketing pour certains, elle peut avoir du sens si on y met du concret. C'est ce que tend à prouver NVIDIA avec RTX.
Qu'est-ce qu'un produit destiné aux « créateurs » ? C'est la question que l'on se pose de salon en salon ces dernières années. Cela fait en effet quelques CES et Computex que les marques surexploitent ce terme à la signification... variable. Car comme souvent avec les cibles marketing, il s'agit pour beaucoup d'une simple opportunité commerciale.
Ainsi, on a vu nombre de sociétés multiplier les produits classiques dans leur composition, sans fonctionnalité spécifique, mais à la robe blanche et plutôt sobre. Comme si cette tendance n'était née que dans le rejet des produits « Gamers » et du tout RGB. Une attitude risible, et de plus en plus moquée. Heureusement, on trouve des exceptions.
Les créateurs méritent mieux qu'un coup de peinture blanche
Car il ne faut pas s'y méprendre, cette tendance répond à un besoin. Elle n'est d'ailleurs pas nouvelle. Il y a quelques années, on utilisait l'anglicisme « enthousiastes » pour désigner ces utilisateurs ne regardant pas à la dépense. Si certains cherchent seulement à satisfaire leur ego avec les derniers composants à la mode, pour d'autres il s'agit d'un réel besoin de performances dans leurs différentes activités, sans aller chercher de coûteux composants professionnels.
Un phénomène qui s'est accentué avec la montée en puissance d'Internet et du très haut débit dans nos vies, des plateformes et leurs opportunités. Car si beaucoup d'utilisateurs restent de simples spectateurs, consommateurs de contenus, le réseau des réseaux a joué pour beaucoup son rôle de vecteur créatif.
On peut y gagner en connaissances sur des milliers de sujets, mais également y partager notre savoir, nos expériences, le résultat de notre travail sous des formes variées. De quoi donner des ailes à certains qui n'ont pas hésité à se lancer dans une activité indépendante, nécessitant parfois des outils performants.
On pense assez rapidement aux quelques youtubeurs professionnels, mais cela concerne un public bien plus vaste : vidéastes au sens large, web designers, concepteurs en tous genre, développeurs, journalistes, etc. Et pourquoi pas un employé de bureau, maker acharné et blogueur à ses heures ?
Pour ceux-là, l'évolution technologique a apporté son lot de bonnes nouvelles. Nous ne sommes désormais plus obligés de choisir entre des machines puissantes et/ou mobiles, entre des composants permettant de travailler et/ou de profiter de nos loisirs. Les solutions pour créateurs étaient nées.
Le PC ne cesse d'évoluer
Il y a quelques années pourtant, certains prévoyaient la mort du PC. Montée en puissance des appareils mobiles, des solutions sur base ARM, etc. Les prophètes étaient aussi nombreux que dans l'erreur. L'ordinateur est plus que jamais personnel et il s'agit toujours d'une plateforme majeure dans nombre d'industries.
Bien que des solutions hybrides telles que l'iPad Pro d'Apple existent, elles restent minoritaires, même là où le besoin de puissance n'est pas très important. Il suffit de regarder l'équipement des étudiants, encore nombreux à prendre leurs notes sur un bon vieux PC, malgré les promesses de Qualcomm et Microsoft avec Windows 10 on ARM.

L'avenir du PC se cherche encore, notamment chez Microsoft et ses Surface
Mais les constructeurs le savent, ce n'est qu'une question de temps, la transition est en marche. Surtout, ce n'est pas sur de tels marchés qu'ils vont construire leur croissance de demain. Ils ont donc cherché à se diversifier, notamment en se tournant vers des usages où la performance est perçue comme une valeur ajoutée.
On pense notamment au secteur professionnel avec les stations de travail et autres serveurs, le HPC, l'intelligence artificielle dans les voitures ou les hôpitaux, etc. Mais aussi au monde des jeux vidéo pour le grand public. C'est peu à peu que la troisième voie des créateurs s'est dessinée, aidée par l'évolution des produits.
Le GPU de plus en plus au cœur de la performance des applications
Du côté des processeurs, on pense souvent aux gammes intermédiaires entre les puces du PC classique et ceux pour serveurs. Il s'agit des Core X chez Intel ou des Threadripper chez AMD. Ils multiplient en général le nombre de cœurs, les canaux mémoires et les E/S, visant des usages spécifiques.
Il est aussi de plus en plus courant de voir chez les passionnés une armoire accueillir des composants réseau à la limite de l'usage professionnel. Elle est en général accompagnée d'un ou plusieurs serveurs, en rack ou au format tour. On parle alors de « Home Lab » aux possibilités multiples.
Les processeurs haut de gamme permettent ainsi de multiplier les services virtualisés, peuvent servir aux développeurs voulant éviter de perdre trop de temps dans leurs phases de compilation, ou à ceux qui ont d'autres traitements gourmands à effectuer : vidéo, rendu 3D, calculs sur de gros volumes de données, etc.
Un terrain qui n'est plus seulement réservé à l'entreprise, mais de plus en plus accessible à tous. Si AMD a poussé dans ce sens avec ses Ryzen, on voit surtout la carte graphique prendre de plus en plus de place. Une opportunité bien saisie par NVIDIA, qui a fait un gros travail sur le sujet ces dernières années.
NVIDIA : de CUDA à RTX...
Cela a commencé par une petite révolution pour l'entreprise et le secteur tout entier il y a une dizaine d'années : CUDA. Avec cette solution et les outils consacrés aux développeurs qui l'accompagnait, il devenait possible d'utiliser un GPU pour effectuer de simples calculs et non plus seulement des rendus 3D.
De quoi ouvrir de nombreuses portes au constructeur. Mais ce n'était que le début d'un travail de longue haleine, menant à l'architecture Turing. Lancée mi-2018, il s'agissait d'une forme d'aboutissement de cette synergie. Elle peut en effet être exploitée pour différents types de calculs tant dans le monde des loisirs que dans les besoins professionnels. Une dualité au cœur même de cette gamme.
Cela a poussé NVIDIA à multiplier les partenariats. Avec les éditeurs de jeux, bien entendu, autour de DirectX Raytracing, mais pas seulement. Le constructeur a travaillé avec plusieurs grandes sociétés du monde logiciel pour que les différentes possibilités de ses GeForce RTX soient exploitées via la Studio Stack.

Cela concerne donc aussi bien son moteur de ray tracing OptiX pour les applications de rendu 3D, NVENC pour la (dé)compression accélérée des vidéos, des Tensor Cores pour différents traitements où l'intervention de l'IA peut devenir un avantage de taille. La liste complète se trouve ici.
Là où AMD s'était contentée d'une Radeon VII avec une puce haut de gamme et 16 Go de mémoire, NVIDIA a montré qu'une implication sur le sujet devait se faire en liant les évolutions logicielles et matérielles. Et pas seulement dans des outils accessibles aux seuls utilisateurs de Quadro.
Le dernier partenariat avec Adobe, pour l'intégration de fonctionnalités exploitant les GPU au sens large et les RTX en particulier le montre bien. Tout comme la mise en place d'un bundle permettant d'obtenir 3 mois d'abonnement à Creative Cloud avec certains produits plutôt que le dernier jeu en date.
... un chemin semé d'embûches
Une situation à laquelle on ne pensait pas arriver il y a un an et demi, au début des GeForce RTX. Si tout le travail avec les éditeurs avait été initié, rien n'était prêt. NVIDIA a décidé de lancer tout de même son produit avec un axe unique sur le grand public : les joueurs au budget conséquent.
Aucune carte n'était proposée à moins de 600 dollars, aucune fonctionnalité avancée n'était exploitable. Il fallait donc payer cher pour n'avoir que des promesses. Un lancement définitivement raté, mais le constructeur a su mettre de l'eau dans son vin par la suite sur différents aspects.
Outre les annonces progressives du côté des éditeurs de jeux et d'applications pour ce qui est de profiter du potentiel des GeForce RTX, la gamme a été complétée, repensée. Elle est désormais plus abordable avec des modèles comme la RTX 2060 dès 300 euros. Elle a également été déclinée en versions pour PC portables.
Avec le recul, on note deux tournants majeurs intervenus l'année dernière. Comme pour l'arrivée de RTX sur le marché, leur accouchement a été difficile mais s'est au final révélé salvateur. On pense tout d'abord au programme Creator, rapidement devenu Studio RTX.
NVIDIA mettait alors surtout en avant ses pilotes optimisés pour des applications professionnelles plutôt que les derniers jeux. Mais en mélangeant les versions de pilotes et en ne proposant pas de passer simplement d'une version optimisée à une autre, le constructeur a raté son effet. Ce qui a complètement nui à l'ensemble de l'initiative.
Car tout le discours évoquant les possibilités des GeForce RTX et les partenariats mis en place a été mis de côté, tout le monde se focalisant sur la question de l'évolution des pilotes. Ce, alors que les avancées étaient concrètes. Désormais, les deux branches continuent de coexister, mais les utilisateurs ne savent pas forcément laquelle choisir lorsqu'ils utilisent leur PC pour jouer et travailler. Espérons que cela finira par s'améliorer.
S'en est suivi l'annonce de programmes marketing permettant l'identification de machines portables visant les créateurs, avec des critères techniques (voir ci-dessus) comme la qualité de la dalle, la quantité de mémoire ou de stockage, le niveau du processeur ou du GPU intégré, etc.
Là aussi, la communication avait été assez bancale alors que l'initiative était louable. Le même a été mis en place concernant les stations de travail qui bénéficient également d'une couche logicielle spécifique préinstallée. On continue néanmoins de regretter que ce label ne concerne que le CPU Intel et fasse l'impasse sur ceux d'AMD.
Le second point d'infléchissement vint avec la gamme de RTX Super. Ici, plus qu'un renouvellement technique, il s'agissait de cartes graphiques au rapport performances/prix bien plus attractif. On peut pour cela remercier AMD et le lancement de Navi, qui a sans doute participé au changement de ton chez NVIDIA.
... en passant par Max-Q
Tout le travail fait par NVIDIA autour de RTX ne doit pas faire oublier d'autres initiatives ayant aussi participé au rapprochement des besoins propres à un usage professionnel ou ludique. C'est le cas de Max-Q pour les PC portables, devant allier performances et mobilité, autonomie et capacité « d'envoyer du bois » à la demande.
Ici, le constructeur a travaillé dès 2017 sur des caractéristiques techniques revues à la baisse, mais devant permettre de trouver un « sweet spot » entre les performances et leur effet néfaste sur la consommation, la chauffe et donc les nuisances sonores ou l'autonomie. Les machines certifiées étant testées et validées sur de tels critères.
Ce programme est en bonne partie responsable de la fin d'une segmentation du marché en deux catégories ne se rencontrant presque jamais : les machines ultra-fines d'un côté et les PC « pour Gamer » de l'autre. Les références sachant allier design compact, sobriété (ou non) et composants performants du CPU au GPU sont désormais légion.
Certains constructeurs se sont d'ailleurs particulièrement engagés sur ce terrain, comme Gigabyte qui a beaucoup développé son offre autour de designs Max-Q ces dernières années. Mais on regrette ici le manque de transparence qui règne encore trop souvent sur les caractéristiques des PC portables, un phénomène amplifié par Max-Q.
NVIDIA proposant des plages de fréquence et de TDP à ses partenaires, qui ne communiquent que rarement leurs choix en la matière, le consommateur ne sait pas toujours à quel niveau de performances s'attendre. Il serait temps que le père des GeForce travaille avec ses partenaires sur ce point.
On apprécie par contre que l'évolution logicielle ait ici aussi accompagné les choix matériels, bien que cela passe essentiellement par GeForce Experience plutôt que le panneau de configuration classique. On pense par exemple à Battery Boost permettant de limiter les performances pour améliorer l'autonomie. Mais aussi au Whisper Mode qui fait de même, tout en optimisant automatiquement les réglages des jeux.
NVIDIA communique peu sur le sujet, mais il propose également sa fonctionnalité Platform Boost, activée par défaut et désactivable dans le panneau de configuration. Elle vise à mieux répartir la puissance entre le CPU et le GPU. Une fonctionnalité qu'AMD est en train d'intégrer à ses produits sous le petit nom de SmartShift.
Quels avantages dans la pratique ?
Cela fait donc maintenant près de trois ans que NVIDIA repense le PC, fixe ou portable, pour permettre au GPU d'y jouer un rôle de plus en plus important, ouvrant à un nombre croissant d'utilisateurs des possibilités et un niveau de performances qui n'était jusqu'à maintenant réservés qu'aux professionnels.
Mais derrière la mise en place de Max-Q, du programme Studio, des GeForce RTX et des multiplies fonctionnalités logicielles qui y sont liées, qu'est-ce que l'utilisateur en retire de concret ? C'est tout l'objet du dossier que nous ouvrons aujourd'hui, et qui sera pour nous l'occasion de plonger en détails dans les derniers produits de NVIDIA et ses partenaires, pour en décortiquer les fonctionnalités, les avantages et les limites.