L'Unreal Engine 5 en early access, AMD et NVIDIA vantent ses mérites

L’Unreal Engine 5 en early access, AMD et NVIDIA vantent ses mérites

Temporal Super Resolution en approche

Avatar de l'auteur
David Legrand

Publié dans

Hardware

27/05/2021 4 minutes
19

L'Unreal Engine 5 en early access, AMD et NVIDIA vantent ses mérites

Ces dernières années, Epic Games et son Unreal Engine ont le vent en poupe. L'outil est utilisé par un nombre croissant de jeux, mais pas seulement puisqu'on le retrouve également utilisé dans la création 3D plus classique. Sa version 5 arrive, elle est désormais disponible en early access.

L'Unreal Engine est devenu l'un des outils à tout faire des créateurs en tous genres. Qu'il s'agisse d'architecture, d'automobile, d'oeuvre cinématographique ou de jeux vidéo, il répond présent. Avec un niveau de réalisme de plus en plus poussé, comme on a encore pu le voir récemment avec l'annonce du MetaHuman Creator :

Unreal Engine 5 : des environnements plus réalistes, moins gourmands

Annoncée l'année dernière, la version 5 du célèbre moteur est attendue de pied ferme, notamment par les développeurs de jeux sur consoles de dernière génération qui vont pouvoir les exploiter de manière plus efficace. Entre autres grâce au système de gestion de la géométrie Nanite qui promet des environnements très détaillés, ouverts, aux chargements réduits, ne nécessitant que peu de ressource au regard de la qualité visuelle affichée.

Côté gestion des lumières, c'est Lumen qui prendra le relai. Un sujet important, puisque le rendu des sources lumineuses et des ombres est de plus en plus scruté depuis l'exploitation croissante de l'illumination globale, du ray tracing et d'autres effets dans les jeux.

L'équipe dit aussi avoir facilité et renforcé ses outils d'animation, audio, l'interface, etc.

Epic Games rentre dans le dur

Les développeurs peuvent désormais s'en rendre compte par eux-mêmes, puisque l'Unreal Engine 5 est disponible en accès anticipé. Une page lui a été dédiée sur le site d'Epic Games, les notes de version complètes étant par ici. L'équipe dit espérer pouvoir finaliser sa conception d'ici l'année prochaine, sans plus de détails pour le moment. 

Il faudra de toute façon encore en passer par des phases de bêta et de release candidate avant d'en arriver là. Le gros du travail étant désormais fait, Epic Games veut sans doute commencer à collecter plus massivement des retours de sa communauté, son moteur étant gratuitement accessible à tous, avec des licences payantes pour les entreprises.

L'équipe s'est au passage fendue d'une vidéo de présentation technique, avec une première démonstration visuelle décortiquée :

AMD et NVIDIA sont aux anges

Bien entendu, AMD et NVIDIA étaient dans les starting-blocks. Le premier a publié dans la foulée de l'annonce un billet de blog évoquant les nouveautés, dont une en particulier : Temporal Super Resolution (TSR). Il s'agit d'une solution similaire au DLSS de NVIDIA, qui consiste à effectuer le rendu dans une définition peu élevée puis à procéder à une mise à l'échelle pour l'afficher à la définition désirée, plus élevée. 

L'idée est ainsi de minimiser le temps de rendu par le GPU pour afficher de bonnes performances, l'upscaling étant bien moins gourmand. Il faut néanmoins que cette phase soit fidèle à l'image originale, ce qui est la phase la plus complexe, pour laquelle NVIDIA utilise un modèle généré par une de ses IA maison, appliquée via les Tensor Cores de ses GeForce RTX. Ici, TSR fonctionnera partout, sur toute carte graphique pour PC mais aussi sur consoles.

AMD dit avoir travaillé avec Epic Games pour optimiser cette solution à ses Radeon, alors que la société devrait bientôt dévoiler son FidelityFX Super Resolution. On espère pouvoir en apprendre plus à son sujet au Computex. Le constructeur précise au passage qu'Epic Games a conçu l'UE5 et sa démonstration sur un Ryzen Threadripper.

NVIDIA précise de son côté que le moteur supporte déjà ses solutions DLSS et Reflex, qui sont bien entendu également exploitables au sein de cette nouvelle version 5.

Écrit par David Legrand

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Unreal Engine 5 : des environnements plus réalistes, moins gourmands

Epic Games rentre dans le dur

AMD et NVIDIA sont aux anges

next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Fermer

Commentaires (19)


Les vidéos sont quand même impressionnantes.



Ne reste plus qu’à avoir de la dispo sur les GPU pour en profiter :)


C’est un moteur full API bas niveau ou pas? Ce serait bien qu’ils se débarrassent entièrement du code de DX11 et OpenGL parce que les moteurs “hybrides”, niveau optimisation c’est pas toujours ça.


La vidéo est vraiment impressionnante, c’est très beau, et l’interface à l’air très userfriendly


Magnifique. J’espère juste que la PS5 pourra en tirer parti.


J’ai vu une démo hier soir et j’avoue que ça ma beaucoup impressionné !



La scène de démo est composée d’environ 15 / 20 rochers qui ont été scannés ( mega scans ) puis éparpillés sur la map. Le moteur s’occupe de la gestion du niveau de détail de façon automatique ( lod ), du streaming des textures et les shader sont compilés à la volée ce qui fait gagner un temps de fou pour créer un build.




(quote:57367:john san)
Magnifique. J’espère juste que la PS5 pourra en tirer parti.




Je pense que toutes les machines pourront en profiter si le jeu est un minimum optimisé.


Pas mal de notions très sympas, ça donne envie de s’y mettre… XD



En revanche juste le concept de “game feature plugin” pour le coup y’a pas de quoi se vanter c’est un peu la base…



Et à priori rien de fait par rapport à l’intelligence artificielle. C’est logique puisque le UE c’est avant tout un moteur de jeu généraliste voire axé sur le graphisme (je sais même pas s’ils proposent des outils sur le sujet en fait) mais tout de même…
Perso ça m’impressionne sur le principe ces avancées graphiques mais en vrai je m’en tamponne. Avoir des interactions avec les NPCs plus riches et moins incongrues en revanche…


Beau canyon, très détaillés! Peux être la tech sera utilisé dans un futur jeu style RDR ou Assassin Creed (Origins avait un sympathique canyon mais de loin aussi profond ^^).


Un peu comme ça : https://www.youtube.com/watch?v=DWIJVqv_uyo
Chaîne marrante et si vrai dans la critique du jeux vidéo par l’humour.



(reply:57368:skankhunt42 )




J’ai lu hier que pour la génération de consoles actuelle c’est 4K 30fps. Il faut que je retrouve la source d’information. Les commentaires en cascade c’était “ouaih c’est suffisant // ou // ah non ! s’il faut downgrade en 1080 60fps je le ferai”.



J’ai trouvé la vidéo moins impressionnante que les précédentes sur les aspects de lumières textures.
Edit: https://www.youtube.com/watch?v=qC5KtatMcUw



Sheepux a dit:


J’ai lu hier que pour la génération de consoles actuelle c’est 4K 30fps. Il faut que je retrouve la source d’information. Les commentaires en cascade c’était “ouaih c’est suffisant // ou // ah non ! s’il faut downgrade en 1080 60fps je le ferai”.




En fait ce genre de propos ne veulent rien dire si tu ne spécifie pas le niveau de détail d’un jeu. Mais globalement il est clair que si tu veut suivre la tendance alors oui ça sera du 4k 30 fps ou du 60 fps en 1080p.



Par contre pour l’outil nanite je n’arrive pas trop à comprendre comment ça marche il y à zéro clipping sur leur engin, ça fait vraiment rêver surtout quand tu vois le bordel que c’est à gérer dans une 3d plus traditionelle.



(quote:57376:skankhunt42 )
Par contre pour l’outil nanite je n’arrive pas trop à comprendre comment ça marche il y à zéro clipping sur leur engin, ça fait vraiment rêver surtout quand tu vois le bordel que c’est à gérer dans une 3d plus traditionelle.




ex: https://www.youtube.com/watch?v=AeMz9aPXpa4



Aller je mise 1€ sur du “subdivision surface” avec du ‘dicing’. CAD plus c’est près plus on ajoute de détails et plus c’est loin plus on se dit que c’est sur la pile des idées a penser plus tard. A voir comment cela se comporte quand il y a transition entre les LOD0 1 2 3 etc.



Toujours dans le respect de du “displace” (bump et companie).



Avec en plus du motion blur pour camoufler. L’oeil humain se fout du détail en périphérie quand ça bouge… de la à ce qu’émerge des astuces…


La documentation est ici et cela explique les grandes lignes des différentes technologies:





Notamment je ne sais plus si c’est dans la doc ou une des vidéos, mais le principe est d’avoir un triangle pour chaque pixel.


Ya un super progrès sur les cheveux :)
Par contre je trouve les animation d’interraction environnementales toujours pas au point :/



Mais ça me fait penser au cinématiques en 3D dégueux précalculé d’il y a quelques années. Le ray tracing était encore réservé qu’au module dédié sous maya et il fallait des temps de calculs super long pour une seule image… et là c’est tout en temps réel. C’est géniool :yaisse:



TexMex a dit:


ex: https://www.youtube.com/watch?v=AeMz9aPXpa4



Aller je mise 1€ sur du “subdivision surface” avec du ‘dicing’. CAD plus c’est près plus on ajoute de détails et plus c’est loin plus on se dit que c’est sur la pile des idées a penser plus tard. A voir comment cela se comporte quand il y a transition entre les LOD0 1 2 3 etc.




Ceci : https://www.youtube.com/watch?v=KyG2NtDEdBU .


La seule chose vraiment expliquée (et sommairement) c’est la ‘fragmentation en sous objet’ pour ne traiter que ce qui est visible (occlusion).



Avec en plus je cite:




Nvidia a dit:


Since Nanite relies on the ability to rapidly stream mesh data from disk on demand. Solid State Drives (or SSDs) are recommended for runtime storage




-> Soit c’est seulement une technique un peu plus travaillée pour améliorer l’occlusion. Ce qui n’est pas très prometteur pour l’avenir.
Pourquoi ?




  • Bin c’est pas une révolution.

  • Cela pourra amener des problèmes:


    • De stockage s’il n’y a pas de création de face à la volée.

    • De performance (SSD required et supportant l’usure)

    • De contrainte artistique pour économiser les accès on met moins d’objet ou le même en le montrant sous des angles différents. Bref du désert on va en bouffer.




Ca fait tellement pale figure ce qui est expliqué que la tesselation via texture semble plus cool.



-> Soit trop peut est expliqué.



Dans ce que l’on voit ici c’est encore un paradigme. C’est plus beau mais il faut plus costaud comme machine. Parce que bon y’a pas de miracle non plus.


@admin : Double post foireux. C’est pas ma faute c’est celle d’OliverJ




(reply:57389:skankhunt42 )




Je pense que le gars n’a pas compris comment fonctionne l’instanciation et le rendu. Dans le cas de cette vidéo il ne s’agit évidement pas d’autant de triangle traités. Le LOD + mipmap et éventuellement l’occlusion rentre en ligne de compte. Astuce, astuce quand tu nous tient.



TexMex a dit:


Bref du désert on va en bouffer.




Je viens de voir une vidéo et en effet il est impossible ( pour le moment ) d’utiliser nanite avec des arbres. Si la caméra est trop loin les feuilles disparaissent car ça gère pas les polygones qui n’ont pas d’épaisseurs.




TexMex a dit:


Je pense que le gars n’a pas compris comment fonctionne l’instanciation et le rendu. Dans le cas de cette vidéo il ne s’agit évidement pas d’autant de triangle traités. Le LOD + mipmap et éventuellement l’occlusion rentre en ligne de compte. Astuce, astuce quand tu nous tient.




Peut être mais en attendant le résultat est vraiment dingue surtout en conaissant la provenance de l’objet. J’imagine pas le gain si les objets sont crées en 3d en optimisant correctement les mesh.



Et si le mec ne sait pas config le machin je trouve ça d’autant plus impressionnant. Franchement essaye de faire ça sous unity ou l’ancien unreal, ça crash direct !



TexMex a dit:




  • Bin c’est pas une révolution.

  • Cela pourra amener des problèmes:


    • De stockage s’il n’y a pas de création de face à la volée.

    • De performance (SSD required et supportant l’usure)

    • De contrainte artistique pour économiser les accès on met moins d’objet ou le même en le montrant sous des angles différents. Bref du désert on va en bouffer.





Pas une révolution possible, mais ça reste une première de pouvoir afficher autant de détail en 3D en temps réel.
Aucun souci de stockage, l’intérêt de la tessellation est une passe technique pour éviter d’avoir autant de triangle à transmettre au GPU car on en n’était pas capable avant (ATI TruForm 2007).
Le SSD est recommandé car on va chargé plus d’information car le niveau de détail à augmenter, à niveau équivalent cela ne change pas grand chose.
Un SSD s’use à l’écriture et pas à la lecture… or ces nouveaux assets (maillage fin et texture plus simples) sont équivalents ou plus léger que les actuels (maillage plus grossier x3 ou x4 pour les LOD et des textures fines).
Faux le nombre d’objets différents importe pas grand chose, la répétition est une facilité pas une obligation pour la technologie.
Et c’est un très grand atout pour les artistes car cela permet de produire plus vite et finement, car se basant sur la vue de l’artiste et non celle adaptée à la technique.




TexMex a dit:


Dans ce que l’on voit ici c’est encore un paradigme. C’est plus beau mais il faut plus costaud comme machine. Parce que bon y’a pas de miracle non plus.




Ces avancées tournent déjà bien avec des machines actuelles, mais il y encore des choses à venir et aussi des défauts en cours de correction/étude, cela reste une pre-release:




  • accès direct du GPU au données du disque (en cours de déploiement, si je ne me trompe pas sur Windows 10), pour éviter la latence et profiter des SSDs.

  • objets Nanite déformable/destructible, car actuellement les maillages sont statiques

  • gestion de matériaux plus complexe pour les objets Nanite avec Lumen (pas complétement sûr de moi, mais j’ai cru comprendre que ce n’est pas complet en l’état)