Accueil » Blog » NVIDIA GameWorks – Interview de REV Lebaredian

NVIDIA GameWorks – Interview de REV Lebaredian

Nous apprenons aujourd’hui que nos confrères de chez Wccftech ont pu interviewer Rev Lebaredian, le vice-président de chez Nvidia s’occupant de la partie GameWorks de la structure. L’entrevue s’est avérée être très intéressante avec comme sujets les technologies de traitement de l’image ou l’avenir du jeu vidéo. D’après REV Lebaredian, GameWorks est bien portant et s’étend de plus en plus aux nouvelles technologies. L’équipe ne serait plus cantonnée à un seul domaine d’activité, comme vous allez pouvoir le lire par vous même: 

Pourquoi ne pas plus familiariser les lecteurs avec votre travail ?

Je travaille chez Nvidia GameWorks depuis plus de 15 ans et j’ai exclusivement travaillé sur des technologies destinées au marché du jeu vidéo. Nous avons aussi travaillé sur tout ce qui touche aux technologies similaires comme la VR, la Réalité Augmentée et la Robotique.

Pouvez-vous nous donner un bref aperçu de la progression de GameWorks depuis notre dernière conversation ?

Nous sommes vraiment heureux des évolutions et de la tournure que prennent les jeux actuellement. Nous avons augmenté nos investissements dans le développement des technologies de jeu grâce à notre équipe GameWorks et avons étendu la portée de nos technologies.

Non seulement il y a encore plus de jeux qu’auparavant mais il y a aussi des titres indépendants en plus des triples A dont différents genres intéressants qui émergent. Les mêmes technologies sont utilisées dans la VR et l’AR. Nous l’utilisons pour des programmes de simulation pour des domaines externes au jeu.

Il y a peu nous avons annoncé notre projet en robotique, le Projet Isaac, nous fabriquons un simulateur de robotique sur Unreal Engine 4 avec GameWorks. Nous avons aussi progressé dans le domaine de l’intelligence artificielle profonde (DeepLearning). Nous examinons différentes manières de permettre aux développeurs de jeux d’incorporer des technologies spécifiques liées à l’IA. L’un des domaines les plus intéressants est la création de contenus volumineux. Cette technologie pourrait permettre de créer des mondes plus vastes grâce à des simulations faites par IA.

En 2012 lorsque les techniques d’intelligence artificielle ont émergées, tout a été fait sur notre plateforme avec du matériel CUDA. Nous tentions d’être visionnaire et investissons depuis. L’apprentissage profond n’est pas un domaine en soit et est une technologie utile dans de nombreuses branches.

Lors des dernières éditions de la Game Developper Conference, nous avons publié quelques unes des technologies sur lesquelles nous travaillons afin de donner un avant-goût de ce qui nous attend. Trois d’entre elles sont disponibles pour tout le monde à essayer sur notre site web. Nous avons une technologie de super résolution pour permettre sur les images et les textures du X4 par rapport à la résolution d’origine. Cette technologie permet de rendre visible des détails qui ne sont pas vraiment visibles sur la résolution d’origine.

Nous avons un multiplicateur de texture, une autre technique nécessaire à la construction de mondes complexes et volumineux. Nous avons aussi une technologie photomatérielle où il est possible de prendre deux images, de les intégrer dans un algorithme et de permettre ensuite une génération automatique des textures dont on peut avoir besoin.

Habituellement, nous avons vu des jeux AAA mettant en œuvre la technologie GameWorks. Cependant le studio indépendant Theory Interactive a annoncé qu’il utilisera WaveWorks et PhysX dans son jeu RESET pendant que EXOR Studios utilise PhysX pour X-Morph : Defense. Comment le partenariat avec eux a émergé ? Pouvons nous nous attendre à voir plus de jeux indépendants utiliser GameWorks à l’avenir ?

Nous avons toujours travaillé avec des boîtes de développement de toutes tailles. Quand on aperçoit un jeu plaisant, connaître la taille du développeur n’est pas important, nous travaillons avec n’importe qui.

Nous avons probablement les meilleures relations avec les développeurs au monde dans le jeu vidéo. Nous avons construit cette équipe depuis plus de 10 ans et nous avons des gars qui ont fait partie de Nvidia. Il n’y a pas de développeur de jeux auquel nous ne parlons pas et nous avons acquis leurs confiance.

Nous entretenons ces conversations, nous discutons avec eux lors des évènements comme la GAMESCOM ou l’E3. En dehors de cela, nous gardons notre ligne de communication ouverte avec eux. Souvent ils viennent nous voir et nous disent que les technologies annoncées les intéressent.

Cela arrive assez simplement. Nous n’essayons pas de pousser notre technologie vers un développeur de jeu qui n’en veut pas, nous attendons qu’ils demandent.

La démo technique la plus récente de GameWorks a montré que Flow s’exécutait sous DX12. Est-ce un signe d’un futur support de DX12 ?

L’objectif serait de prendre en charge toutes les API que les développeurs de jeux utilisent. Dans un monde idéal, chacune de nos technologies GameWorks fonctionneraient sur n’importe quelle API, n’importe quel OS et sur l’ensemble du hardware. La vérité est que parfois, techniquement, ce n’est pas possible et ce malgré le fait que nous ayons beaucoup de ressources. Nous ne pouvons pas tout bien supporter, nous priorisons les technologies et les API qui sont demandées par les développeurs.

Flow et Flex sont des technologies parlantes à tous les développeurs de jeux. Flex est un moteur de physique dynamique basé sur la position des particules dans le but de créer une simulation des phénomènes physiques. Il est possible de faire des corps rigides, des fluides ou bien des corps mous. C’est une technologie vraiment géniale que nous avons développé sur CUDA car elle nécessitait un niveau de sophistication que d’autres API ne fournissaient pas encore. Nous avons donc utilisé DirectX et l’avons porté sous DirectX12. Flux est une troisième génération de simulateur de fluide qui est venu remplacer Turbulence. Le choix de DirectX comme API est totalement lié à la demande des développeurs.

En ce qui concerne les solutions d’occlusion ambiante, nous n’avons vu jusqu’ici le VXAO que dans Rise of the Tomb Raider et nous le verrons probablement dans FFXV Windows Edition. Est-ce parce que c’est trop lourd pour le matériel ? Faut-il s’attendre à voir principalement du HBAO+ à l’avenir et travaillez-vous encore à l’amélioration de cette technologie ?

En dehors de ces deux jeux, je ne peux pas parler des prochains titres en VXAO. Cela est vrai, c’est beaucoup plus coûteux en calcul que les méthodes comme le HBAO+.

Nous savons depuis toujours que la technologie n’est pas idéale car elle ne peut vous donner d’ombre sur les détails qui ne sont pas visibles dans le champ de vision. VXAO est la solution à tout cela, mais cela a un coût de calcul. Notre manière de travailler nous permet de voir ce que l’avenir du jeu et de l’infographique va délaisser, bien avant que quiconque commence à y penser, car nous devons décider ou parier lorsque nous concevons une architecture GPU. Nous investissons des milliards de dollars dans le développement et nous sommes souvent sollicités pour savoir ce qui va arriver et où Nvidia devrait mettre le budget.

VXAO et VXGI ont été possibles grâce aux fonctionnalités spécifiques implémentées sous l’architecture Maxwell. Nous n’attendions pas d’avoir un engouement et des tonnes de jeux utilisant la feature à la sortie. Mais si nous ne faisions pas cela, nous ne permettrions pas aux gens de jouer avec et d’expérimenter ces technologies. Nous avons développé ces technologies en essayant d’imaginer ce que nous voulions voir en terme d’infographie.

Nous avons développé non seulement le matériel pour cela mais aussi les suites de logiciels et même l’intégration dans les moteurs de jeu les plus populaires afin que les développeurs de jeux puissent en bénéficier dès qu’ils sont prêts.

L’éclairage volumétrique de Fallout 4 était superbe. Pensez-vous que d’autres développeurs sont intéressés pour leurs jeux ?

Malheureusement, je ne peux pas parler de jeux inédits ou des technologies qu’ils contiennent. Désolé.

Quelle est la prochaine étape sur TXAA ? Restera-t-il votre principale solution anti-aliasing dans GameWorks à l’avenir ?

L’anti-aliasing, en général, est un problème central et fondamental dans l’infographique et ne sera jamais vraiment résolu. Le monde réel n’a pas de pixels, donc nous sommes obligés de le faire et ce à chaque fois que nous commençons l’échantillonnage. Comme la demande de ressources est de plus en plus grande, il semble qu’il soit impossible pour le moment de faire des anti-aliasing plus agressifs. Nous tentons d’utiliser un système de triche pour équilibrer performances et rendu.

Le monde réel est très complexe et la physique de la vie est impossible à simuler exactement compte tenu de la puissance de calcul dont nous disposons. Donc ce que nous faisons, c’est que l’on utilise des approximations comme le TXAA avec un compromis entre qualité et performances. Ce n’est en aucun cas la fin, nous continuerons à investir dans les techniques d’anti-aliasing. Nous pouvons également voir un potentiel d’utilisation de l’IA dans ce domaine.

Le Multi-res Shading est une technologie très intéressante dérivée de VRWorks. Nous l’avons vu utilisée dans Shadow Warrior 2 avec beaucoup de succès en dehors de la VR. Est-ce que vous pensez qu’il sera judicieux pour les développeurs d’économiser sur les performances dans les résolutions comme le 4K grâce à ce genre de rendus ?

Le Multi-Res Shading est vraiment intéressant. L’architecture nous a permis de faire ce rendu dans différentes résolutions et dans différentes parties de l’écran. Nous étions limités à du 3X3… Nous avons amélioré ça avec Pascal et pensons vraiment que nous devons prendre maintenant le chemin du 4K et de la 8K. Le VR nécessite une forte résolution et une complexité et nous sommes obligés de faire varier le taux d’échantillonnage.

Si l’on mettait la résolution au maximum, nous gaspillerions beaucoup de ressources. Nous continuons d’investir là dedans et nos prochaines architectures permettront une meilleure qualité et une plus grande facilité d’intégration pour les développeurs.