Test • Nvidia GeForce RTX 4090 |
————— 11 Octobre 2022
Test • Nvidia GeForce RTX 4090 |
————— 11 Octobre 2022
Lors du lancement de Navi, AMD a porté à l'attention de certains joueurs, l'importance que revêt la latence pour un usage compétitif. Rien de bien nouveau là-dedans, mais communiquer sur le sujet a probablement vexé le caméléon, qui a décidé de reprendre à son compte cet argument, en proposant une alternative dans ses pilotes, en renommant la fonctionnalité de limitation des images préparées en avance par le CPU, cause d'une partie des maux. Mais, il ne s'est pas arrêté là, et a annoncé Reflex. Mais qu'appelle-t-on exactement la latence dans un jeu vidéo ? En pratique c'est le laps de temps qui va s'écouler entre une action du joueur, (bouger, tirer, etc.) et la répercussion de cette dernière sur l'afficheur. Toutefois, derrière ce temps, se cache en réalité une somme de plusieurs raisons. Voyons cela :
La somme de toutes les latences
Comme indiqué sur le slide précédent, on peut définir 3 types de latences expliquant le phénomène :
Et puis alors, il y a de la latence, la belle affaire diront certains. Oui pour le commun des mortels, mais dans une certaine limite toutefois, car au-delà de cette dernière, l'expérience de jeu sera dégradée, avec une désagréable sensation de lourdeur. Sans aller à cet extrême, la latence peut avoir le don d'irriter certains, en particulier les amateurs de FPS compétitifs ultra rapides, puisque cette dernière pourra être responsable de l'impression d'avoir touché un adversaire à l'écran, alors que le jeu ne l'a pas pris en compte (qui n'a pas ragé contre le pauvre petit netcode du jeu à ce moment, alors que le coupable était peut-être bien un autre.)
Touchera, touchera pas ?
Ainsi, les joueurs aguerris ont depuis longtemps opté pour une réduction à minima des détails graphiques, afin d'améliorer leurs performances. Pourquoi donc ? Et bien tout simplement que ce faisant, la charge sur le GPU diminue drastiquement, alors qu'une bonne partie de la latence ressentie, provient justement du fait que le CPU est en avance de plusieurs images par rapport au GPU. L'objectif est donc de réduire à minima la file d'attente de rendu entre CPU et GPU. C'est ce qui arrive naturellement lorsque l'on se retrouve en situation de limitation CPU. Malgré tout, il est bien dommage de devoir sacrifier le visuel d'un jeu (c'est bien beau d'améliorer son ratio tués/morts, mais si c'est pour jouer avec un jeu ressemblant à ceux de 10 ans pour obtenir ce résultat, l'intérêt est limité). L'objectif des verts avec Reflex est donc de parvenir à une latence proche, sans dégrader pour autant le visuel du jeu.
La zone d'action de Reflex
Pour cela, Nvidia travaille depuis plus de 2 ans en collaboration avec les développeurs de jeux, en leur proposant des pilotes adaptés et un kit de développement (SDK), qui va permettre d'optimiser la partie rendu du jeu. Par ce biais, les développeurs peuvent réduire jusqu'à moitié la latence au sein de leurs jeux. Le principe est d'aligner les tâches CPU et GPU pour faire coïncider leurs résultats (just-in-time), élimant ainsi le recours à une file de rendu GPU et évitant les phénomènes de CPU Back Pressure dans les scénarios où la limitation provient du GPU.
Le résultat avec Reflex sans dégrader la qualité
Dans ce dernier cas, le SDK Reflex permet au CPU de commencer à soumettre le travail de rendu au GPU juste avant qu'il ne termine l'image précédente, ce qui réduit considérablement voire élimine le plus souvent la file d'attente de rendu. Reflex réduit également le CPU Back pressure, en permettant aux jeux d'échantillonner l'entrée de la souris au dernier moment possible. Bien que similaire au mode Ultra Low Latency des pilotes, l'option Reflex est intrinsèquement supérieure, puisque la requête de rendu est directement issue du moteur de jeu. Le SDK Reflex peut également augmenter les horloges GPU et permet aux images d'être soumises à l'afficheur un peu plus tôt, dans certains cas de forte limitation CPU.
Intéressons-nous à présent à une autre annonce des verts lors du lancement d'Ampere, en l'occurrence l'application Nvidia Broadcast. De quoi s'agit-il cette fois ? Dans le passé, afin d'améliorer les performances, les streamers utilisaient souvent un PC dédié différent de celui utilisé pour jouer. C'était donc un budget conséquent et avec le développement rapide des sessions de diffusions audio et surtout vidéo (Twitch, etc.), de nombreuses personnes, se voyaient limitées dans leur créativité, faute de moyens. C'est à ce public que se destine l'application Broadcast, qui permet d'accéder simplement à des fonctionnalités réservées jusqu'alors, aux plus aguerris/équipés, et ce par le biais d'une GeForce RTX.
Le principe de fonctionnement de Nvidia Broadcast
S'appuyant sur l'infrastructure logicielle (Framework) TensorRT, qui comme son nom l'indique partiellement, va solliciter les Tensor Cores des GPU RTX, le logiciel fait appel à la grande passion du caméléon, à savoir l'intelligence artificielle. Par ce biais, il est possible de traiter l'environnement sonore, afin de supprimer le bruit de fond inhérent à toute capture par des moyens limités (le micro d'une Webcam par exemple) et renforcer les sons utiles (voix du diffuseur, tir dans un jeu, etc.). La vidéo n'est pas oubliée non plus, puisqu'il est possible d'incruster très simplement un fond spécifique derrière la personne capturée, ou d'effectuer un recadrage intelligent en cas de déplacement. La mise en œuvre est on ne peut plus simple, puisque l'application Broadcast va créer des périphériques virtuels, capable de restituer le flux de vos propres équipements (micro, webcam), mais en y incorporant le traitement IA. Sollicitant les Tensor Cores peu utilisés en jeu (hormis en DLSS), il sera donc possible de maintenir un niveau de performance optimal lors d'une session de streaming d'un jeu, et ce malgré le fonctionnement de Broadcast en tâche de fond. Bien entendu, NVENC est lui aussi mis à contribution, pour encoder à la volée avec un impact mineur, le flux de sortie.
RTX Voice, inclus à Nvidia Broadcast
Ce logiciel est une des rares nouveautés de ce lancement Ada Lovelace, actuellement en version beta. Il permet de peindre des formes et des lignes simples avec une palette de modèles de matériaux réalistes, incluant l’herbe ou les nuages. Ensuite, un modèle IA va remplir l’écran en temps réel pour proposer des résultats originaux. Si ces derniers ne conviennent pas, il est alors aisé de changer de matériaux, pour transformer par exemple la neige en herbe et l’environnement passera alors d’un paysage hivernal à un paradis tropical en quelques instants. Canvas comporte neuf styles uniques qui modifient l’apparence d’une peinture et vingt matériaux différents, allant des cieux aux montagnes en passant par les rivières et les rochers. Il est possible de peindre sur différentes couches afin de préserver la séparation des éléments. Une fois le résultat atteint satisfaisant, Canvas permet d’importer la création dans Adobe Photoshop pour continuer de l’affiner ou la combiner à d’autres éléments d’infographie.
Nvidia a également annoncé avec Ampere Omniverse. Ce logiciel, est un agrégat de différents outils permettant d'enrichir les créations vidéoludiques, en tirant parti des fonctionnalités des cartes RTX. En deux ans sa définition a légèrement changé puisqu'il s'agit à présent selon le caméléon d'une plateforme ouverte pour la création et la modification d'applications métaverses. Tout un programme ! A titre d'exemple, les verts indiquent que la démo Racer RTX a été créée à l'aide d'Omniverse.
La création de l'impressionante démo RACER RTX via Omniverse
Comment tout ceci se déroule-t-il en pratique ? Le slide ci-dessous résume les différentes étapes. La séquence importée peut provenir de divers logiciels (3DS Max, Photoshop, etc.) ou même être issue d'un moteur 3D compatible, tel l'Unreal Engine 4. Les éléments à incorporer peuvent provenir de sources diverses (Webcam, Cloud, etc.) puis tout ceci est mise en forme au sein de l'éditeur principal du logiciel. Diverses simulations (utilisant les fonctionnalités des RTX) sont alors réalisables pour estimer le résultat des traitements envisagés. Il ne reste plus qu'à générer le rendu final en Ray Tracing, en utilisant le moteur de rendu interne.
Voici les séquences principales du processus de création
Pour illustrer davantage cette vue macroscopique, Nvidia propose différentes diapositives que nous avons compilées ci-dessous, afin de donner un aperçu des simulations applicables. Ainsi, il est possible par le biais de RT et Tensor Cores, de générer automatiquement une animation faciale en se basant sur l'audio (paroles du caractère), de réaliser des motions captures par le biais d'une simple webcam, afin de reproduire la gestuelle des personnages, générer une dynamique des fluides, etc. Une fois l'ensemble défini, il n'y a plus qu'à lancer le rendu.
Omniverse en quelques images
Le caméléon s'appuie pour cela sur son accélération matérielle du Ray Tracing, par le biais des RT Cores, pour obtenir une visualisation en temps réel de ce dernier. Le DLSS 3 est également applicable ce qui induit un processus de création simplifié/accéléré, puisqu'il n'est plus nécessaire d'attendre de longues périodes d'exécution par le CPU, avant de pouvoir visualiser le résultat.
Le module de rendu d'Omniverse
Autres nouveautés de ce lancement, RTX Remix est un outil mis à disposition des moddeurs, pour les aiders à réaliser plus aisément cette passion. Il s'agit d'une plate-forme de modding gratuite basée sur Omniverse, qui permet aux moddeurs de créer facilement des remasters RTX de jeux classiques DirectX 8 et DirectX 9, avec des pipelines graphiques à fonction fixe. Nvidia indique que RTX Remix a été utilisé pour mettre à jour Portal et Morrowind, afin de démontrer à quel point cette solution peut être un outil puissant pour la communauté modding. RTX Remix se compose de trois composants clés : un extracteur USD (Universal Scene Description) qui va convertir les Assets du jeu dans un Framework ouvert, et enfin l'application RTX Remix qui permet la modification et amélioration des assets par le biais d'une assistance AI. Il est également possible d'activer rapidement du Ray Tracing et du DLSS pour ces jeux.
Malgré la destination principalement ludique des GeForce, les verts insistent pour ne pas les cantonner à ce seul registre. A cet effet, la plateforme Studio est destinée aux infographistes ou autres activités créatrices semi-pro, pouvant tirer parti d'une accélération par le biais du GPU. Les dernières générations RTX sont bien entendu à l'honneur, mais la démarche comprend également des pilotes spécifiques, kit de développement et prise en charge native de l'accélération GPU au sein de certaines applications.
L'écosystème Studio du caméléon
Concernant ce dernier point, Nvidia s'enorgueillit d'association avec une grande partie des logiciels phares des domaines du rendu et l'animation 3D. A titre d'exemple, Adobe Dimension, Blender, Autodesk Arnold, Octane Render, Chaos VRay, RedShift, D5 Render pour ne citer qu'elles, prennent en charge les capacités des GPU RTX, pour réduire le temps de rendu ou profiter d'une prévisualisation accélérée matériellement. Certaines sont d'ailleurs déjà prévues pour tirer parti des spécificités d'Ada. D'autres domaines entrent également dans le champ d'action de Studio, à l'instar de la conception graphique (Adobe Photoshop, Illustrator, etc.), le traitement vidéo (Adobe Premiere Pro, DaVinci Resolve, etc.) ou photo (Photoshop, Lightroom). Enfin, l'encodeur vidéo de 8ème génération, permet également des accélérations dédiées pour le streaming (OBS Studio, Twitch, etc.). La démarche Studio de Nvidia est donc protéiforme, le caméléon est conscient de son avance sur la concurrence dans ces domaines, et entend bien la conserver.
L'écosystème Studio du caméléon se développe encore
C'est tout pour l'environnement logiciel des verts, il est temps de passer à la description de la carte de test page suivante.
|
Un poil avant ?La relève NUC Extreme chez Intel sera encore moins mini-PC-esque qu'avant | Un peu plus tard ...L'Unreal Engine 5.1 plus très loin de débarquer |