Test • NVIDIA GeFORCE RTX 3080 |
————— 16 Septembre 2020
Test • NVIDIA GeFORCE RTX 3080 |
————— 16 Septembre 2020
Lors du lancement de Navi, AMD a porté à l'attention de certains joueurs, l'importance que revêt la latence pour un usage compétitif. Rien de bien nouveau là-dedans, mais communiquer sur le sujet a probablement vexé le caméléon, qui a décidé de reprendre à son compte cet argument, en proposant une alternative dans ses pilotes, en renommant la fonctionnalité de limitation des images préparées en avance par le CPU, cause d'une partie des maux. Mais, il ne s'est pas arrêté là, et annonce à présent Reflex. Qu'est-ce donc ? Avant d'y répondre dans quelques lignes, qu'appelle-t-on exactement la latence dans un jeu vidéo ? En pratique c'est le laps de temps qui va s'écouler entre une action du joueur, (bouger, tirer, etc.) et la répercussion de cette dernière sur l'afficheur. Toutefois, derrière ce temps, se cache en réalité une somme de plusieurs raisons. Voyons cela :
La somme de toutes les latences
Comme indiqué sur le slide précédent, on peut définir 3 types de latences expliquant le phénomène :
Et puis alors, il y a de la latence, la belle affaire diront certains. Oui pour le commun des mortels, mais dans une certaine limite toutefois, car au-delà de cette dernière, l'expérience de jeu sera dégradée, avec une désagréable sensation de lourdeur. Sans aller à cet extrême, la latence peut avoir le don d'irriter certains, en particulier les amateurs de FPS compétitifs ultra rapides, puisque cette dernière pourra être responsable de l'impression d'avoir touché à l'écran un adversaire, alors que le jeu ne l'a pas pris en compte (qui n'a pas ragé contre le pauvre petit netcode du jeu à ce moment, alors que le coupable était peut-être bien un autre.)
Touchera, touchera pas ?
Ainsi, les joueurs aguerris ont depuis longtemps opté pour une réduction à minima des détails graphiques, afin d'améliorer leurs performances. Pourquoi donc ? Et bien tout simplement que ce faisant, la charge sur le GPU diminue drastiquement, alors qu'une bonne partie de la latence ressentie, provient justement du fait que le CPU est en avance de plusieurs images par rapport au GPU. L'objectif est donc de réduire à minima la file d'attente de rendu entre CPU et GPU. C'est ce qui arrive naturellement lorsque l'on se retrouve en situation de limitation CPU. Malgré tout, il est bien dommage de devoir sacrifier le visuel d'un jeu (c'est bien beau d'améliorer son ratio tués/morts, mais si c'est pour jouer avec un jeu ressemblant à ceux de 10 ans), pour obtenir ce résultat. L'objectif des verts avec Reflex est donc de parvenir à une latence proche, sans dégrader pour autant le visuel du jeu.
La zone d'action de Reflex
Pour cela, Nvidia annonce travailler en collaboration avec les développeurs de jeux, en leur proposant des pilotes adaptés et un kit de développement (SDK), qui va permettre d'optimiser la partie rendu du jeu. Par ce biais, les CPU et GPU vont davantage travailler "main dans la main", évitant les phénomènes de Back Pressure et file de rendus, générant la latence qu'il s'agit justement d'éviter. Puisque tout cela est pris en compte directement au niveau du jeu, les développeurs peuvent s'assurer un contrôle très fin du sujet, évitant ainsi de recourir à des moyens externes, qui ont des contreparties. De quoi normalement assurer peu ou prou la même latence avec des réglages élevés, si tant est que la puissance du GPU soit suffisante tout de même.
Le résultat avec Reflex sans dégrader la qualité
Mais comme nous l'avons vu en débutant cette section, la latence n'est pas uniquement le fait du CPU ou GPU, elle est aussi intimement liée à l'afficheur et au périphérique d'entrée, ainsi qu'au système d'exploitation. Concernant les écrans, Nvidia annonce la disponibilité prochaine de nouveaux moniteurs G-Sync, incluant un module d'analyse de la latence, et des dalles très rapides. En effet, le temps de réponse des cristaux liquides est un élément générant de la latence, tout comme la fréquence de rafraichissement de ce dernier. Ainsi, les référence 360 Hz vont se multiplier sous peu.
De nouveaux écrans gaming
Comment fonctionne l'outil de mesure de la latence ? Et bien en branchant le périphérique d'entrée à un port USB du moniteur, le module G-Sync intégré sera en mesure d'indiquer la latence liée à un changement d'état d'une zone de l'écran, que l'on aura préalablement déterminée à l'aide du menu du moniteur (voir ci-dessous). C'est un peu le principe de fonctionnement de LDAT, mais appliqué à un moniteur. On notera pour finir sur le sujet, que les verts préconisent également certains produit des créateurs de claviers/souris, du fait de leur propension à réduire au maximum leur latence intrinsèque.
Une nouvelle fonctionnalité ajoutée au module G-Sync
Intéressons-nous à présent à une autre annonce des verts lors de ce lancement, en l'occurrence l'application Nvidia Broadcast. De quoi s'agit-il cette fois ? Avec le développement rapide des sessions de diffusions audio et surtout vidéo (Twitch, etc.), de nombreuses personnes n'ayant pas accès à un onéreux matériel, se voient limitées dans leur créativité, faute de moyens. C'est à ce public que ce destine l'application Broadcast, qui va leur permettre d'accéder simplement à des fonctionnalités réservées jusqu'alors, aux plus aguerris/équipés, et ce par le biais d'une GeForce RTX.
Le principe de fonctionnement de Nvidia Broadcast
S'appuyant sur l'infrastructure logicielle (Framework) TensorRT, qui comme son nom l'indique partiellement, va solliciter les Tensor Cores des GPU RTX, le logiciel fait appel à la grande passion du caméléon, à savoir l'intelligence artificielle. Par ce biais, il va être possible de traiter l'environnement sonore, afin de supprimer le bruit de fond inhérent à toute capture par des moyens limités (le micro d'une Webcam par exemple) et renforcer les sons utiles (voix du diffuseur, tir dans un jeu, etc.). La vidéo n'est pas oubliée non plus, puisqu'il est possible d'incruster très simplement un fond spécifique derrière la personne capturée, ou d'effectuer un recadrage intelligent en cas de déplacement. La mise en œuvre est on ne peut plus simple, puisque l'application Broadcast va créer des périphériques virtuels, capable de restituer le flux de vos propres équipements (micro, webcam), mais en y incorporant le traitement IA. Sollicitant les Tensor Cores peu utilisés en jeu (hormis en DLSS), il sera donc possible de maintenir un niveau de performance optimal lors d'une session de streaming d'un jeu, et ce malgré le fonctionnement de Broadcast en tâche de fond. Bien entendu, NVEnc sera lui aussi mis à contribution, pour encoder à la volée avec un impact mineur, le flux de sortie.
RTX Voice, inclus à Nvidia Broadcast
Décidément pas avare en nouveautés, Nvidia a également annoncé Omniverse Machinima. Ce logiciel qui sera prochainement accessible en version beta, est un agrégat de différents outils permettant d'enrichir les créations vidéoludiques, en tirant parti des fonctionnalités des cartes RTX. Après un processus d'import d'une séquence visuelle, il sera possible de la compléter par des éléments provenant d'autres sources, mais également de l'enrichir par le biais de traitements spécifiques, afin d'y apporter son propre cachet.
Le principe de base d'Omniverse Machinima de Nvidia
Comment tout ceci se déroule-t-il en pratique ? Le slide ci-dessous résume les différentes étapes. La séquence importée peut provenir de divers logiciels (3DS Max, Photoshop, etc.) ou même être issue d'un moteur 3D compatible, tel l'Unreal Engine 4. Les éléments à incorporer peuvent provenir de sources diverses (Webcam, Cloud, etc.) puis tout ceci est mise en forme au sein de l'éditeur principal du logiciel. Diverses simulations (utilisant les fonctionnalités des RTX) sont alors réalisables pour estimer le résultat des traitements envisagés. Il ne reste plus qu'à générer le rendu final en Ray Tracing, en utilisant le moteur de rendu interne.
Voici les séquences principales du processus de création
Pour illustrer davantage cette vue macroscopique, Nvidia propose différentes diapositives que nous avons compilées ci-dessous, afin de donner un aperçu des simulations applicables. Ainsi, il est possible par le biais de RT et Tensor Cores, de générer automatiquement une animation faciale en se basant sur l'audio (paroles du caractère), de réaliser des motions captures par le biais d'une simple webcam, afin de reproduire la gestuelle des personnages, générer une dynamique des fluides, etc. Une fois l'ensemble défini, il n'y a plus qu'à lancer le rendu.
Omniverse en quelques images
Le caméléon s'appuie pour cela sur son accélération matérielle du Ray Tracing, par le biais des RT Cores, pour obtenir une visualisation en temps réel de ce dernier. Le processus de création est donc là-aussi simplifié/accéléré, puisqu'il n'est plus nécessaire d'attendre de longues périodes d'exécution par le CPU, avant de pouvoir visualiser le résultat.
Le module de rendu d'Omniverse
Malgré la destination principalement ludique des GeForce, les verts insistent pour ne pas les cantonner à ce seul registre. A cet effet, la plateforme Studio est destinée aux infographistes ou autres activités créatrices semi-pro, pouvant tirer parti d'une accélération par le biais du GPU. Les dernières générations RTX sont bien entendu à l'honneur, mais la démarche comprend également des pilotes spécifiques, kit de développement et prise en charge native de l'accélération GPU au sein de certaines applications.
L'écosystème Studio du caméléon
Concernant ce dernier point, Nvidia s'enorgueillit d'association avec une grande partie des logiciels phares des domaines du rendu et l'animation 3D. A titre d'exemple, Adobe Dimension, Blender, Autodesk Arnold, Octane Render, Chaos VRay, RedShift, D5 Render pour ne citer qu'elles, prennent en charge les capacités des GPU RTX, pour réduire le temps de rendu ou profiter d'une prévisualisation accélérée matériellement. Certaines sont d'ailleurs déjà prévues pour tirer parti des spécificités d'Ampere. D'autres domaines entrent également dans le champ d'action de Studio, à l'instar de la conception graphique (Adobe Photoshop, Illustrator, etc.), le traitement vidéo (Adobe Premiere Pro, DaVinci Resolve, etc.) ou photo (Photoshop, Lightroom). Enfin, l'encodeur vidéo de 7ème génération, permet également des accélérations dédiées pour le streaming (OBS Studio, Twitch, etc.). La démarche Studio de Nvidia est donc protéiforme, le caméléon est conscient de son avance sur la concurrence dans ces domaines, et entend bien la conserver.
L'écosystème Studio du caméléon
C'est tout pour les nouvelles fonctionnalités, il est temps de passer à la description de la carte de test page suivante.
|