COMPTOIR
  
register

×

La latence en jeu

Test • NVIDIA GeFORCE RTX 3080
La latence en jeu
Plage de tir selon latence
Reflex Low Latency
Résultat Reflex
Ecran Gaming G-Sync
Ecran Gaming Reflex
nvidia broadcast t
RTX Voice
Omniverse Machinima
Modules Omniverse
Omniverse Machinima
Omniverse RTX render
Nvidia Studio
Applications tirant parti de Studio

• Reflex

Lors du lancement de Navi, AMD a porté à l'attention de certains joueurs, l'importance que revêt la latence pour un usage compétitif. Rien de bien nouveau là-dedans, mais communiquer sur le sujet a probablement vexé le caméléon, qui a décidé de reprendre à son compte cet argument, en proposant une alternative dans ses pilotes, en renommant la fonctionnalité de limitation des images préparées en avance par le CPU, cause d'une partie des maux. Mais, il ne s'est pas arrêté là, et annonce à présent Reflex. Qu'est-ce donc ? Avant d'y répondre dans quelques lignes, qu'appelle-t-on exactement la latence dans un jeu vidéo ? En pratique c'est le laps de temps qui va s'écouler entre une action du joueur, (bouger, tirer, etc.) et la répercussion de cette dernière sur l'afficheur. Toutefois, derrière ce temps, se cache en réalité une somme de plusieurs raisons. Voyons cela :

 

La latence en jeu [cliquer pour agrandir]

La somme de toutes les latences

 

Comme indiqué sur le slide précédent, on peut définir 3 types de latences expliquant le phénomène :

  • celles liées au périphérique d'entrée (temps d'activation mécanique/électrique puis du protocole de transmission USB)
  • celles liés au système qui vont inclure le système d'exploitation, le jeu, les pilotes et enfin le rendu et la transmission de l'image
  • celles liés à l'afficheur et constitués de la transmission de l'image ligne à ligne, la génération de l'image et le temps de réponse des pixels / fréquence de rafraichissement de l'écran

 

Et puis alors, il y a de la latence, la belle affaire diront certains. Oui pour le commun des mortels, mais dans une certaine limite toutefois, car au-delà de cette dernière, l'expérience de jeu sera dégradée, avec une désagréable sensation de lourdeur. Sans aller à cet extrême, la latence peut avoir le don d'irriter certains, en particulier les amateurs de FPS compétitifs ultra rapides, puisque cette dernière pourra être responsable de l'impression d'avoir touché à l'écran un adversaire, alors que le jeu ne l'a pas pris en compte (qui n'a pas ragé contre le pauvre petit netcode du jeu à ce moment, alors que le coupable était peut-être bien un autre.)

 

Plage de tir selon latence [cliquer pour agrandir]

Touchera, touchera pas ?

 

Ainsi, les joueurs aguerris ont depuis longtemps opté pour une réduction à minima des détails graphiques, afin d'améliorer leurs performances. Pourquoi donc ? Et bien tout simplement que ce faisant, la charge sur le GPU diminue drastiquement, alors qu'une bonne partie de la latence ressentie, provient justement du fait que le CPU est en avance de plusieurs images par rapport au GPU. L'objectif est donc de réduire à minima la file d'attente de rendu entre CPU et GPU. C'est ce qui arrive naturellement lorsque l'on se retrouve en situation de limitation CPU. Malgré tout, il est bien dommage de devoir sacrifier le visuel d'un jeu (c'est bien beau d'améliorer son ratio tués/morts, mais si c'est pour jouer avec un jeu ressemblant à ceux de 10 ans), pour obtenir ce résultat. L'objectif des verts avec Reflex est donc de parvenir à une latence proche, sans dégrader pour autant le visuel du jeu.

 

Reflex Low Latency [cliquer pour agrandir]

La zone d'action de Reflex 

 

Pour cela, Nvidia annonce travailler en collaboration avec les développeurs de jeux, en leur proposant des pilotes adaptés et un kit de développement (SDK), qui va permettre d'optimiser la partie rendu du jeu. Par ce biais, les CPU et GPU vont davantage travailler "main dans la main", évitant les phénomènes de Back Pressure et file de rendus, générant la latence qu'il s'agit justement d'éviter. Puisque tout cela est pris en compte directement au niveau du jeu, les développeurs peuvent s'assurer un contrôle très fin du sujet, évitant ainsi de recourir à des moyens externes, qui ont des contreparties. De quoi normalement assurer peu ou prou la même latence avec des réglages élevés, si tant est que la puissance du GPU soit suffisante tout de même.   

 

Résultat Reflex [cliquer pour agrandir]

Le résultat avec Reflex sans dégrader la qualité 

 

Mais comme nous l'avons vu en débutant cette section, la latence n'est pas uniquement le fait du CPU ou GPU, elle est aussi intimement liée à l'afficheur et au périphérique d'entrée, ainsi qu'au système d'exploitation. Concernant les écrans, Nvidia annonce la disponibilité prochaine de nouveaux moniteurs G-Sync, incluant un module d'analyse de la latence, et des dalles très rapides. En effet, le temps de réponse des cristaux liquides est un élément générant de la latence, tout comme la fréquence de rafraichissement de ce dernier. Ainsi, les référence 360 Hz vont se multiplier sous peu.   

 

Ecran Gaming G-Sync [cliquer pour agrandir]De nouveaux écrans gaming

  

Comment fonctionne l'outil de mesure de la latence ? Et bien en branchant le périphérique d'entrée à un port USB du moniteur, le module G-Sync intégré sera en mesure d'indiquer la latence liée à un changement d'état d'une zone de l'écran, que l'on aura préalablement déterminée à l'aide du menu du moniteur (voir ci-dessous). C'est un peu le principe de fonctionnement de LDAT, mais appliqué à un moniteur. On notera pour finir sur le sujet, que les verts préconisent également certains produit des créateurs de claviers/souris, du fait de leur propension à réduire au maximum leur latence intrinsèque. 

 

Ecran Gaming Reflex [cliquer pour agrandir]

 Une nouvelle fonctionnalité ajoutée au module G-Sync

 

• Nvidia Broadcast

Intéressons-nous à présent à une autre annonce des verts lors de ce lancement, en l'occurrence l'application Nvidia Broadcast. De quoi s'agit-il cette fois ? Avec le développement rapide des sessions de diffusions audio et surtout vidéo (Twitch, etc.), de nombreuses personnes n'ayant pas accès à un onéreux matériel, se voient limitées dans leur créativité, faute de moyens. C'est à ce public que ce destine l'application Broadcast, qui va leur permettre d'accéder simplement à des fonctionnalités réservées jusqu'alors, aux plus aguerris/équipés, et ce par le biais d'une GeForce RTX. 

 

nvidia broadcast t [cliquer pour agrandir]

Le principe de fonctionnement de Nvidia Broadcast

 

S'appuyant sur l'infrastructure logicielle (Framework) TensorRT, qui comme son nom l'indique partiellement, va solliciter les Tensor Cores des GPU RTX, le logiciel fait appel à la grande passion du caméléon, à savoir l'intelligence artificielle. Par ce biais, il va être possible de traiter l'environnement sonore, afin de supprimer le bruit de fond inhérent à toute capture par des moyens limités (le micro d'une Webcam par exemple) et renforcer les sons utiles (voix du diffuseur, tir dans un jeu, etc.). La vidéo n'est pas oubliée non plus, puisqu'il est possible d'incruster très simplement un fond spécifique derrière la personne capturée, ou d'effectuer un recadrage intelligent en cas de déplacement. La mise en œuvre est on ne peut plus simple, puisque l'application Broadcast va créer des périphériques virtuels, capable de restituer le flux de vos propres équipements (micro, webcam), mais en y incorporant le traitement IA. Sollicitant les Tensor Cores peu utilisés en jeu (hormis en DLSS), il sera donc possible de maintenir un niveau de performance optimal lors d'une session de streaming d'un jeu, et ce malgré le fonctionnement de Broadcast en tâche de fond. Bien entendu, NVEnc sera lui aussi mis à contribution, pour encoder à la volée avec un impact mineur, le flux de sortie.  

 

RTX Voice [cliquer pour agrandir]

RTX Voice, inclus à Nvidia Broadcast

 

 

• Omniverse Machinima

Décidément pas avare en nouveautés, Nvidia a également annoncé Omniverse Machinima. Ce logiciel qui sera prochainement accessible en version beta, est un agrégat de différents outils permettant d'enrichir les créations vidéoludiques, en tirant parti des fonctionnalités des cartes RTX. Après un processus d'import d'une séquence visuelle, il sera possible de la compléter par des éléments provenant d'autres sources, mais également de l'enrichir par le biais de traitements spécifiques, afin d'y apporter son propre cachet.  

 

Omniverse Machinima [cliquer pour agrandir]

Le principe de base d'Omniverse Machinima de Nvidia

 

Comment tout ceci se déroule-t-il en pratique ? Le slide ci-dessous résume les différentes étapes. La séquence importée peut provenir de divers logiciels (3DS Max, Photoshop, etc.) ou même être issue d'un moteur 3D compatible, tel l'Unreal Engine 4. Les éléments à incorporer peuvent provenir de sources diverses (Webcam, Cloud, etc.) puis tout ceci est mise en forme au sein de l'éditeur principal du logiciel. Diverses simulations (utilisant les fonctionnalités des RTX) sont alors réalisables pour estimer le résultat des traitements envisagés. Il ne reste plus qu'à générer le rendu final en Ray Tracing, en utilisant le moteur de rendu interne.

 

Modules Omniverse [cliquer pour agrandir]

Voici les séquences principales du processus de création

 

Pour illustrer davantage cette vue macroscopique, Nvidia propose différentes diapositives que nous avons compilées ci-dessous, afin de donner un aperçu des simulations applicables. Ainsi, il est possible par le biais de RT et Tensor Cores, de générer automatiquement une animation faciale en se basant sur l'audio (paroles du caractère), de réaliser des motions captures par le biais d'une simple webcam, afin de reproduire la gestuelle des personnages, générer une dynamique des fluides, etc. Une fois l'ensemble défini, il n'y a plus qu'à lancer le rendu.

 

Omniverse Machinima [cliquer pour agrandir]

Omniverse en quelques images

  

Le caméléon s'appuie pour cela sur son accélération matérielle du Ray Tracing, par le biais des RT Cores,  pour obtenir une visualisation en temps réel de ce dernier. Le processus de création est donc là-aussi simplifié/accéléré, puisqu'il n'est plus nécessaire d'attendre de longues périodes d'exécution par le CPU, avant de pouvoir visualiser le résultat.

 

Omniverse RTX render [cliquer pour agrandir]

Le module de rendu d'Omniverse

 

 

• Nvidia Studio

Malgré la destination principalement ludique des GeForce, les verts insistent pour ne pas les cantonner à ce seul registre. A cet effet, la plateforme Studio est destinée aux infographistes ou autres activités créatrices semi-pro, pouvant tirer parti d'une accélération par le biais du GPU. Les dernières générations RTX sont bien entendu à l'honneur, mais la démarche comprend également des pilotes spécifiques, kit de développement et prise en charge native de l'accélération GPU au sein de certaines applications.

 

Nvidia Studio [cliquer pour agrandir]

L'écosystème Studio du caméléon

 

Concernant ce dernier point, Nvidia s'enorgueillit d'association avec une grande partie des logiciels phares des domaines du rendu et l'animation 3D. A titre d'exemple, Adobe Dimension, Blender, Autodesk Arnold, Octane Render, Chaos VRay, RedShift, D5 Render pour ne citer qu'elles, prennent en charge les capacités des GPU RTX, pour réduire le temps de rendu ou profiter d'une prévisualisation accélérée matériellement. Certaines sont d'ailleurs déjà prévues pour tirer parti des spécificités d'Ampere. D'autres domaines entrent également dans le champ d'action de Studio, à l'instar de la conception graphique (Adobe Photoshop, Illustrator, etc.), le traitement vidéo (Adobe Premiere Pro, DaVinci Resolve, etc.) ou photo (Photoshop, Lightroom). Enfin, l'encodeur vidéo de 7ème génération, permet également des accélérations dédiées pour le streaming (OBS Studio, Twitch, etc.). La démarche Studio de Nvidia est donc protéiforme, le caméléon est conscient de son avance sur la concurrence dans ces domaines, et entend bien la conserver. 

 

Applications tirant parti de Studio [cliquer pour agrandir]

L'écosystème Studio du caméléon

 

C'est tout pour les nouvelles fonctionnalités, il est temps de passer à la description de la carte de test page suivante.



Un poil avant ?

Live Twitch • Tell Me Why, du narratif posé

Un peu plus tard ...

NVIDIA donne ses ambitions pour ARM et son architecture


Sur le comptoir, au ~même sujet

 
 
 
 
 
 
 
 
 
 
 
 

Les 354 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Sosombre en Provence-Alpes-Côte d'Azur, le Mercredi 16 Août 2023 à 09h59  
@Scrabble C'est quel jeux qui te demande + de 10 go de Vram ? (tu joue dans quel résolution et espère combien d'image par seconde ? )
par Scrabble, le Mardi 15 Août 2023 à 22h03  
Honneur à vous d'avoir parlé de la limitation à 10Go de VRAM, et oui, trois ans après, c'est devenu un problème
par RagoteuseTX ON en Nouvelle-Aquitaine, le Jeudi 17 Février 2022 à 16h49  
Les modèles des partenaires disponibles en France seront probablement un peu plus chers, au moins au début, le temps que l'effet nouveauté s'estompe, la disponibilité croisse et la concurrence entre modèles agisse

Bilan après aujourd'hui, malheureusement non

Sinon retour d'expérience de mon coté après 1 an, elle marche toujours aussi bien et je ne me suis jamais sentie limitée par les jeux en TAF (je fais aussi de la VR et jamais eu de soucis)

Pour ceux qui seraient tentés d'en prendre une (si vous avez du bol pendant les drops, apparemment c'est toujours autant la merde ) allez y vous serez pas déçus et bon courage pour le drop
par Eric B., le Samedi 10 Octobre 2020 à 15h29  
Il n'y a pas de graph DX11 vs DX12, donc je vois pas bien duquel tu parles. Si tu as des problèmes de graph, la première chose à faire c'est de rafraichir le cache de ton navigateur. Si ça ne règle pas tes soucis, utilises le bouton "signaler un truc" en précisant la plateforme utilisée pour consulter et le navigateur.
par Un adepte de Godwin du Grand Est, le Samedi 10 Octobre 2020 à 09h55  
euh il est complètement buggé l article, impossible de voir les graph dx11 vs dx12, ça affiche à chaque fois le premier graphique
par predator06, le Mercredi 30 Septembre 2020 à 14h37  
par Eric B., le Mercredi 30 Septembre 2020 à 13h26
D'accord merci pour les explications.
par Eric B., le Mercredi 30 Septembre 2020 à 13h26  
Je dirais que l'instabilité est surtout très variable selon les jeux. Les causes de cette dernière ne sont pas toujours évidentes à déterminer, elle peut venir de pilotes encore jeunes, ne permettant pas d'exploiter au mieux le nouveau matériel. Elle peut aussi venir d'une limitation CPU (Project CARS 3 par exemple où c'est flagrant), conduisant à un comportement erratique durant l'épisode de limitation. Tu as également les cas sporadiques sans raison apparente, qui sont souvent dus à une brève et intense sollicitation du système en tâche de fond par un autre processus que le jeu. C'est pourquoi je répète régulièrement à ceux qui me réclament les i/s mini que ça n'a pas de sens de les afficher isolément, puisqu'ils peuvent être tout à fait exceptionnels et avoir pour cause une toute autre raison que les CPU ou GPU testés.
par predator06, le Mardi 29 Septembre 2020 à 18h05  
merci pour le dossier. Concernant l'évolution des i/s, après lecture des résultats, je m'attendais à un petit paragraphe pour conclure sur le sujet. On note parfois une augmentation de l'instabilité des i/s par rapport aux 2080ti & radeon 7
par Un champion du monde embusqué, le Mardi 29 Septembre 2020 à 12h18  
Y'a pas à chier, la conso est dégueulasse...

Dommage, car avec Pascal nvidia avait fait un beau résultat et au final on se retrouve avec une nouvelle génération ressemblant au R600, comme on pouvait s'y attendre au vu des fuites avant le lancement.

Bon, on peut relativiser en prenant en compte le fait que le flagship n'est tout simplement pas utile, mais vient alors le spectre du consumérisme forcené.

Plus qu'à voir ce que pourra proposer AMD, mais ça devrait être passable également.
par Eric B., le Mardi 29 Septembre 2020 à 06h58  
par Une ragoteuse à forte poitrine en Auvergne-Rhône-Alpes, le Lundi 28 Septembre 2020 à 18h37
Donc pour CDH tout va bien dans le meilleur des monde pour Ampère.
Tu es content et te sens mieux Anteraks69 ? La prochaine fois que tu veux poster en anonyme, prends au moins le temps de changer d'IP... Ideal t'a répondu sur la plupart des sujets, je ne vais donc pas en remettre une couche, je me permets juste d'ajouter un point qui t'a semble-t-il échappé : les problèmes de choix des condensateurs de découplage semblent survenir aux environs des 2 GHz, or, nous avons testé une 3080 FE qui ne fonctionne pas à cette fréquence, même sous charge légère. Je rappelle aussi à toute fin utile, que la carte est spécifiée pour un boost de 1,71 GHz, la fréquence en charge 3D variant entre 1920 MHz et 1770 MHz (moyenne à 1775 MHz sous charge lourde). Du coup pour obtenir 2 GHz il faut absolument overclocker (et là nous sommes effectivement vite limité mais c'est bel et bien écrit !), et cette opération n'est jamais garantie... Sur les customs vendues pour des fréquences plus élevées par défaut, c'est une autre histoire, mais cela n'entre pas en compte dans le cadre de cette publication, nous dédions des dossiers spécifiques à ces modèles, Guillaume qui les réalise t'as d'ailleurs répondu à plusieurs reprises sur la news traitant du sujet, n'est-ce pas ? Quant à la consommation, chauffe, verdict, tout est parfaitement décrit dans les pages dédiées, rien n'est éludé, faut-il encore prendre le temps de les lire. Mais vu la tonalité de ton msg, tu n'as pas l'air de t'embarrasser de choses factuelles, c'est bien dommage et décevant.
par Eric B., le Mardi 29 Septembre 2020 à 06h53  
par Excelisator, le Mardi 29 Septembre 2020 à 00h05
...et L'antialiasing en 4K, c'est comme la différence entre 96 et 192Khz en audio.
Tu n'as pas l'impression de confondre définition et résolution des fois ? Parce que ne pas avoir besoin d'AA en UHD sur un 27" ok, sur un 32" c'est bien moins vrai et au-delà je ne t'en parle pas.
par Excelisator, le Mardi 29 Septembre 2020 à 00h05  
Conclusion : Tri-SLI de 1080.
ah non, on peut pas.
et L'antialiasing en 4K, c'est comme la différence entre 96 et 192Khz en audio.