Quelles forces et faiblesses pour le DLSS 3.0 ? |
————— 18 Octobre 2022 à 11h06 —— 30045 vues
Quelles forces et faiblesses pour le DLSS 3.0 ? |
————— 18 Octobre 2022 à 11h06 —— 30045 vues
Avec la RTX 4090, NVIDIA a également levé le voile sur la troisième itération majeure de sa technologie phare d’upscaling, le DLSS. Or, il ne s’agit plus seulement de mettre à l’échelle puis d’améliorer par IA une image, mais également d’en créer de toute pièce. En effet, le dernier algorithme des verts va faire usage d’informations optiques (comprendre, calculé directement sur l’image à partir d’Optical Flow Accelerator, des unités matérielles dédiées), des vecteurs de mouvement ainsi que des images brutes afin d’intercaler une frame créée de toute pièce entre deux frames rendue de manière classique par le jeu. De quoi doubler le taux d’image par seconde si la scène était limitée par le CPU : une aubaine pour les amateurs de hertz à gogo.... mais c’est aussi là que les ennuis commencent.
En effet, intercaler une image reconstituée, la technologie existe depuis une dizaine d’années minimum et a déjà été intégrée dans des lecteurs vidéo, des télévisions ou même le kit PlayStation VR afin d’en améliorer le confort visuel sans trop avoir à gonfler le matos. De quoi garantir la maturité de la technologie… en théorie du moins. Car, en pratique, un PC n’est pas une télévision : l’interactivité est au cœur du plaisir vidéoludique ; autant rajouter une image entre deux frames d’un anime sera sans autre effet sur le spectateur que l’amélioration de la fluidité, pour les joueurs, cela se traduit par une latence accrue (logique, l’image générée est affichée à la place d’une autre image déjà calculée, qui est, elle, retardée). Pour contrer cet effet, NVIDIA a intégré d’office sa solution Reflex diminuant cet input lag, mais force est de constater ce cela ne suffit pas dans toutes les situations.
Pour du blabla en vidéo et des comparatifs, c’est par ici… en anglais !
Car doubler le nombre d’image, c’est bien, mais les rendre sans artefacts, c’est encore mieux. Et, à ce petit jeu, le DLSS 3.0 n’est pas mal du tout, du moins sur les titres peu nerveux (Flight Simulator en tête de liste) et les FPS, pour lesquels les mouvements restent globalement uniformes. Pour les TPS, c’en est une autre paire de manche : entre les animations cycliques amenant des anomalies récurrentes (et ainsi bien plus visibles qu’une erreur passagère), et donc visibles, et l’interprétation des zones transparentes ou de faible surface (citons les toiles de Spider-Man, ou la végétation de A Plage Tale : Requiem), certains bugs peuvent se faire sentir.
Pour autant, le principal problème rencontré par les joueurs sous DLSS 3.0 n’est pas une nouveauté, et n’est autre que le tearing, ou déchirures en bon français. À augmenter le taux d’image envoyé, il est possible de dépasser celui de son moniteur — même en 4K 60 Hz, voire 120 Hz, avec une 4090 ! — créant ainsi un classique décalage entre le haut et le bas de l’image affichée et une déchirure caractéristique. Or, la solution est déjà connue : le V-Sync… qui n’est pas supporté officiellement par le caméléon (bien que la G-Sync le soit !). Pour autant, il est bel et bien possible de forcer l’option via le panneau de configuration NVIDIA, ce qui offrira des résultats somme toute variables. Certes, les déchirures disparaissent, mais de microarrêts d’images se produisent (stuttering), dus au fait que l’image générée n’est pas calculée pour être temporellement au milieu des deux frames la sandwichant. Le temps écoulé entre deux images n’est alors pas homogène alors que votre moniteur les espacera de la même durée, d’où une sensation de non-fluidité rugueuse fortement inconfortable. Rajoutez une latence en augmentation (le GPU calculant une image, puis son interpolation, affichant la première, attendant, puis affichant la seconde… vous voyez le souci !), et le confort de jeu se retrouve d’autant plus dégradé. Au passage, attention si vous chercher à comprendre cet effet en surfant sur le web : suivant la méthode de capture de l’écran, la vidéo de sortie pourra afficher les artefacts, ou non ; particulièrement si vous laissez le monter compteur de FPS au-delà du nécessaire... Pour la même raison, les images (fixes) sont d'un intérêt limité.
De quoi jeter à la poubelle la technologie ? Non, loin de là ! D’une part, ces soucis ne se présentent pas sur tous les titres, le niveau d’optimisation/test devant jouer. De plus, la Fast Sync permet de remédier en partie aux soucis de latence et de microfreezes du DLSS3 V-Syncé en laissant le GPU tourner à fond, mais en n’affichant que la dernière image entière. Rajoutez que le support de cette V-Sync n’est pas encore officiel, et que, tout comme les DLSS 1.0 et 2.0 à leurs débuts, le réseau sous-jacent pourra être amené à mieux apprendre, diminuant les effets visuels indésirables. Enfin, la puissance de la RTX 4090 nous fait nous poser la réelle question de l'intérêt du DLSS 3.0 avec cette belle tant même la 4K ne lui fait pas peur.
La réponse se trouve finalement dans le début de nos explications : le DLSS 3.0 se destine en fait aux joueurs sur écran à haute fréquence. Dans ce cas, les artefacts sont d’autant moins visibles, puisque la persistance rétinienne va préférer garder le gros du mouvement plutôt que les quelques imperfections çà et là, et la latence supplémentaire induite n’est pas un problème puisque moins importante (le temps de rendu d’une frame étant d’autant plus raccourci que la V-Sync/G-Sync s’applique à un écran de fréquence élevée). En clair, le DLSS 3.0 n’est à l’heure actuelle intéressant que si votre écran n'est pas utilisé à son plein potentiel (que ce soit par une bride côté CPU ou GPU), et échangera une fluidité de mouvement contre quelques artefacts et une latence accrue. Nous comprenons mieux pourquoi les verts préféraient éviter le portage sur les générations précédentes, moins puissantes… et nous avons hâte de tester la chose sur des cartes plus abordables. Bientôt le 1080p @ 120 Hz apatrocher ? (Merci à Kéta pour ses expériences et retours !)
Et encore plus d'analyses !
Un poil avant ?Zen 3 sera bien de la partie pour les Ryzen 7000 mobile | Un peu plus tard ...GIGABYTE rejoindrait le clan Intel avec ses Arc |