COMPTOIR
register

×

DLSS vs TAA

Test • NVIDIA GeFORCE RTX 2080 / 2080 Ti
DLSS vs TAA
Reflexions QHD
Reflexions UHD
Reflexions QHD
Reflexions UHD
Reflexions QHD
Reflexions UHD

• HDR

Parmi les nombreuses nouveautés apportées par Turing, figure un moteur vidéo nativement HDR. Ce dernier intègre également Tone Mapping, pour l'extrapolation des couleurs dans un environnement SDR. NVIDIA a également publié juste avant l'été, une mise à jour du firmware pour ses cartes existantes (puisque lancées avant la finalisation des dernières normes par VESA), afin de les rendre totalement compatibles avec les DisplayPort 1.3 / 1.4, la dernière citée étant dédiée au HDR. De quoi nous permettre de vérifier l'impact de l'utilisation de ce dernier suivant la génération, mais aussi face à la concurrence lancée entre-temps.

 

Pour cela, il est nécessaire de disposer d'un afficheur compatible, nous nous sommes donc tournés vers un des moniteurs les plus impressionnants actuellement du côté vert, à savoir l'Acer Predator X27. Ce dernier utilise une dalle IPS UHD se conformant à la norme HDR10 et un rétroéclairage Full LED local dimming composé de 384 zones indépendantes, avec une valeur typique de 600 candelas par m², pouvant atteindre 1000 cd/m² en pic, lui permettant de décrocher la certification DiplayHDR 1000. Egalement de la partie, G-Sync HDR et une fréquence de rafraîchissement jusqu'à 144 Hz en overclockant. Toutefois, la bande passante du DP 1.4 impose un maximum 98 Hz en 10-bit YUV 4:4:4, il faudra donc pour conserver une fréquence élevée, opter pour le 10-bit YUV 4:2:2 ou 8-bit.  

 

acer predator x27 hdr

Le moniteur G-Sync HDR UHD d'Acer

 

Nous avions eu l'occasion d'approcher un moniteur HDR début 2017, et cela avait été une véritable claque visuelle. Cette nouvelle expérience, plus poussée cette fois, ne nous a pas fait changer d'avis, avec là-aussi une fracture de la rétine. Il est malheureusement vain de vous partager une comparaison d'images entre HDR et SDR, puisqu'en l'absence d'afficheur adapté, la différence visuelle sera imperceptible. Il faudra nous faire confiance, ou mieux, aller voir dans un showroom pour vous faire votre propre idée.

 

Reste maintenant à espérer une baisse de prix pour que la technologie se démocratise, puisque le présent moniteur est facturé 2500 €, même si les caractéristiques intrinsèques de la dalle et G-Sync alourdissent nettement la facture. Ajoutons que le ventilateur est audible et le rétroéclairage Full LED à local dimming souffre du mal classique de ce dernier, à savoir le blooming (halo lumineux dans les zones sombres lorsqu'un élément éclairé est présent), en contrepartie pas de clouding du tout.

 

Voilà pour cet aparté concernant le moniteur, parlons à présent des performances de Turing dans ce mode, en comparaison de Pascal et Vega 10. Nous avons utilisé pour cela 7 jeux compatibles HDR et testé les performances des GTX 1080, RTX 2080 et Vega64 avec et sans. Notez que certains jeux détectent nativement un moniteur compatible et proposent la prise en charge au sein des réglages. D'autres se calquent sur Windows et nécessitent l'activation de l'option Ad Hoc de ce dernier pour l’affichage dans ce mode.    

 

activation hdr windows10 L'activation du HDR sous Windows 10

 

Côté performances, nous affichons dans le graphique ci-dessous, le pourcentage d'images par seconde (moyen) obtenu en HDR par rapport à celui mesuré en SDR. Précisons que G-Sync est désactivé pour les 2 GeForce, les pilotes 411.70 et 18.9.3 sont utilisés. L'impact est variable selon les cartes et les jeux, mais il est la plupart du temps négligeable pour la RTX 2080 FE (1%), mais aussi la RX Vega64 (2%). A contrario, la GTX 1080 FE peut souffrir notablement (Forza 7), même si l'inverse est également vrai (Far Cry 5 et Shadow of the Tomb Raider). Au final, la perte moyenne est d'une dizaine de pourcents, pour la génération Pascal. 

 

 

 

• DLSS

Pour rappel, nous avons décrit le mode de fonctionnement de ce dernier au sein du dossier architecture Turing. Après la théorie, un peu de pratique : en l'absence de jeux disponibles avec DLSS, nous nous sommes tournés vers une version spécifique du benchmark de Final Fantasy XV, qui intègre ce dernier et permet de choisir également le TAA. Côté visuel, nous restons sur nos premières impressions, à savoir un rendu qui nous parait moins flou avec DLSS, ce qui peut conduire à un aliasing légèrement plus marqué sur les images fixes, mais difficile à percevoir en animation. Avec les limites indiquées précédemment, nous avons réalisé une superposition de 2 copies d'écrans ci-dessous, permettant de se forger une petite idée.

 

DLSS vs TAA [cliquer pour agrandir]

 DLSS au-dessus, TAA en-dessous

 

Et les performances dans tout cela ? Ci-dessous, le taux d'images par seconde moyen mesuré durant tout le bench, via Fraps, avec une RTX 2080 Ti. Cette dernière taquine les 60 images par seconde en "4K"+DLSS, soit 39% de mieux quand-même que le test réalisé en UHD + TAA. On reste toutefois loin du 2x annoncé par NVIDIA.

 

"Mode" UHDimages par seconde
DLSS 58.9
TAA 42.3

  

 

• Ray Tracing

Intéressons-nous pour finir au Ray Tracing. En l'absence de support actuel dans les jeux, nous avons là-aussi été contraint de nous tourner vers une "démo" pour expérimenter la chose. Précisons de suite, que l'optique de cette dernière est axée sur le visuel dans le cadre d'un rendu type cinema (24 i/s), et donc pas forcément représentatif de l'usage qu'en feront les jeux. Nous avons du activer le mode développeur de Windows 10 1803, pour faire fonctionner la démo. La mise à jour Redstone 5 (October 2018 Update) devrait inclure nativement DXR et donc proposer tout ce qu'il faut par défaut, afin d'accueillir les premiers jeux/patch compatibles RTX.

 

La dite démo a été conçue par ILM sur l'Unreal Engine 4, en association avec NVIDIA et LucasArt Entertainment Company. Le résultat est bluffant de réalisme (et drôle), les clichés ne rendent pas tout à fait hommage aux concepteurs. A gauche le résultat en QHD et à droite en UHD. Apparaissent sur ces clichés, le taux d'images par seconde obtenus avec une RTX 2080 Ti. Ce niveau de Ray Tracing reste terriblement exigeant même pour une telle carte, c'est une certitude. 

 

Reflexions QHD [cliquer pour agrandir]Reflexions UHD [cliquer pour agrandir]

Bon, il arrive cet ascenseur ?

 

Une seconde scène.

 

Reflexions QHD [cliquer pour agrandir]Reflexions UHD [cliquer pour agrandir]

C'est bien notre bol, fallait que la cheffe prenne justement cet ascenseur !

 

Et une dernière pour la route.

 

Reflexions QHD [cliquer pour agrandir]Reflexions UHD [cliquer pour agrandir]

Ça va barder pour vos matricules les 2 rigolos !

 

Mise à jour du 18/12 : vous pouvez à présent consulter notre dossier dédié à la mise en oeuvre pratique de DXR et DLSS dans les premiers jeux les supportant.

 

Passons à l'évolution des fréquences en charge et l'overclocking page suivante.



Un poil avant ?

Live Twitch • Une quête avec des trolls poilus dedans !

Un peu plus tard ...

Le chipset Z390 (ré)officialisé le 8 octobre ?

Les 126 ragots
Les ragots sont actuellement
ragots réservés aux QI élevésouverts aux ragoteurs logués
par Eric B., le Mercredi 27 Février 2019 à 07h03  
Moi ce que je trouve étrange c'est ton commentaire : tu compares une carte graphique au design de référence (et donc avec une fréquence GPU sensiblement impactée) à la tienne fortement overclockée et couplée avec un CPU plus rapide pour ce genre de tâches (sachant que le score CPU est pris en compte dans le calcul du score global reporté dans le graphique et que la désactivation de l'HT sur le notre réduit encore davantage les performances dans le test CPU) et tu t'étonnes (faussement ?) de valeurs différentes... Autant comparer des choux et des carottes. Ce qui compte dans ce test spécifique (qui n'est d'ailleurs présent qu'à titre informatif, le verdict n'est établi que vis-à-vis des résultats in game), c'est la hiérarchie mesurée entre cartes sachant que les conditions d'exécution sont identiques (ce n'est pas ton cas), pas le score global dans l'absolu.
par Mika2012, le Mardi 26 Février 2019 à 13h36  
Je trouve les résultats du test bizarre.
J'ai un I7 8700K et une GTX 1080 Ti et j'ai un score 3D MarK de 10536...en QHD 1440*2560. Soit l'équivalent de la 2080...
Bon Ok le processeur est à 5.2Ghz et la Carte graphique à 2.2Ghz...
Mais quand même.
par Eric B., le Mardi 15 Janvier 2019 à 18h58  
Nous voulons bien t'aider à comprendre d'où provient le différentiel de performance, mais pour cela il faut être plus factuel :
* Préciser la configuration (CPU OC ? / fréquence et qté DDR4)
* Préciser davantage les réglages
* Comment sont mesurées les performances ? (durant un séance de jeu via fraps ou équivalent ? En solo ou en multi ? Avec le benchmark intégré ? Sur un replay perso ?
* L'idéal c'est de réaliser un log des fréquences de la carte graphique (via GPU-Z par exemple) durant ta session de jeu (et également l'usage CPU / fréquence si rien d'anormal côté GPU)
par DeathofWarQc, le Mardi 15 Janvier 2019 à 18h26  
J'ai l'impression d'avoir parler dans le vent mais bon mdr si tu veux x3
par Thibaut G., le Lundi 14 Janvier 2019 à 22h27  
par DeathofWarQc le Lundi 14 Janvier 2019 à 22h12
Si si je lis tres bien mdr
Je joue pareil que sur les test tout au max sauf txaa et x4 1440p, avec g-sync et un i7 8700k
Meme si je serai un casual jouant sur du 1080p je devrais taper dans du 150fps au moins, la c'est tout le contraire.
Je me plaindrais pas si c'etais que 10 fps alors que la je parle de pratiquement 50% de perf en moins.
On est pas tous des jean billy tu sais xP
donc des conditions de test différentes, une machine différente, des réglages différents. On ne peut pas comparer directement, c'était le sens de mon message et tu le confirmes. Rien que ça ne te permettra pas de savoir d'où viennent tes contre performances. jean Billy ou pas, c'est assez simple de le comprendre, on ne peut comparer qu'à iso réglages et iso machine.
par DeathofWarQc, le Lundi 14 Janvier 2019 à 22h12  
par Thibaut G. le Samedi 12 Janvier 2019 à 15h03
et si tu lisais les conditions des tests avant ? Il y a 500% de chances qu'on ne teste pas de la même manière, la comparaison de chiffres directe est inutile, tu ne précises même pas la définition de test ni le niveau de détails que tu utilises.
Si si je lis tres bien mdr
Je joue pareil que sur les test tout au max sauf txaa et x4 1440p, avec g-sync et un i7 8700k
Meme si je serai un casual jouant sur du 1080p je devrais taper dans du 150fps au moins, la c'est tout le contraire.
Je me plaindrais pas si c'etais que 10 fps alors que la je parle de pratiquement 50% de perf en moins.
On est pas tous des jean billy tu sais xP
par Thibaut G., le Samedi 12 Janvier 2019 à 15h03  
par DeathofWarQc le Samedi 12 Janvier 2019 à 14h35
100fps sur GTA V xD avec ma 2080 MSI trio X OC je depasse pas les 40fps avec des pics a 70
et si tu lisais les conditions des tests avant ? Il y a 500% de chances qu'on ne teste pas de la même manière, la comparaison de chiffres directe est inutile, tu ne précises même pas la définition de test ni le niveau de détails que tu utilises.
par DeathofWarQc, le Samedi 12 Janvier 2019 à 14h35  
100fps sur GTA V xD avec ma 2080 MSI trio X OC je depasse pas les 40fps avec des pics a 70
par Eric B., le Mardi 13 Novembre 2018 à 07h30  
Nous avons fait un dossier architecture distinct, les réponses s'y trouvent. Pour information, des ordonnanceurs hardware il y en a dans les architectures NVIDIA depuis belle lurette au niveau des blocs de traitement au sein des SM.

Comme tu évoque les async compute, j'imagine que tu veux parler du Multi Engine tel qu'implémenté au sein de DX12 (ou Vulkan), c'est à dire le traitement des files d'attente de rendu, si possible de manière concomitante. Pour cela il faut des processeurs de commande suffisamment évolués, sinon c'est aux développeurs ou au pilote de faire les tâches de synchronisation.

Turing marque effectivement un gros progrès à ce niveau du fait du rendu hybride, toutefois cela ne se traduira pas forcément par des gains similaires à ceux visibles sur les Radeon pour une raison simple : ce fonctionnement permet d'améliorer le taux de charge des unités de calcul, toutefois, si ce dernier est élevé par défaut, le gain potentiel est fortement réduit.

Les GPU NVIDIA depuis Maxwell ont un taux d'occupation par défaut supérieur à ce que l'on trouve chez AMD, c'est pour ça qu'en général il faut aux cartes d'AMD une puissance de calcul brute supérieure pour égaler leurs concurrentes sous DX11, du fait de ce différentiel. C'est pour ça aussi que les cartes d'AMD profitent plus de DX12 qui leur permet (si implémenté et possible) d'améliorer le taux d'occupation de leurs unités.

L'avantage pour Turing face aux précédentes archi vertes, c'est que si le développeur ne fait pas le travail d'optimisation spécifique au GPU, ses processeurs de commande évitent les pénalités de synchronisation et peuvent profiter de gains potentiels.
par TwoFace, le Lundi 12 Novembre 2018 à 10h55  
Au fait ce serait bien de rajouter dans le test des cartes, si les turing ont un ordonnanceur hardware et s'il y a l'async compute bien intégré ??? une lacune des Pascal VS AMD...
Message de wahidovic123 supprimé par un modérateur : HS
par Sarge, le Mardi 16 Octobre 2018 à 17h29  
Eh bien, le RTX (le vrai) a 60 FPS...ce n'est pas pour demain la vieille ! Heureusement qu'Nvidia a pigeonné trouvé des investisseurs clients pour développer les prochaines cartes qui elles, pourront faire tourner du RTX, du vrai !
Merci pour cette maj.