COMPTOIR
  
register

En cabine • Impact visuel et performances RTX/DLSS pour Call of Duty Black Ops Cold War

Philosophie du test

Le protocole n'est pas très différent d'un test de ce type à l'autre. Le but est de mettre en évidence les apports de ces deux technologies, que sont le RT et le DLSS, dans l'amélioration de la qualité d'image. Pour cette licence, ce n'est plus l'IW Engine 8 qui pédale (celui de Modern Warfare), mais un mix entre IW Engine 3 et fonctionnalités de l'IW Engine 8, nommé Black Ops Cold War Engine. Il a des avantages et des inconvénients. Ses points forts sont des graphismes très bons, des représentations et des animations faciales excellentes, un script qui plonge dans l'immersion. Ses inconvénients sont une physique totalement absente. Comme exemple dans Cold War, on peut citer les herbes raides comme des piquets alors qu'elles sont sous les pâles d'un hélicoptère, et la flaque d'eau qui ne vibre même pas quand on y met le pied dedans. Ce côté technique bâclé montre que ce n'est pas la priorité des développeurs, mais ils seraient inspirés d'en prendre note pour transformer le titre de sympa en réussite. Autre point important, le RT dans ce jeu ne se concentre que sur les ombres et occlusions ambiantes, aucune réflexion n'est gérée via cette technique, comme l'année dernière en somme.

 

Nous avons donc, sur une scène précise et le plus possible reproductible (réalisée 4x), mesuré les performances en 1920x1080 (FHD), 2560x1440 (QHD) et 3840x2160 (UHD), détails au maximum (sauf les reflets à l'écran qui ne veulent pas quitter le statut Faible), avec SMAA 2TX Filmique qui constitue l'antialiasing le plus élevé, DLSS mode qualité, et ajout du Ray Tracing sur ces deux modes d'anticrénelage. Les cartes sont les extrêmes de la gamme RTX Turing, à savoir la 2060 et la 2080 Ti, mais aussi la petite dernière alias la RTX 3080 Gaming OC. Il y aura donc ces relevés de performances, mais également les comparatifs d'image fixes et les vidéos en mouvement. À la sortie de cet article, nous devrions être en mesure de dire si ce nouveau DLSS est aussi bon que le prétend Nvidia, et si le lancer de rayons est très bien intégré et apporte quelque chose à ce jeu nerveux.

 

• Hardware
Ryzen 7 5600X @ 4.6GHz sur tous les coeurs
Cooler Master ML360R
MSi B550 Gaming Edge WiFi
G.Skill Trident RGB 2x16Go DDR4 3600 cas 16-16-16-36 1T
ASUS RTX 2060 Strix
Nvidia RTX 2080 Ti FE
GIGABYTE RTX 3080 Gaming OC
SSD WD 750N - 250 Go (OS) / Samsung 860 QVO 2To (Jeux) 
Fractal Design ION+ 860P (pour autant de Watts)
NZXT H710

 

gskill trident z rgb dual    msi b550 gaming edge wifi fractal ion 860w  

 

• Software

Windows 10 (H2) 64-bit

NVIDIA GeForce 457.30
MSi Afterburner 4.6.3 Bêta 2 et RTSS 7.3.0 bêta 6

 

Nous utilisons Windows 10 H2 (Octobre 2020) dans sa version 64-bit afin d'exploiter une quantité conséquente de mémoire vive et ne pas limiter les jeux qui en auraient besoin à ce niveau. Nous avons déjà traité plusieurs jeux, mais avec l'arrivée des rouges, la liste évoluera au gré des sorties de jeux reprenant ces technologies, soit le Ray Tracing, soit le DLSS, soit les deux, et ce plus rapidement à présent. Cyberpunk 2077 ? Assurément !

 

Côté pilotes, nous utilisons les derniers disponibles au moment des mesures. Les réglages par défaut sont utilisés : ils impliquent une optimisation du filtrage trilinéaire. Pas de Low Latency Mode non plus dans les options.



Un poil avant ?

Nous avons essayé • Le radbox Intel version 2020

Un peu plus tard ...

Bon plan • PNY XLR8 CS3030 500 Go à moins de 55 €

Les 43 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Thibaut G., le Dimanche 06 Décembre 2020 à 23h05  
J-3
par Scrabble, le Vendredi 04 Décembre 2020 à 21h24  
par Mitsu le Vendredi 04 Décembre 2020 à 20h07
De façon purement subjective, je hais tout ce qui est anti-aliasing, question de goût attention à ne pas mal interpréter, pour moi l'AA floute les textures et je préfère vraiment m'en passer je suis en 2560x1080 sur un 27 pouces et franchement je ne vois pas les effets d'escaliers. En revanche, je suis sensible à des textures bien nettes.
Moi non plus, j'ai jamais aimé l'anti-aliasing. Cependant, avec les options de sharpening intégrées au drivers GPU, ainsi que sur certains écrans, l'anti-aliasing par oversampling peut redevenir intéressant
par Mitsu, le Vendredi 04 Décembre 2020 à 20h07  
par un nain du strie en Nouvelle-Aquitaine le Vendredi 04 Décembre 2020 à 19h21
Je n'aime pas du tout le rendu dlss: en comparo on a un voilage des couleurs, et les mouvements sont nettement moins naturels: c'est trés flagrant sur les pales d'hélico. Quant au rts, c'est tellement ténu que ça ne vaut pas la perte de performance induite, et encore, je préfère les reflets lumineux du mode smaa plus clinquants, même si c'est moins naturel.
Mais il faut vraiment faire du side by side pour percevoir ces différences; donc dans la vraie vie, autant choisir le mode le plus performant à niveau de détail équivalent.
De façon purement subjective, je hais tout ce qui est anti-aliasing, question de goût attention à ne pas mal interpréter, pour moi l'AA floute les textures et je préfère vraiment m'en passer je suis en 2560x1080 sur un 29 pouces et franchement je ne vois pas les effets d'escaliers. En revanche, je suis sensible à des textures bien nettes.
par un nain du strie en Nouvelle-Aquitaine, le Vendredi 04 Décembre 2020 à 19h21  
Je n'aime pas du tout le rendu dlss: en comparo on a un voilage des couleurs, et les mouvements sont nettement moins naturels: c'est trés flagrant sur les pales d'hélico. Quant au rts, c'est tellement ténu que ça ne vaut pas la perte de performance induite, et encore, je préfère les reflets lumineux du mode smaa plus clinquants, même si c'est moins naturel.
Mais il faut vraiment faire du side by side pour percevoir ces différences; donc dans la vraie vie, autant choisir le mode le plus performant à niveau de détail équivalent.
Message de Ideal supprimé par un modérateur : réponse à un msg modéré
Message de Un ragoteur sans nom en Île-de-France supprimé par un modérateur : hs
par Ideal, le Vendredi 04 Décembre 2020 à 13h34  
À la base ça parlait pas de RT mais de DLSS.
La question de l'implémentation RT sur GTX montre que le DLSS Cuda aurait été possible sur GTX.
Que ça n'est pas de sens commercial pour NVidia n'invalide pas que techniquement ils l'ont prouvé que c'était faisable...
par jumorolo le Vendredi 04 Décembre 2020 à 12h43
Je ne me pose même pas la question
Ça a du sens de dev des solutions hardware: vendre du silicium exclusif. Que le concurrent ne peut pas vendre.
Et qui rend même ton HdG précédent obsolète sur ce seul point (et non sur un point raster par exemple).
Tu te poses pas la question mais c'est pas pour autant que la réponse n'existe pas...
 
peut on faire du RT ou du DLSS avec une gpu sans tensor ou rt core ? oui on peut faire n'importe quoi avec un gpu c'est le principe.
Est ce rentable en terme de performances ? non sinon il n'y aurait pas ces unités dédiées justement.[...]
[...]AMD peuvent effectivement faire un truc qui ressemble au DLSS mais ça aura un cout en performances, d'autant plus si les unités utilisées ne sont pas spécifiques.

Pour la 1ère phrase c'est bien ce que je dis depuis la première intervention.
Pour le reste me concernant j'ai jamais dit le contraire donc rien à dire.
 
Et surtout y'a il un intérêt pour nvidia a investir du temps de dev (de l'argent donc) pour le faire ? non et ça met un point final a tout le reste.
Du temps de dev comme faire fonctionner du RT sous Cuda pour la démo Starwars sous Pascal?
Ou implémenter du RT pour les GTX? Bah si y a intérêt à le faire.. La pub.
Et y a un autre intérêt spécifique aux GTX: Montrer que les RTX sont obligatoires donc qu'il faut passer à la caisse (et avec raison, c'est bien normal)

Et c'est bien pour ça que Nvidia l'a fait.
par jumorolo, le Vendredi 04 Décembre 2020 à 12h43  
par Ideal le Vendredi 04 Décembre 2020 à 10h58
la question qu'aurait dû se poser Jumorolo sur pourquoi les GTX peuvent offrir du RT ( ici les Cuda core se tournaient trop les pouces...? )
Je ne me pose même pas la question pour la raison suivante : ça n'aurait pas de sens de développer des unités dédiées a certaines taches et ensuite faire du soft pour s'en passer.

peut on faire du RT ou du DLSS avec un gpu sans tensor ou rt core ? oui on peut faire n'importe quoi avec un gpu c'est le principe.

Est ce rentable en terme de performances ? non sinon il n'y aurait pas ces unités dédiées justement.

Et surtout y'a il un intérêt pour nvidia a investir du temps de dev (de l'argent donc) pour le faire ? non et ça met un point final a tout le reste.

AMD peuvent effectivement faire un truc qui ressemble au DLSS mais ça aura un cout en performances, d'autant plus si les unités utilisées ne sont pas spécifiques.
par Pascal M., le Vendredi 04 Décembre 2020 à 11h37  
@ideal : A priori vu que tu t'embrouilles avec 50% de tes interlocuteurs le problème vient bien pour bcp .. de toi . Fin du HS ici.
Message de Ideal supprimé par un modérateur : hs
par Thibaut G., le Vendredi 04 Décembre 2020 à 11h05  
Si c'est pour poster des trucs que toi seul comprend, je vois pas l'intérêt. Avec tous ces ronds de jambe, on ne sait plus ce que tu veux. Effectivement si je ne te comprends pas, encore une fois, je m abstiens, encore une démonstration. Maintenant connaissant très bien jumorolo qui est un copain, je suis pas sûr qu'il comprendra mieux
par Ideal, le Vendredi 04 Décembre 2020 à 10h58  
(Tu peux ne pas répondre si vraiment ça te dérange de me parler faut pas te forcer )
Encore une fois tu te perds.. à la base 10 ragots avant tu disais que le DLSS n'était possible qu'avec des Tensor de chez NVidia.
Là je t'ai (re)offert la preuve que non mais c'est très bien si tu le reprends pour toi comme argumentation pour la suite.

Que les calculs DLSS accaparent les Cuda Cores c'est évident mais que ce soit la seule vraie réponse à la question de pourquoi NVidia l'a verrouillé (alors que ça fonctionne convenablement) devrait t'encourager à tenter de répondre à la question qu'aurait dû se poser Jumorolo sur pourquoi les GTX peuvent offrir du RT ( ici les Cuda core se tournaient trop les pouces...? )

Sinon oui bien-sûr les Tensors core sont + efficaces pour faire du DLSS d'ailleurs c'est bien ce que je disais en substance à valence tout en nuançant: Les Cuda Cores peuvent le faire.
Si des Cuda Cores peuvent, des Stream Processors AMD aussi..

Pour ton couplet¨"la qualité était moindre", on en avait déjà parlé je t'avais déjà informé à ce sujet et c'est accessible partout: ce DLSS 1.9 n'avait pas le derniers DNN Model qu'avait le DLSS 2.0 donc évident aussi mais ça veut pas dire que les Cuda Cores salopaient le travail comme tu sembles le sous-entendre.
par Thibaut G. le Vendredi 04 Décembre 2020 à 10h12
ca tournait sur CUDA Cores oui en version expérimentale. De plus la qualité était moindre.
Pour la fin de ton intervention, je vais te répondre vite fait en MP car franchement osef de rajouter du HS.