COMPTOIR
  
register

En cabine • Impact visuel et performances RTX/DLSS pour Call of Duty Black Ops Cold War

• Comment que ça marche ?

Rappelons la méthodologie : des scènes répétables à l'envi, le plus possible, 4 fois mesurées, à tour de rôle SMAA 2TXF, DLSS, SMAA 2TXF + RTX, et DLSS + RTX. Eu égard à la quasi-égalité entre les 2 antialiasing, il sera intéressant de voir ce qu'apporte le DLSS en termes de performances, même quand il est seul. Ensuite nous verrons l'impact que le RT a dans les performances, et comment le DLSS le compense.

 

• Full HD for all !

Il est amusant, voire overkill, de passer une RTX 2080 Ti, et a fortiori une RTX 3080, en Full HD, mais nous les avons incluses pour le fun. On se rend compte qu'avec ou sans RT, le DLSS apporte une plus-value non négligeable. La RTX 2060 passe de 66 à 55 ips entre le SMAA seul et le DLSS avec le RT, peu de pertes au final, à condition de passer par le DLSS. Sans DLSS, elle passe de 66 à 44 ips globalement, le RT entrainant une perte de 33%. On constate également que le jeu est beaucoup plus gourmand que le Modern Warfare de l'année dernière, bien plus. De plus, avec ces réglages, la quantité de VRAM est déjà outrepassée, ce qui explique également en grande partie la chute de performance pour la RTX 2060. Pour les autres cartes, ça se passe très bien, la perte y est, mais le framerate ne s'effondre pas.

 

 

 

• Make QHD great again ! !

On monte d'un cran et on passe sur quelques pixels supplémentaires. En regardant la RTX 2060, pas spécialement taillée pour le QHD, ça pique un peu avec juste du SMAA 2TX Filmique. Certes c'est le plus haut niveau d'antialiasing, mais le diminuer ne fait pas gagner énormément. Pour ce jeu, et cette carte graphique dotée de 6 Go de VRAM, il faut impérativement passer par le DLSS pour se régaler, autrement ça va devenir compliqué, surtout sans écran VRR. Les autres cartes s'en sortent très bien sans DLSS, mais c'est bien plus confortable avec.

 

 

• Uhachedé, c'est 4 fois foulehachedé !

En UHD, avec toujours la même scène, la RTX 2060 dit adieu au Ray Tracing. Encore qu'avec le DLSS, ça reste tout à fait jouable, et ça passera mieux avec un écran VRR. La RTX 2080 Ti a besoin du DLSS également pour permettre d'activer le RTX. La RTX 3080 de son côté est la seule à pouvoir se passer de DLSS, mais comme les cartes Turing, elle gagne un précieux boost avec, ce qui est loin d'être négligeable.

 

 

Nous arrivons donc au terme de cet article, voyons ce qu'on peut retenir de tout ça.



Un poil avant ?

Nous avons essayé • Le radbox Intel version 2020

Un peu plus tard ...

Bon plan • PNY XLR8 CS3030 500 Go à moins de 55 €

Les 43 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Thibaut G., le Dimanche 06 Décembre 2020 à 23h05  
J-3
par Scrabble, le Vendredi 04 Décembre 2020 à 21h24  
par Mitsu le Vendredi 04 Décembre 2020 à 20h07
De façon purement subjective, je hais tout ce qui est anti-aliasing, question de goût attention à ne pas mal interpréter, pour moi l'AA floute les textures et je préfère vraiment m'en passer je suis en 2560x1080 sur un 27 pouces et franchement je ne vois pas les effets d'escaliers. En revanche, je suis sensible à des textures bien nettes.
Moi non plus, j'ai jamais aimé l'anti-aliasing. Cependant, avec les options de sharpening intégrées au drivers GPU, ainsi que sur certains écrans, l'anti-aliasing par oversampling peut redevenir intéressant
par Mitsu, le Vendredi 04 Décembre 2020 à 20h07  
par un nain du strie en Nouvelle-Aquitaine le Vendredi 04 Décembre 2020 à 19h21
Je n'aime pas du tout le rendu dlss: en comparo on a un voilage des couleurs, et les mouvements sont nettement moins naturels: c'est trés flagrant sur les pales d'hélico. Quant au rts, c'est tellement ténu que ça ne vaut pas la perte de performance induite, et encore, je préfère les reflets lumineux du mode smaa plus clinquants, même si c'est moins naturel.
Mais il faut vraiment faire du side by side pour percevoir ces différences; donc dans la vraie vie, autant choisir le mode le plus performant à niveau de détail équivalent.
De façon purement subjective, je hais tout ce qui est anti-aliasing, question de goût attention à ne pas mal interpréter, pour moi l'AA floute les textures et je préfère vraiment m'en passer je suis en 2560x1080 sur un 29 pouces et franchement je ne vois pas les effets d'escaliers. En revanche, je suis sensible à des textures bien nettes.
par un nain du strie en Nouvelle-Aquitaine, le Vendredi 04 Décembre 2020 à 19h21  
Je n'aime pas du tout le rendu dlss: en comparo on a un voilage des couleurs, et les mouvements sont nettement moins naturels: c'est trés flagrant sur les pales d'hélico. Quant au rts, c'est tellement ténu que ça ne vaut pas la perte de performance induite, et encore, je préfère les reflets lumineux du mode smaa plus clinquants, même si c'est moins naturel.
Mais il faut vraiment faire du side by side pour percevoir ces différences; donc dans la vraie vie, autant choisir le mode le plus performant à niveau de détail équivalent.
Message de Ideal supprimé par un modérateur : réponse à un msg modéré
Message de Un ragoteur sans nom en Île-de-France supprimé par un modérateur : hs
par Ideal, le Vendredi 04 Décembre 2020 à 13h34  
À la base ça parlait pas de RT mais de DLSS.
La question de l'implémentation RT sur GTX montre que le DLSS Cuda aurait été possible sur GTX.
Que ça n'est pas de sens commercial pour NVidia n'invalide pas que techniquement ils l'ont prouvé que c'était faisable...
par jumorolo le Vendredi 04 Décembre 2020 à 12h43
Je ne me pose même pas la question
Ça a du sens de dev des solutions hardware: vendre du silicium exclusif. Que le concurrent ne peut pas vendre.
Et qui rend même ton HdG précédent obsolète sur ce seul point (et non sur un point raster par exemple).
Tu te poses pas la question mais c'est pas pour autant que la réponse n'existe pas...
 
peut on faire du RT ou du DLSS avec une gpu sans tensor ou rt core ? oui on peut faire n'importe quoi avec un gpu c'est le principe.
Est ce rentable en terme de performances ? non sinon il n'y aurait pas ces unités dédiées justement.[...]
[...]AMD peuvent effectivement faire un truc qui ressemble au DLSS mais ça aura un cout en performances, d'autant plus si les unités utilisées ne sont pas spécifiques.

Pour la 1ère phrase c'est bien ce que je dis depuis la première intervention.
Pour le reste me concernant j'ai jamais dit le contraire donc rien à dire.
 
Et surtout y'a il un intérêt pour nvidia a investir du temps de dev (de l'argent donc) pour le faire ? non et ça met un point final a tout le reste.
Du temps de dev comme faire fonctionner du RT sous Cuda pour la démo Starwars sous Pascal?
Ou implémenter du RT pour les GTX? Bah si y a intérêt à le faire.. La pub.
Et y a un autre intérêt spécifique aux GTX: Montrer que les RTX sont obligatoires donc qu'il faut passer à la caisse (et avec raison, c'est bien normal)

Et c'est bien pour ça que Nvidia l'a fait.
par jumorolo, le Vendredi 04 Décembre 2020 à 12h43  
par Ideal le Vendredi 04 Décembre 2020 à 10h58
la question qu'aurait dû se poser Jumorolo sur pourquoi les GTX peuvent offrir du RT ( ici les Cuda core se tournaient trop les pouces...? )
Je ne me pose même pas la question pour la raison suivante : ça n'aurait pas de sens de développer des unités dédiées a certaines taches et ensuite faire du soft pour s'en passer.

peut on faire du RT ou du DLSS avec un gpu sans tensor ou rt core ? oui on peut faire n'importe quoi avec un gpu c'est le principe.

Est ce rentable en terme de performances ? non sinon il n'y aurait pas ces unités dédiées justement.

Et surtout y'a il un intérêt pour nvidia a investir du temps de dev (de l'argent donc) pour le faire ? non et ça met un point final a tout le reste.

AMD peuvent effectivement faire un truc qui ressemble au DLSS mais ça aura un cout en performances, d'autant plus si les unités utilisées ne sont pas spécifiques.
par Pascal M., le Vendredi 04 Décembre 2020 à 11h37  
@ideal : A priori vu que tu t'embrouilles avec 50% de tes interlocuteurs le problème vient bien pour bcp .. de toi . Fin du HS ici.
Message de Ideal supprimé par un modérateur : hs
par Thibaut G., le Vendredi 04 Décembre 2020 à 11h05  
Si c'est pour poster des trucs que toi seul comprend, je vois pas l'intérêt. Avec tous ces ronds de jambe, on ne sait plus ce que tu veux. Effectivement si je ne te comprends pas, encore une fois, je m abstiens, encore une démonstration. Maintenant connaissant très bien jumorolo qui est un copain, je suis pas sûr qu'il comprendra mieux
par Ideal, le Vendredi 04 Décembre 2020 à 10h58  
(Tu peux ne pas répondre si vraiment ça te dérange de me parler faut pas te forcer )
Encore une fois tu te perds.. à la base 10 ragots avant tu disais que le DLSS n'était possible qu'avec des Tensor de chez NVidia.
Là je t'ai (re)offert la preuve que non mais c'est très bien si tu le reprends pour toi comme argumentation pour la suite.

Que les calculs DLSS accaparent les Cuda Cores c'est évident mais que ce soit la seule vraie réponse à la question de pourquoi NVidia l'a verrouillé (alors que ça fonctionne convenablement) devrait t'encourager à tenter de répondre à la question qu'aurait dû se poser Jumorolo sur pourquoi les GTX peuvent offrir du RT ( ici les Cuda core se tournaient trop les pouces...? )

Sinon oui bien-sûr les Tensors core sont + efficaces pour faire du DLSS d'ailleurs c'est bien ce que je disais en substance à valence tout en nuançant: Les Cuda Cores peuvent le faire.
Si des Cuda Cores peuvent, des Stream Processors AMD aussi..

Pour ton couplet¨"la qualité était moindre", on en avait déjà parlé je t'avais déjà informé à ce sujet et c'est accessible partout: ce DLSS 1.9 n'avait pas le derniers DNN Model qu'avait le DLSS 2.0 donc évident aussi mais ça veut pas dire que les Cuda Cores salopaient le travail comme tu sembles le sous-entendre.
par Thibaut G. le Vendredi 04 Décembre 2020 à 10h12
ca tournait sur CUDA Cores oui en version expérimentale. De plus la qualité était moindre.
Pour la fin de ton intervention, je vais te répondre vite fait en MP car franchement osef de rajouter du HS.