COMPTOIR
  
register

Quelles forces et faiblesses pour le DLSS 3.0 ?

Avec la RTX 4090, NVIDIA a également levé le voile sur la troisième itération majeure de sa technologie phare d’upscaling, le DLSS. Or, il ne s’agit plus seulement de mettre à l’échelle puis d’améliorer par IA une image, mais également d’en créer de toute pièce. En effet, le dernier algorithme des verts va faire usage d’informations optiques (comprendre, calculé directement sur l’image à partir d’Optical Flow Accelerator, des unités matérielles dédiées), des vecteurs de mouvement ainsi que des images brutes afin d’intercaler une frame créée de toute pièce entre deux frames rendue de manière classique par le jeu. De quoi doubler le taux d’image par seconde si la scène était limitée par le CPU : une aubaine pour les amateurs de hertz à gogo.... mais c’est aussi là que les ennuis commencent.

 

En effet, intercaler une image reconstituée, la technologie existe depuis une dizaine d’années minimum et a déjà été intégrée dans des lecteurs vidéo, des télévisions ou même le kit PlayStation VR afin d’en améliorer le confort visuel sans trop avoir à gonfler le matos. De quoi garantir la maturité de la technologie… en théorie du moins. Car, en pratique, un PC n’est pas une télévision : l’interactivité est au cœur du plaisir vidéoludique ; autant rajouter une image entre deux frames d’un anime sera sans autre effet sur le spectateur que l’amélioration de la fluidité, pour les joueurs, cela se traduit par une latence accrue (logique, l’image générée est affichée à la place d’une autre image déjà calculée, qui est, elle, retardée). Pour contrer cet effet, NVIDIA a intégré d’office sa solution Reflex diminuant cet input lag, mais force est de constater ce cela ne suffit pas dans toutes les situations.

 

Pour du blabla en vidéo et des comparatifs, c’est par ici… en anglais !

 

Car doubler le nombre d’image, c’est bien, mais les rendre sans artefacts, c’est encore mieux. Et, à ce petit jeu, le DLSS 3.0 n’est pas mal du tout, du moins sur les titres peu nerveux (Flight Simulator en tête de liste) et les FPS, pour lesquels les mouvements restent globalement uniformes. Pour les TPS, c’en est une autre paire de manche : entre les animations cycliques amenant des anomalies récurrentes (et ainsi bien plus visibles qu’une erreur passagère), et donc visibles, et l’interprétation des zones transparentes ou de faible surface (citons les toiles de Spider-Man, ou la végétation de A Plage Tale : Requiem), certains bugs peuvent se faire sentir.

Pour autant, le principal problème rencontré par les joueurs sous DLSS 3.0 n’est pas une nouveauté, et n’est autre que le tearing, ou déchirures en bon français. À augmenter le taux d’image envoyé, il est possible de dépasser celui de son moniteur — même en 4K 60 Hz, voire 120 Hz, avec une 4090 ! — créant ainsi un classique décalage entre le haut et le bas de l’image affichée et une déchirure caractéristique. Or, la solution est déjà connue : le V-Sync… qui n’est pas supporté officiellement par le caméléon (bien que la G-Sync le soit !). Pour autant, il est bel et bien possible de forcer l’option via le panneau de configuration NVIDIA, ce qui offrira des résultats somme toute variables. Certes, les déchirures disparaissent, mais de microarrêts d’images se produisent (stuttering), dus au fait que l’image générée n’est pas calculée pour être temporellement au milieu des deux frames la sandwichant. Le temps écoulé entre deux images n’est alors pas homogène alors que votre moniteur les espacera de la même durée, d’où une sensation de non-fluidité rugueuse fortement inconfortable. Rajoutez une latence en augmentation (le GPU calculant une image, puis son interpolation, affichant la première, attendant, puis affichant la seconde… vous voyez le souci !), et le confort de jeu se retrouve d’autant plus dégradé. Au passage, attention si vous chercher à comprendre cet effet en surfant sur le web : suivant la méthode de capture de l’écran, la vidéo de sortie pourra afficher les artefacts, ou non ; particulièrement si vous laissez le monter compteur de FPS au-delà du nécessaire... Pour la même raison, les images (fixes) sont d'un intérêt limité.

 

De quoi jeter à la poubelle la technologie ? Non, loin de là ! D’une part, ces soucis ne se présentent pas sur tous les titres, le niveau d’optimisation/test devant jouer. De plus, la Fast Sync permet de remédier en partie aux soucis de latence et de microfreezes du DLSS3 V-Syncé en laissant le GPU tourner à fond, mais en n’affichant que la dernière image entière. Rajoutez que le support de cette V-Sync n’est pas encore officiel, et que, tout comme les DLSS 1.0 et 2.0 à leurs débuts, le réseau sous-jacent pourra être amené à mieux apprendre, diminuant les effets visuels indésirables. Enfin, la puissance de la RTX 4090 nous fait nous poser la réelle question de l'intérêt du DLSS 3.0 avec cette belle tant même la 4K ne lui fait pas peur.

 

La réponse se trouve finalement dans le début de nos explications : le DLSS 3.0 se destine en fait aux joueurs sur écran à haute fréquence. Dans ce cas, les artefacts sont d’autant moins visibles, puisque la persistance rétinienne va préférer garder le gros du mouvement plutôt que les quelques imperfections çà et là, et la latence supplémentaire induite n’est pas un problème puisque moins importante (le temps de rendu d’une frame étant d’autant plus raccourci que la V-Sync/G-Sync s’applique à un écran de fréquence élevée). En clair, le DLSS 3.0 n’est à l’heure actuelle intéressant que si votre écran n'est pas utilisé à son plein potentiel (que ce soit par une bride côté CPU ou GPU), et échangera une fluidité de mouvement contre quelques artefacts et une latence accrue. Nous comprenons mieux pourquoi les verts préféraient éviter le portage sur les générations précédentes, moins puissantes… et nous avons hâte de tester la chose sur des cartes plus abordables. Bientôt le 1080p @ 120 Hz apatrocher ? (Merci à Kéta pour ses expériences et retours !)

 

 Et encore plus d'analyses !

Un poil avant ?

Zen 3 sera bien de la partie pour les Ryzen 7000 mobile

Un peu plus tard ...

GIGABYTE rejoindrait le clan Intel avec ses Arc

Les 33 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Nicolas D., le Mercredi 19 Octobre 2022 à 16h59  
par Un ragoteur blond en Bourgogne-Franche-Comté le Mercredi 19 Octobre 2022 à 07h52
Je confirme. Le problème était lors de l'utilisation d'une carte AMD pour la gestion principale de l'affichage, et donc de l'utilisation de pilotes AMD et nvidia. nvidia a fait le nécessaire pour désactiver le physX dans ce cas. Sinon cela fonctionnait très bien avant la désactivation.
Ils n'ont pas désactivé le bazar lors de l'emploi de deux cartes nvidia.
Merci pour la clarification. C'est un comportement qui nuit au consommateur sans raison technique, mais ils ont (malheureusement) le droit... c'est connu que l'écosystème vert est fermé et verrouillé, ce n'est qu'une preuve de plus.
par Nono09200 le Mercredi 19 Octobre 2022 à 10h24
Faut pas s'étonner si Sony et Microsoft ont choisis du AMD pour leur consoles : technos ouvertes, immédiatement exploitables et pas de développeurs qui doivent verser des royalties à l'entreprise pour avoir le droit d'implémenter tel ou tel effet graphique dans leur jeu AAA.
Tu y vas fort là xD. Ce n'est certainement pas l'argument principal, d'ailleurs NVIDIA a du sponsoriser / aider des studios pour implémenter le RTX, pas l'inverse . Et, au contraire, avoir des technos fermées sur le marché des consoles c'est justement pas un problème du fait du contrôle sur le hardware. Par contre, pour la rétrocompatibilité future de ces effets, effectivement ca coince...
par Nono09200, le Mercredi 19 Octobre 2022 à 13h37  
par Un énarque des ragots en Bourgogne-Franche-Comté le Mercredi 19 Octobre 2022 à 11h30
D'autant qu'on ne sait aucunement comment se serait comporté AMD (pour ne pas le citer) en étant dans la même situation majoritaire en termes de parts de marché. Nul doute qu'ils ne se seraient pas privés, comme pour les prix lorsque leurs produits devenaient strictement compétitifs ou meilleurs.
C'est pas faux vu comme ça, il est possible que le concurrent aurait fait de même, en matière CPU surtout, ne pas oublier que les Ryzen 5000 on été rendus compatibles sur les vieux chipset 300 par peur de voir la clientèle fuir chez Intel au moment de l'arrivée d'Alder lake.

On peut remercier la concurrence effectivement.
par Darth Moule, le Mercredi 19 Octobre 2022 à 12h27  
En vrai, pourquoi s'embêter quand on commence à parler de la persistance rétinienne ? Notre combo oeil/cerveau est probablement la meilleure version de ce DLSS 3
Blague à part, ça devient triste de dire "on ajoute nawak entre deux images, de toutes façons ça se verra pas, mais par contre on double les FPS !!" Autant juste faire un effet placebo et doubler la valeur du FPS affichée, personne ne verra l'arnaque au delà de 120FPS
par Un énarque des ragots en Bourgogne-Franche-Comté, le Mercredi 19 Octobre 2022 à 11h30  
par Nono09200 le Mercredi 19 Octobre 2022 à 10h24
Oui effectivement chacun est juge, pour ma part je considère que la politique du "tout fermé, tout payant et tout jetable" de Nvidia est grotesque, malgré la qualité indéniable de leur GPU (j'ai moi même une 3070).

Les gens s'indignent aujourd'hui d'être prit pour des cons alors que la plupart de ces technos sont tout à fait exportables mais ça a TOUJOURS ETE LA POLITIQUE de cette entreprise, que ce soit au début du SLI, ensuite avec la Physx et maintenant avec le DLSS.
...
Tu peux ajouter la 3d et Gsync dans ta liste. Mais il ne faut pas oublier que les autres aussi conservent certains pans de leur propriété intellectuelle fermés, malgré certains effets d'annonce, et on ne leur fait pas un procès pour autant.
D'autant qu'on ne sait aucunement comment se serait comporté AMD (pour ne pas le citer) en étant dans la même situation majoritaire en termes de parts de marché. Nul doute qu'ils ne se seraient pas privés, comme pour les prix lorsque leurs produits devenaient strictement compétitifs ou meilleurs.
par Thibaut G., le Mercredi 19 Octobre 2022 à 10h51  
par Nono09200 le Mercredi 19 Octobre 2022 à 10h24
Oui effectivement chacun est juge, pour ma part je considère que la politique du "tout fermé, tout payant et tout jetable" de Nvidia est grotesque, malgré la qualité indéniable de leur GPU (j'ai moi même une 3070).

Les gens s'indignent aujourd'hui d'être prit pour des cons alors que la plupart de ces technos sont tout à fait exportables mais ça a TOUJOURS ETE LA POLITIQUE de cette entreprise, que ce soit au début du SLI, ensuite avec la Physx et maintenant avec le DLSS.

Faut pas s'étonner si Sony et Microsoft ont choisis du AMD pour leur consoles : technos ouvertes, immédiatement exploitables et pas de développeurs qui doivent verser des royalties à l'entreprise pour avoir le droit d'implémenter tel ou tel effet graphique dans leur jeu AAA.
Je rappelle à toutes fins utiles que nvidia ne fait pas de cpu, le choix d amd vient de là et pas d ailleurs.
par Nono09200, le Mercredi 19 Octobre 2022 à 10h24  
par Un ragoteur blond en Bourgogne-Franche-Comté le Mercredi 19 Octobre 2022 à 09h50
Je ne dis pas que c'est anormal. Je confirme juste l'info fournie, Nicolas demandant un lien.
L'interprétation "nvidia pourris", "nvidia greedy", "nvidia prend les gens pour des pigeons", n'est pas de moi. C'est une pratique commerciale qui sera jugée par chacun selon son goût.
Oui effectivement chacun est juge, pour ma part je considère que la politique du "tout fermé, tout payant et tout jetable" de Nvidia est grotesque, malgré la qualité indéniable de leur GPU (j'ai moi même une 3070).

Les gens s'indignent aujourd'hui d'être prit pour des cons alors que la plupart de ces technos sont tout à fait exportables mais ça a TOUJOURS ETE LA POLITIQUE de cette entreprise, que ce soit au début du SLI, ensuite avec la Physx et maintenant avec le DLSS.

Faut pas s'étonner si Sony et Microsoft ont choisis du AMD pour leur consoles : technos ouvertes, immédiatement exploitables et pas de développeurs qui doivent verser des royalties à l'entreprise pour avoir le droit d'implémenter tel ou tel effet graphique dans leur jeu AAA.
par Un ragoteur blond en Bourgogne-Franche-Comté, le Mercredi 19 Octobre 2022 à 09h50  
par Thibaut G. le Mercredi 19 Octobre 2022 à 08h06
et en quoi c'est anormal ? Ils ont payé plein tarif pour une technologie, c'est pas pour le concurrent l'utilise gratuitement hein... Quand c'était Ageia, et ses cartes, normal que ça marche avec tous les GPU, mais après aucune raison que les verts l'offrent à AMD.
Je ne dis pas que c'est anormal. Je confirme juste l'info fournie, Nicolas demandant un lien.
L'interprétation "nvidia pourris", "nvidia greedy", "nvidia prend les gens pour des pigeons", n'est pas de moi. C'est une pratique commerciale qui sera jugée par chacun selon son goût.

Mais à un moment où les cartes AMD étaient plus sexy que les cartes nvidia, cela avait fait pas mal jaser. Des gens envisageait certainement de prendre une carte AMD et de garder leur vieille nvidia uniquement pour le physX. Ce qu'nvidia n'a pas trouvé intéressant, et on le comprend, c'est qu'ils pouvaient vendre peut-être plus de carte "bas de gamme", uniquement pour la gestion physX auprès des clients AMD. Ils ont fait un choix.
par Thibaut G., le Mercredi 19 Octobre 2022 à 08h06  
par Un ragoteur blond en Bourgogne-Franche-Comté le Mercredi 19 Octobre 2022 à 07h52
Je confirme. Le problème était lors de l'utilisation d'une carte AMD pour la gestion principale de l'affichage, et donc de l'utilisation de pilotes AMD et nvidia. nvidia a fait le nécessaire pour désactiver le physX dans ce cas. Sinon cela fonctionnait très bien avant la désactivation.
Ils n'ont pas désactivé le bazar lors de l'emploi de deux cartes nvidia.
et en quoi c'est anormal ? Ils ont payé plein tarif pour une technologie, c'est pas pour le concurrent l'utilise gratuitement hein... Quand c'était Ageia, et ses cartes, normal que ça marche avec tous les GPU, mais après aucune raison que les verts l'offrent à AMD.
par Un ragoteur blond en Bourgogne-Franche-Comté, le Mercredi 19 Octobre 2022 à 08h02  
par Un médecin des ragots embusqué ?? le Mardi 18 Octobre 2022 à 20h23
Physx ça a plus été un pétard mouillé avec nvidia quand ils l ont racheté
Ça faisait face à havok
Là ou havok profitait de la multiplication des core cpu et une utilisation notable par les éditeurs tiers notamment sur console
Physx sauce nvidia accéléré gpu ça n a pas été sur beaucoup de jeux marquant
Et là ou des effets physx avait lieu dans les jeux le mettant en avant, quand tu rebroussait chemin c était rarement persistant

Typiquement alors qu havok était utilisé par exemple dans la destruction de mur sur une structure d une map
Physx ça faisait surtout plein de particule de fumé et de pétarade pour rendre les explosion plus wafu
Problème quand tu revenait genre 2mn apres ou ça avait pétarade avec du physx, les impact sur les mur avait disparu

...
La gestion physique de certains effets a progressé et ne se réduit plus seulement à physX mais a été intégré à un autre machin plus complet dont je ne me souviens plus du nom. Cela ne veut pas dire que plus rien n'est utilisé.
Les histoires d'impacts qui ne sont pas persistants était généralisées, physX ou pas, pour des raisons de pompage de perfs xxl de les conserver sur les décors longtemps. C'était toujours mieux que d'avoir des machins moches sur les murs déconnectés de ce qu'il s'était passé, ou rien du tout. Le physX ne se limitait pas uniquement aux impacts sur les murs et renforçait bien l'immersion sur les jeux, et le permettaient aussi par l'intermédiaire du CPU. Ce qu'havok faisait aussi de son côté dans un style différent.
par Un ragoteur blond en Bourgogne-Franche-Comté, le Mercredi 19 Octobre 2022 à 07h52  
par Nono09200 le Mardi 18 Octobre 2022 à 19h08
Le moddeur s'appellait GenL de mémoire, il avait mis au point ce que l'on a appellé l'hybrid physx qui fonctionnait très bien avant qu'Nvidia ne désactive cette possibilité, les premières versions fonctionnaient sur des cartes AMD, les secondes sur des cartes Nvidia dédiés quand les cartes AMD se chargeaient de l'affichage, c'est ce que j'utilisais avec mon couple HD5870 + 8800 Gt pour Arkham City à l'époque, mais étant dans l'impossibilité d'upgrader les drivers sous peine de désactivation.

un grand lien tout pourri
Je confirme. Le problème était lors de l'utilisation d'une carte AMD pour la gestion principale de l'affichage, et donc de l'utilisation de pilotes AMD et nvidia. nvidia a fait le nécessaire pour désactiver le physX dans ce cas. Sinon cela fonctionnait très bien avant la désactivation.
par Nicolas D. le Mardi 18 Octobre 2022 à 17h25
Je veux bien une source pour l'histoire d'AMD, PhysX a toujours été utilisable sur le CPU ou le GPU, offrant une forte charge CPU dans le premier cas. Et il est toujours tout à fait possible d'utiliser une carte dédiée au PhysX, c'est même conseillé vu que l'accélération n'est plus dans les cartes depuis Turing... j'ai donc laissé une GTX 1050 à cet effet dans ma tour, pour seconder la 2080 .
....
Ils n'ont pas désactivé le bazar lors de l'emploi de deux cartes nvidia.
par Un ragoteur blond en Bourgogne-Franche-Comté, le Mercredi 19 Octobre 2022 à 07h47  
par Nono09200 le Mardi 18 Octobre 2022 à 19h05
C'est ce qu'on appelle du marketing, la puce additionnelle rendait les mobo plus chères car le fabricant devait filer de la thune à nvidia pour exploiter ses technologies toujours "propriétaires" et non ouvertes.

Quand au 3 way SLI, il n'avait aucune utilité et le PCIE était trèèèèès loin d'être exploité à 100% par les GPU de cette époque, sur du 8X il n'y avait AUCUNE différence de perfs.
Relis mon post.
par convocation en Auvergne-Rhône-Alpes, le Mardi 18 Octobre 2022 à 23h33  
Le truc qui n'est pas forcément utile et qui va faire prendre 300€ à une CG.