COMPTOIR
register

Le DLSS 3 expliqué en vidéo, avec exemples sur jeux

NVIDIA a bossé sur le DLSS 3 en silence, parallèlement au lancement des RTX 40. L'objectif est de franchement se démarquer des autres solutions d'upscaling, et boostant à fond les performances, faire en sorte que la domination de cette technologie ne serait remise en cause par aucune autre, FSR 2 et XeSS en ligne de mire. Pour comprendre ce que c'est, il faut savoir qu'il est basé sur le DLSS 2 et son CNN, tous deux basés sur un autoencodeur pour effectuer de la mise à l’échelle 1080p en prenant également en entrée les vecteurs de mouvement. Le DLSS 3 ajoute une composante "optique" utilisant les nouveaux accélérateurs OFA (Optical Flow Accelerator) pour calculer les changements effectués entre deux images afin d'en générer d'autres intermédiaires et, ainsi, renforcer la fluidité. Ce sont ces dernières qui seront affichées pour renforcer cette impression de fluidité, mais cela devrait également augmenter la latence : c'est là que Reflex entre en jeu. Si NVIDIA n'explique pas comment Reflex agit sur la latence, il améliorerait grandement ce temps par un facteur 4 ! À vérifier en pratique bien entendu, surtout sur des jeux nerveux, et en fonction des GPU qui constitueront la gamme Lovelace.

 

Afin de poser des visuels sur ces explications un peu rébarbatives, DigitalFoundry a fait une vidéo instructive qui vulgarise le DLSS 3. La technologie ne devrait plus avoir de secrets, du moins vous comprendrez mieux les mécanismes lorsque nous en (re)parlerons au détour de nombreux articles à venir. Bonne séance, prenez des popcorns avant !

 

Un poil avant ?

Alphacool présente une nouvelle douche pour SSD NVMe PCIe 4.0

Un peu plus tard ...

Test • Seasonic Arch Q503 + Connect

Les 26 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Jemporte, le Mercredi 05 Octobre 2022 à 08h02  
L'un des gros atouts du DLSS c'est de ne pas devoir avoir un très grande puissance pour afficher la résolution souhaitée... oui mais ce n'est pas dans l'intérêt du fabriquant de GPU ça.
Donc le DLSS n'ira jamais plus que chatouiller la qualité de la pleine résolution.

C'est une hypothèse mais je crois qu'elle se tient.
Personnellement je trouve que la qualité reste déplorable là où on ne devrait quasiment pas distinguer la différence au niveau du pixel. Des fois c'est à se demander si un brave Lanczos ne serait pas meilleur.
par Un ragoteur de transit du Grand Est, le Dimanche 02 Octobre 2022 à 23h42  
par Un ragoteur de transit embusqué ?? le Dimanche 02 Octobre 2022 à 03h55
Bon les amis, vous êtes capable de mettre plus d'1k€ dans un CG mais pas foutu de regarder les graph de la conférence dédié a c'est nouvelle carte? Oui le dlss demande bcp de puissance de la part des tensor core et de l'OFA , ah vous savez même pas ce que sais hein? Google est là au dessus de votre page internet. Donc les chiffre 1400Tflops pour une 4090 vs 320 pour la 3090(ti?).
Ensuite le Fameux OFA (Optical flow accelerator) 320tflops vs 126.
Et donc je m'arrête juste là pour parler DLSS, comment pouvez vous concevoir qu'avec ce gap de performance en traitement d'image que une rtx3xxx pour faire fonctionner de manière a gagner des fps le DLSS 3.0
Voilà vous avez compris, ensuite pourquoi quelqu'un de censé aimerait avoir des fps sans avoir une meilleure sensation de fluidité (frametime/latence) imaginé vous sur une 4080 le dlss 3 activé, vous êtes a la bonne limite pour avoir "60" fps sans chute, l'impression dans la souris et les clavier sera comme jouer a 45fps...
Donc restez avec le dlss 2.x c'est très bien comme ça.
Personnellement, je reste chez amd, le fsr 2.1 arrive et on passe bcp moins pour des con, surtout que le gap en RT va être fou (c'est pas dur)
Et qu'il ne gaspille pas de l'espace sur le Die pour y mettre des accelerateur d'ia, quoique . Ça parle d'un peu de directML part ci part là.
Aller bisous
Tu as réussi à avoir tout faux. C'est dingue. Pas un mot de juste..
Message de Un ragoteur de transit embusqué supprimé par un modérateur : Effacé à la demande de l'auteur
par Un ragoteur de transit embusqué, le Dimanche 02 Octobre 2022 à 03h55  
Bon les amis, vous êtes capable de mettre plus d'1k€ dans un CG mais pas foutu de regarder les graph de la conférence dédié a c'est nouvelle carte? Oui le dlss demande bcp de puissance de la part des tensor core et de l'OFA , ah vous savez même pas ce que sais hein? Google est là au dessus de votre page internet. Donc les chiffre 1400Tflops pour une 4090 vs 320 pour la 3090(ti?).
Ensuite le Fameux OFA (Optical flow accelerator) 320tflops vs 126.
Et donc je m'arrête juste là pour parler DLSS, comment pouvez vous concevoir qu'avec ce gap de performance en traitement d'image que une rtx3xxx pour faire fonctionner de manière a gagner des fps le DLSS 3.0
Voilà vous avez compris, ensuite pourquoi quelqu'un de censé aimerait avoir des fps sans avoir une meilleure sensation de fluidité (frametime/latence) imaginé vous sur une 4080 le dlss 3 activé, vous êtes a la bonne limite pour avoir "60" fps sans chute, l'impression dans la souris et les clavier sera comme jouer a 45fps...
Donc restez avec le dlss 2.x c'est très bien comme ça.
Personnellement, je reste chez amd, le fsr 2.1 arrive et on passe bcp moins pour des con, surtout que le gap en RT va être fou (c'est pas dur)
Et qu'il ne gaspille pas de l'espace sur le Die pour y mettre des accelerateur d'ia, quoique . Ça parle d'un peu de directML part ci part là.
Aller bisous
par Un médecin des ragots embusqué, le Samedi 01 Octobre 2022 à 10h57  
par Alffir le Samedi 01 Octobre 2022 à 09h55
Tu te moques de l'ajout d'un morhping qui a 40 ans, mais tu voudrais des progrès en rastérisation qui a quel âge ?

Si tu regardes la vidéo, tu vois que Nvidia fait en temps-réel beaucoup mieux que les logiciels (ils disposent d'info vecteurs du moteur en plus, ça aide à faire mieux), alors les TV doivent faire un beau boulot de merde dès que le mouvement est un peu complexe.

Bref si ça permet de doubler ses FPS en ajoutant pas beaucoup de silicium, c'est pas idiot, que ça soit pour du RT ou de la rastérisation (sans parler du fait que ça permet de s'affranchir des limites CPU à haut FPS)
Et ton pas beaucoup de silicium justement tu justifie comment que le prix double
Faut arrêter toute les excuse du monde aux industriels
Arreter de lécher les balles aux marques
T es au courant que c est toi le client
Arreter en tant que client de marcher sur la tête en mode no brain
par Alffir, le Samedi 01 Octobre 2022 à 09h55  
par Un médecin des ragots embusqué ?? le Samedi 01 Octobre 2022 à 05h43
En gros nvidia vous propose de payer le double de ce que coute vraiment les rtx4000 à produire pour des cartes juste bonne à vous proposer une feature qui fête ses 40ans
Le MORPHING
Le mm artifice que les TVs propose depuis des années avec leur puce de traitement
Je me demande ce que nvidia va encore inventé sur les rtx5000 pour toujours plus trouver d excuse que si si les gpu grand public se doivent d avoir des tensor core
Car faut bien que le mougeon participe aux frais de dev de techno destiné aux industriel genre en robotique

À côté de ça pour les gains de perf en rasterisation on dira merci à Mr Mhz
Car les gain en raster comparé au rtx3000 se scale quasi à la hausse de fréquence
Oueh paie 2x plus cher pour des rtx3070/rtx3080 overclocké avec un die shrink

Mais bon continué à vous faire bananer par Jensen
Et son super RTX qu il faut absolument un dlss pour lui tenir la moins sans quoi on rigole du framerate
Les marketeux maître du monde... on voit ce que ça donne
Y a t il un pilote dans l avion sauf qu on remplace "avion" par "planete"
Tu te moques de l'ajout d'un morhping qui a 40 ans, mais tu voudrais des progrès en rastérisation qui a quel âge ?

Si tu regardes la vidéo, tu vois que Nvidia fait en temps-réel beaucoup mieux que les logiciels (ils disposent d'info vecteurs du moteur en plus, ça aide à faire mieux), alors les TV doivent faire un beau boulot de merde dès que le mouvement est un peu complexe.

Bref si ça permet de doubler ses FPS en ajoutant pas beaucoup de silicium, c'est pas idiot, que ça soit pour du RT ou de la rastérisation (sans parler du fait que ça permet de s'affranchir des limites CPU à haut FPS)
par Un ragoteur Gaulois en Bourgogne-Franche-Comté, le Samedi 01 Octobre 2022 à 08h36  
par ragoteur d'Occitanie le Vendredi 30 Septembre 2022 à 19h09
tu parles d'upscaling en disant que tu croyais que ça en était un. Je t'ai répondu sur ça.
Qu'est-ce que tu n'as pas compris?
Je répondais à quelqu'un. Le DLSS n'est pas un downscaling mais un upscaling, peu importe les modifications liées aux différentes versions. Donc je ne comprends pas pourquoi tu me dis cela. D'autant que je regarde les articles ou vidéos linkées dans les news avant de papoter, donc pas besoin de me faire un topo.
par Un médecin des ragots embusqué, le Samedi 01 Octobre 2022 à 05h43  
En gros nvidia vous propose de payer le double de ce que coute vraiment les rtx4000 à produire pour des cartes juste bonne à vous proposer une feature qui fête ses 40ans
Le MORPHING
Le mm artifice que les TVs propose depuis des années avec leur puce de traitement
Je me demande ce que nvidia va encore inventé sur les rtx5000 pour toujours plus trouver d excuse que si si les gpu grand public se doivent d avoir des tensor core
Car faut bien que le mougeon participe aux frais de dev de techno destiné aux industriel genre en robotique

À côté de ça pour les gains de perf en rasterisation on dira merci à Mr Mhz
Car les gain en raster comparé au rtx3000 se scale quasi à la hausse de fréquence
Oueh paie 2x plus cher pour des rtx3070/rtx3080 overclocké avec un die shrink

Mais bon continué à vous faire bananer par Jensen
Et son super RTX qu il faut absolument un dlss pour lui tenir la moins sans quoi on rigole du framerate
Les marketeux maître du monde... on voit ce que ça donne
Y a t il un pilote dans l avion sauf qu on remplace "avion" par "planete"
par Pipotronator, le Vendredi 30 Septembre 2022 à 19h57  
par Scrabble le Vendredi 30 Septembre 2022 à 18h46
Là tu t'avance un peu à mon avis. Faire une interpolation temporelle des images nécessite sans doute une bonne puissance de calcul dédiée, peut-être pas accessible aux RTX 30X0
Justement, personne n'en sait rien et c'est pas nVidia qui va nous le dire, mais je doute que ça soit un impact négatif. Donc je table sur à minima un petit bénéfice.
Mais jusqu'à preuve du contraire ça utilise les accélérateur "optical flow" et les tensor core pour la génération de la frame intermédiaire "calculée" par "IA".
par Pipotronator, le Vendredi 30 Septembre 2022 à 19h51  
par ragoteur d'Occitanie le Vendredi 30 Septembre 2022 à 19h12
Si tu avais lu mon message tu aurais vu que j'ai dit que ça y était déjà dans ampère et turing mais avec des perfs 3 à 4 fois moins élevées donc le gain serait minime voire nul.
DF en a parlé et nvidia aussi en disant que c'était possible mais que le gain serait quasi nul et qu'ils auraient juste à traiter avec tous les joueurs qui gueuleraient en disant que ça marche pas comme marketé sur leurs cartes ampère et turing.
Si tu es une entreprise qui ne veut pas du shitstorm des abrutis sur internet, tu fais pas ça.
Je le lis justement et tu parles juste qu'Ada serait 3 à 4x fois plus performant qu'Ampere et Turing. Mais à moins d'être un ingénieur GPU et de bosser chez nVidia. Je ne vois pas comment tu pourrais tirer de tout ça que c'est forcément uniquement via le bien des optical flow accelerator que la différence se fait. On ne sait même pas combien d'unité dédié il y a dans chaque GPU et encore moins leur performance propre.
Oui, il y en a qui se raccroche à la moindre branche pour justifier leur commentaire. Et ayant vu de quoi nVidia est capable (mais AMD et Intel sont tout autant capable une fois en position dominante), oui je me permet de garder mon scepticisme sur la différence de performance entre les accélérateurs des différentes générations.
Peut-on réellement croire qu'nVidia bride la fonction au RTX 4000 parce que ça n'en vaut pas le coup sur Ampere et Turing et qu'on sait pas trop si en fait ça peut se faire même si les accélérateurs étaient déjà là avant...
Ou bien parce que ça relèverait un peu trop le niveau de performance des anciennes générations et pourrait faire de l'ombre au fait de remplacer son Turing ou Ampere par un Ada.
par ragoteur d'Occitanie, le Vendredi 30 Septembre 2022 à 19h12  
par Pipotronator le Vendredi 30 Septembre 2022 à 16h13
Et si tu suivais tu saurais que ces unités matérielles [accélérateur "optical flow"] sont aussi présentes sur Ampere & Turing, que les bénéfices soient moindre parce que pas les mêmes capacités de traitement OK, mais il y aura un bénéfice quand même puisque des unités dédiées sont présentes. De là à dire qu'nVidia va en faire une priorité, bon faut peut-être vendre du Ada avant de se pencher sur la rétro-compatibilité de DLSS 3.
Franchement faut oser répondre "si tu suivais l'actualité", on a pas tous une vie donc forcément certains ne font que ça suivre les actualités, les autres ils bossent et ils sortent donc ils n'épluchent pas toutes les actus par coeur à la fin de la journée.

Source Ampere : un petit lien tout mignon
Source Turing : un petit lien tout mignon
Si tu avais lu mon message tu aurais vu que j'ai dit que ça y était déjà dans ampère et turing mais avec des perfs 3 à 4 fois moins élevées donc le gain serait minime voire nul.
DF en a parlé et nvidia aussi en disant que c'était possible mais que le gain serait quasi nul et qu'ils auraient juste à traiter avec tous les joueurs qui gueuleraient en disant que ça marche pas comme marketé sur leurs cartes ampère et turing.
Si tu es une entreprise qui ne veut pas du shitstorm des abrutis sur internet, tu fais pas ça.
par ragoteur d'Occitanie, le Vendredi 30 Septembre 2022 à 19h09  
par Un ragoteur qui draille en Bourgogne-Franche-Comté le Vendredi 30 Septembre 2022 à 18h43
Quel rapport avec mon commentaire et celui auquel je répondais ?
tu parles d'upscaling en disant que tu croyais que ça en était un. Je t'ai répondu sur ça.
Qu'est-ce que tu n'as pas compris?