COMPTOIR
register

×

Principe de fonctionnement DLSS vs Upscalers spatiaux

Nvidia lance le DLSS 2.3, ICAT et un nouveau pilote
Principe de fonctionnement DLSS vs Upscalers spatiaux
DLSS
DLSS 2.0
DLSS 2.3
NIS SDK
Natif vs FSR vs NIS vs DLSS
ICAT

Si vous avez l'habitude de nous lire, le DLSS ne doit pas vous être inconnu. Avant d'aborder la version lancée ce jour, débutons par un petit rappel historique du mode de fonctionnement de cette technologie proposée par NVIDIA depuis la génération de cartes graphiques Turing, lancée en 2018. Contrairement à un upscaling spatial classique, qui fait usage d'un algorithme dit "classique" pour estimer les pixels de la définition cible plus élevée, le DLSS va faire appelle à l'IA pour inférer lesdits pixels. Pour ce faire, le caméléon utilise une build d'un jeu fourni par les développeurs et procède au rendu de dizaines de milliers d'images avec une qualité visuelle parfaite ou presque (64 échantillons par pixel), collectant ainsi le résultat de sortie et les données d'entrée brutes (images en basse résolution et aliasées) qui vont pouvoir être utilisés lors de l'opération d'apprentissage (d'où le fameux Machine Learning) à venir.

 

Principe de fonctionnement DLSS vs Upscalers spatiaux [cliquer pour agrandir]

 

Un réseau de neurones artificiels (de type auto-encodeur convolutif) est ensuite entraîné à obtenir cette qualité de sortie avec ces données d'entrée, au moyen de méthodes fortement matheuses (back propagation), ce qui lui permet "d'apprendre" les spécificités propres à ces images. Il résulte de cet apprentissage un DNN model (Deep Neural Network signifie "réseau de neurones profond") capable d'imiter le comportement observé sur l'échantillon utilisé lors de l'apprentissage, et ce pour un coût bien moindre que la technique originelle. Comment ? Par le biais des Tensor Cores, qui utilisent alors le DNN model sur l'image brute aliasée de définition plus faible, pour inférer en temps réel le rendu anti-aliasé à la définition d'affichage requise. L'inférence est friande des calculs en faible précision où les Tensors Cores excellent.

 

DLSS [cliquer pour agrandir]

 

Voilà pour la théorie, mais les débuts furent laborieux, puisque la plupart des jeux utilisant au départ le DLSS, se sont vus affublés d'un flou très désagréable. Mais les verts ont persévéré, et une version 2.0 a revu en profondeur le fonctionnement en ajoutant la notion de Temporal Feedback, comme illustrée ci-dessous. Derrière cette dénomination se cache l'intégration des vecteurs de mouvement, aux données d'entrée collectées en basse résolution. Ceux-ci sont ensuite appliqués à la précédente image de sortie (haute qualité), afin d'estimer plus précisément quelle sera l'apparence de la prochaine. Cela permet de rendre des images plus nettes, tout en améliorant la stabilité d'une image à la suivante.

 

DLSS 2.0 [cliquer pour agrandir]

 

La version 2.0 de DLSS a également apporté une modification significative au niveau de l'auto-encodeur convolutif : ce dernier est à présent commun à tous les jeux (facilitant et accélérant ainsi son intégration au processus de création). Toutefois, il est toujours nécessaire de générer (via apprentissage profond ou Deep Learning dans la langue de Shakespeare) un DNN Model spécifique à chaque jeu, par le biais de ce réseau de neurones. À noter également que cette seconde itération du DLSS permet de choisir 3 niveaux de qualité différents, afin de laisser le choix à l'utilisateur de privilégier la performance ou la qualité. En pratique, il s'agit de faire varier la définition de rendu avant d'inférer les images qui seront affichées. La version 2.1 a apporté un 4ème niveau de détails et la version 2.2 lancée discrètement plus tôt dans l'année, est censée améliorer le phénomène de ghosting. Mais ce dernier restait encore trop présent dans certains jeux, c'est pourquoi les verts ont retravaillé encore leur technologie, en particulier au niveau des vecteurs de mouvements, afin de proposer une solution avec ce DLSS 2.3.

 

DLSS 2.3 [cliquer pour agrandir]

 

Le SDK de ce nouveau DLSS 2.3 est d'ores et déjà disponibles pour les développeurs, Doom Eternal et Cyberpunk en tirent déjà partie au sein des dernières versions qui vont être publiées sous peu. Les mises à jour pour d'autres jeux devraient suivre également, par le biais de pilotes ou patchs. Le caméléon insiste sur la supériorité visuelle de son DLSS par rapport à un upscaler spatial ne faisant pas appel à l'IA tel le FSR, ce que nous avons effectivement constaté dans plusieurs jeux proposant les 2 solutions. Selon les verts, les tests de performance entre les 2 solutions devraient tenir compte du différentiel visuel pour éviter de comparer des carottes et des choux. En gros, il faudrait positionner le FSR Ultra Qualité en face du DLSS Performance... Toutefois, les écarts visuels ne sont pas toujours si flagrants selon les jeux et le DLSS pas exempt non plus de certains défauts visuels. Il nous reste donc à évaluer par nos propres moyens ce que vaut réellement cette version 2.3, avant de statuer si oui ou non, elle améliore significativement le résultat des précédentes itérations. Pour ceux désireux d'en apprendre un peu plus, Nvidia propose une vidéo détaillant sa technologie et les nouveautés de la dernière version.

 

 

Nvidia rappelle également qu'il propose depuis 2019 son propre upscaling spatial couplé à un filtre de netteté au sein de ses pilotes (et GFE). Cette solution a accompagné le lancement des GTX 16 qui sont dépourvues de Tensor Cores et ne peuvent en conséquence tirer parti du DLSS. Pourquoi ce rappel ? À cause du FSR concurrent bien entendu, les verts souhaitant mettre en évidence que selon eux, ce dernier n'est qu'un "rattrapage" de leur propre upscaler spatial mais en aucun cas du DLSS. La solution d'AMD avait toutefois l'avantage de disposer d'un SDK open source permettant son implémentation directe au sein du jeu, et donc fonctionnelle avec tout type de hardware. Nvidia le propose à son tour en lui donnant un petit nom qui va bien, à savoir NIS pour Nvidia Image Scaling.

 

NIS SDK [cliquer pour agrandir]

 

Quid des performances et de la qualité perçue ? Eh bien selon le caméléon, leur propre solution est équivalente voir supérieure dans ces 2 domaines à la concurrence, et fournit diverses copies d'écrans attestant la chose (cf. ci-dessous). Soyons clairs, il ne faut pas attendre autre chose de la part d'un des protagonistes que de mettre en avant sa propre solution, en choisissant pour cela les scènes et jeux favorables. Nous ne nous engagerons donc sur ce terrain qu'une fois que nous aurons procédé à nos propres tests, ces assertions doivent donc être prises avec du recul.   

 

Natif vs FSR vs NIS vs DLSS [cliquer pour agrandir]

 

Malgré tout, s'il faut bien reconnaitre une qualité à Nvidia, c'est de proposer des outils permettant aux testeurs, mais aussi aux utilisateurs de vérifier leurs propres dires. On pense ainsi à Frameview, mais aussi à Reflex Latency Analyser entre autres. Et un nouveau voit le jour, ICAT pour Image Comparison & Analysis Tool. Même les anglophobes ont dû saisir le sens, puisqu'il s'agit d'un outil de comparaison d'images, même si ce terme est légèrement restrictif. En pratique, c'est un logiciel de montage vidéo qui va permettre la comparaison parfaitement synchronisée de 2 à 4 séquences vidéos côte à côte (et possibilité de capturer des images parmi celles-ci bien entendu). Rien de nouveau sous le soleil pour les adeptes de Vegas Pro ou Da Vinci Resolve pour ne citer qu'eux, toutefois ICAT est gratuit et beaucoup plus simple d'emploi, car se limitant à cet usage. 

 

 

ICAT [cliquer pour agrandir]

 

Pourquoi donc un outil vidéo ? Eh bien tout simplement parce qu'un certain nombre d'artefacts visuels, ne sont pas apparents avec une simple image, il faut impérativement une vidéo pour les appréhender. À noter également que les sources vidéos ne peuvent pas être acquises via Shadow Play, puisque ce dernier va capturer les images en amont de l'application des techniques d'upscaling. Il faut donc utiliser dans un premier temps une carte d'acquisition vidéo, Nvidia indiquant travailler sur une évolution de Shadow Play pour permettre une acquisition représentative de l'image affichée à l'écran lorsqu'un upscaler est utilisé. Pour finir, le caméléon propose un nouveau pilote pour profiter des nouveautés annoncées et optimisation dédiées à Battlefield 2042, dont vous retrouverez le lien ci-dessous.

 

Un poil avant ?

Une double Aurora chez Alphacool, c'est zouli !

Un peu plus tard ...

Un autre test pour BF2042

Nvidia annonce une nouvelle version de son DLSS, censée améliorer la qualité visuelle, en particulier la suppression des artefacts de type Ghosting. Il lance également un outil gratuit (ICAT) de comparaison visuelle, permettant de monter et synchroniser aisément des flux vidéos. Enfin, un nouveau pilote intégrant une version plus récente de GFE facilite l'usage de NIS, l'upscaling spatial du caméléon

temps de concentration afin de cerner l'ensemble des subtilités de ce billet un pouillème moins de 6 minutes

Sur le comptoir, au ~même sujet

 
 
 
 
 
 
 
 
 
 
 
 



Suivez-nous sur G.Actualités
Les 28 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Eric B., le Lundi 22 Novembre 2021 à 19h39  
par Dylem le Lundi 22 Novembre 2021 à 15h24
Toujours aucun DLSS 2.3 sur Cyberpunk.
Ben oui, mais comme on ne bosse pas chez CD Red Projekt, on ne connait pas les raisons de ce report. Probablement des bugs de dernière minute, ça finira bien par sortir j'imagine.
par Dylem, le Lundi 22 Novembre 2021 à 15h24  
par Eric B. le Mercredi 17 Novembre 2021 à 09h42
Non toujours pas, je pense que les développeurs échaudés par le lancement calamiteux du jeu doivent être prudents à présent :-). Par contre Hellblade Senua's sacrifice a été mis à jour pour apporter le support du RT, mais aussi du DLSS et du FSR. Bon c'est pas un jeu tout récent, mais c'est toujours sympa de voir des jeux qui progressent encore plusieurs années après leur sortie.
Toujours aucun DLSS 2.3 sur Cyberpunk.
par Eric B., le Mercredi 17 Novembre 2021 à 09h53  
Je n'ai pas encore testé, mais généralement l'intégration du RT sur l'UE4 est gourmande sans être la plus visible qui soit. Pour le HDR c'est ballot.
par Dylem, le Mercredi 17 Novembre 2021 à 09h46  
par Eric B. le Mercredi 17 Novembre 2021 à 09h42
Non toujours pas, je pense que les développeurs échaudés par le lancement calamiteux du jeu doivent être prudents à présent :-). Par contre Hellblade Senua's sacrifice a été mis à jour pour apporter le support du RT, mais aussi du DLSS et du FSR. Bon c'est pas un jeu tout récent, mais c'est toujours sympa de voir des jeux qui progressent encore plusieurs années après leur sortie.
Oui, dommage que pour Hellblade Senua's le jeu rame, et qu'il n'y ait plus de HDR.
par Eric B., le Mercredi 17 Novembre 2021 à 09h42  
par Dylem le Mercredi 17 Novembre 2021 à 08h49
Toujours aucune nouvelle de la MAJ Cyberpunk 2077.
Non toujours pas, je pense que les développeurs échaudés par le lancement calamiteux du jeu doivent être prudents à présent :-). Par contre Hellblade Senua's sacrifice a été mis à jour pour apporter le support du RT, mais aussi du DLSS et du FSR. Bon c'est pas un jeu tout récent, mais c'est toujours sympa de voir des jeux qui progressent encore plusieurs années après leur sortie.
par Dylem, le Mercredi 17 Novembre 2021 à 08h49  
par Thibaut G. le Mardi 16 Novembre 2021 à 16h27
nvidia nous signale que la MAJ pour Cyberpunk sera ajoutée le 16 novembre, mais avec le décalage horaire, ça risque d'arriver tard ou demain. Il faudra la MAJ et aussi le dernier pilote Geforce
Toujours aucune nouvelle de la MAJ Cyberpunk 2077.
par LidtZig, le Mercredi 17 Novembre 2021 à 08h24  
par Nicolas D. le Mercredi 17 Novembre 2021 à 03h12
AMD ont toujours été les russes de la tech. Faire bien avec peu de moyens, quand nVidia ou Intel se "contente" de cracher du cash. En soit, même si, de facto, c'est souvent un pwal moins performant, je trouve les solutions AMD souvent ingénieuses. J'aime vraiment bien la culture d'entreprise d'AMD, même si tout n'est pas rose non plus et que parfois, c'est vraiment du bidouillage.

AMD est aussi à l'origine de bon nombre de technologies actuelles (multi cores, multi-socket, x64, APU ...)

EDIT : d'ailleurs, AMD a tout plein de programmes d'inclusion, de diversité et d'éducation. Je n'ai rien trouvé pour nVidia.
par Nicolas D., le Mercredi 17 Novembre 2021 à 03h12  
par _m_ le Mardi 16 Novembre 2021 à 20h50
On parle d'AMD tout de même. Ils ne doivent pas manquer de ressources ni de talents. Et comme c'est open source, ils peuvent même recevoir de l'aide extérieur (studio, chercheurs, etc... )
Hum, c'est plus dans le sens entreprise -> chercheurs que ça va ; et, clairement, la division AMD recherche ne fait pas le poids face à celle de NVIDIA (suffit de voir le support tensorflow / keras sur AMD... tristement !). Il faut aussi bien voir que faire de la recherche en info (quel algo prendre, qu'est-ce qui est mieux que quoi) c'est des contraintes bien différentes du monde de l'industrie et du réellement applicable. Le FSR est déjà une réponse surprenamment au point face à ce que le DLSS a dû requérir à mon avis. Il est même possible que le TAA ait été envisagé et repoussé pour cause de souci d'implem' - même si c'est peu probable, et qu'une éventuelle version 2 du FSR sauce TAA semble plus plausible à mon sens... ou un passage aux DNN (plausible aussi vu l'architecture de plus en plus matricielle de RDNA).
par Un pilote de Fuego embusqué, le Mardi 16 Novembre 2021 à 20h58  
par Nicolas D. le Mardi 16 Novembre 2021 à 18h42
Ça n'est pas nécessaire, le TAA est également basé sur des images en mouvements par exemple, mais personne n'a encore fait de solution démocratisée pour l'upscaling + TAA sans réseau de neurones (entre autre parce qu'il faut se creuser les méninges, alors que le réseau de neurones consiste à prendre une structure existante de DNN/CNN et générer ton dataset d'apprentissage pour avoir un résultat intéressant ; + le fait que IA c'est vendeur en ce moment, et qu'il faut bien utiliser les tensor cores )
L'Unreal Engine sait faire de l'upscale à base de TAA, et ce sans IA, vu le nombre de jeux qui utilise ce moteur, c'est pas loin d'être démocratisé. La vidéo de Digital Foundry montre ce que donne l'upscale via TAA de l'Unreal Engine sur Kingshunt, c'est clairement supérieur au FSR.

D'ailleurs le TAA est devenu le plus très courant, tout comme les jeux ne tournant pas à la résolution native sur console, du coup je dirais que TAA+upscale sans IA est déjà démocratisé.

Nvidia essaye d'ajouter de l'IA pour faire mieux, et il n'y a pas de solution externe démocratisée car le TAA est intégré à de plus en plus de jeux. Je ne sais plus quel jeu va utiliser le FSR sur chaque image en plus du TAA.
par _m_, le Mardi 16 Novembre 2021 à 20h50  
par Nicolas D. le Mardi 16 Novembre 2021 à 19h37
Juste qu'il faut du temps et des gens calés en algo d'image pour designer ça et des gens calés en GPU pour implémenter ça efficacement, voir quelqu'un de calé dans les deux domaines pour avoir qqc d'efficace. Face à un NVIDIA qui a déjà des Tensor Cores dans ses cartes pour du ML, la tâche est pas évidente... Surtout que le FSR est compatible avec des vieilles cartes pour un coût en perf très léger, alors rajouter des infos temporelles seraient plus coûteux au niveau du taux de FPS à mon avis. Rien que le FSR est déjà un bricolage de qualité, en soit
On parle d'AMD tout de même. Ils ne doivent pas manquer de ressources ni de talents. Et comme c'est open source, ils peuvent même recevoir de l'aide extérieur (studio, chercheurs, etc... )
Mais ainsi donc, rien n'empêcherait que cela puisse arriver dans une version 2 ou ultérieure. C'est bon à savoir
par LidtZig, le Mardi 16 Novembre 2021 à 20h43  
par _m_ le Mardi 16 Novembre 2021 à 18h48
Le FSR est un upscaling spatial, le DLSS un upscaling temporel assisté par IA.
Et je me demande en fait (ma vrai question) pourquoi le FSR ne se contente que d'analyser l'image en cours, et pas le ou les images précédentes. Je trouve que ça serait plus efficace.
Sans IA, c'est pas possible? Trop lourd en calcul ou qqch comme ça?
Il serait pertinent de comparer avec le DLSS 1.

Après, bon. J'avoue que là, techniquement, j'ai du mal à suivre.
par Dylem, le Mardi 16 Novembre 2021 à 20h02  
par Un ragoteur pas hype en Auvergne-Rhône-Alpes le Mardi 16 Novembre 2021 à 19h50
ah ben si , le but recherché est le même (plus d'ips pour une définition donnée avec une perte moindre de détails)
que l'un intègre des transistors avec un développement en continu derrière et que l'autre se contente d'une solution soft 3 ans plus , c'est le moyen qui change avec des résultats qui s'en ressentent c'est sûr

nan mon commentaire parlait vraiment de certains problèmes de qualité en natif AA versus le down/upscale/étrirement/toutcequetuveux et d'un besoin d'IA pour résoudre le problème , mais du coup le commentaire est un poil à coté de la plaque (mal compris le premier comm' , mal exprimé ce que je voulais dire , ....)

'fin bref , au vu du slide comparatif , il y a clairement besoin d'IA pour afficher les pixels manquants des lettres du natif quoiqu'il en soit (espéront que ce soit un détail ridiculement petit zoomé a fond , parce si c'est une partie du hud , il y a clairement un problème d'affichage), à moins que ce soit une police spéciale illisibilité pour la démo
Ce genre de comparaison c'est toujours zoomé.