COMPTOIR
register

FSR 1 vs FSR 2 vs DLSS 2 sur plein de GPU différents !

Avec son FSR, AMD a pris une voie philosophique identique à celle de son meilleur ennemi NVIDIA : calculer l'image dans une définition inférieure pour gagner des images par seconde, et la restituer à la définition supérieure de votre écran par le biais d'algorithmes (celui de Lanczos principalement). La différence entre les deux est importante : les rouges font faire ces calculs aux unités classiques là où NVIDIA avec son DLSS le fait par ses tensor cores. Il en ressort bien souvent une restitution plus détaillée et précise de la scène originelle chez les verts, puisque ces tensor cores calculent tout, là où le FSR ne le peut faute d'unités spécialisées.

 

Le FSR 1, comme le DLSS 1, étaient des upscalings spatial, ne sachant pas restituer convenablement l'image dès lors qu'il y avait la notion de mouvement incluse. Ce fut chose rectifiée au mieux des connaissances du moment avec le DLSS 2 et récemment le FSR 2, grâce à l'introduction des vecteurs de mouvement pour devenir un upscaling temporel. Les points d'achoppement restent les mêmes, à savoir qui fait les calculs. Par contre, le FSR reste ouvert à toutes les cartes AMVIDIA, tandis que le FSR 2 demande plus de ressources (plus de calculs) et demande Polaris et Pascal au minimum. Il ne faut pas non plus oublier, mais ce n'est pas analysé ici, que le caméléon possède aussi un upscaling pour ses non RTX avec le NVIDIA IMAGE SCALING qui se trouve dans le GeForce Experience, et qui fait exactement que le FSR... 1.

 

Techspot a fait son analyse en performances, sur diverses cartes (RX 570, GTX 1650 SUPER, RX Vega 64, GTX 1070 Ti, RX 5500 XT, RX 5700 XT, RTX 2060, RTX 2080, RTX 3060 Ti, RX 6700 XT, RX 6800 XT et RTX 3080). Il a fait FSR 1 vs FSR 2 sur la définition la plus adaptée du GPU testé, FSR 2 vs DLSS 2 sur les RTX, et le tout sur le jeu DeathLoop,  le seul qui permette ce jonglage entre les upscalings. Il en ressort quand même que le FSR 2 est moins affriolant pour les images par seconde que son ainé, et qu'il est moins efficace sur les RTX que le DLSS 2. Mais le temps qu'il se déploie, le marché continuera à avoir besoin des deux, car il y a la place pour les deux, n'en déplaise aux ayatollahs qui ne veulent que l'une au détriment de l'autre. Un possesseur de RTX voudra toujours le DLSS, tandis que les autres se satisferont toujours du FSR 2.

 

amd nvidia ruby

 

Un poil avant ?

Sniper Elite 5 passe le test des balles des GPU

Un peu plus tard ...

Bis repetita, NVIDIA dévoile des chiffres records pour Q1 2022

Les 27 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Alffir, le Mardi 31 Mai 2022 à 05h58  
par Scrabble le Lundi 30 Mai 2022 à 19h10
Nvidia comme AMD permettent de jouer dans une définition supérieure à celle de l'écran, c'est mieux que du MSAA, et ça n'introduit pas de flou (Tu peut même régler la netteté je crois)
Ca résous tous les problèmes de clignotement
"S'ils n'ont pas de pain, qu'ils mangent de la brioche".

Pourquoi sur chaque news DLSS & FSR, il faut que certains viennent poser leur crotte "ça ne sera jamais mieux qu'en réso native", "le TAA c'est flou, le MSAA c'est mieux, achète toit des lunettes" et "pour limiter le crénelage, il suffit de calculer au dessus de la réso native" ?

Si vous vous sentez sales à utiliser ces techniques et que vous préférez acheter le plus gros GPU ou rester à un écran FHD, ça vous regarde et passez à une autre news.

Ces techniques permettent d'avoir un écran 4K (génial hors jeu), d'avoir une bien meilleur image que si j'avais un écran FHD quand ces techniques existent et de jouer en 4K native sur les vieux jeux.

Et quand mon GPU sera vieux, ça fera un compromis supplémentaire pour continuer à jouer dans des conditions acceptables.
par Scrabble le Lundi 30 Mai 2022 à 19h10
Nvidia comme AMD permettent de jouer dans une définition supérieure à celle de l'écran, c'est mieux que du MSAA, et ça n'introduit pas de flou (Tu peut même régler la netteté je crois)
Ca résous tous les problèmes de clignotement
par Scrabble, le Lundi 30 Mai 2022 à 19h10  
par Alffir le Lundi 30 Mai 2022 à 17h06
Tu as sérieusement essayé RDR2 sans TAA ou DLSS ? Les détails clignotent de partout, même avec du MSAA x4 (et c'est bien gourmand).
Nvidia comme AMD permettent de jouer dans une définition supérieure à celle de l'écran, c'est mieux que du MSAA, et ça n'introduit pas de flou (Tu peut même régler la netteté je crois)
Ca résous tous les problèmes de clignotement
par Alffir, le Lundi 30 Mai 2022 à 17h06  
par BloodBrother le Lundi 30 Mai 2022 à 15h47
Autrement, on peut désactiver le TAA et mettre du MSAA dans RDR2....
Après vu que t'aime bien voir flou, ne mets pas tes lunettes, laisses tes options "spécial flouttage" et crème de la crème, procure toi un écran CRT, tu m'en diras des nouvelles !
Tu as sérieusement essayé RDR2 sans TAA ou DLSS ? Les détails clignotent de partout, même avec du MSAA x4 (et c'est bien gourmand).

Perso j'avais préféré jouer avec le TAA, même s'il est loin d'être parfait. Je viens de relancer rapidement maintenant que j'ai une RTX, le DLSS en Qualité me semble correct sur du 1080p, donc ça doit être très bien quand on a un écran avec une meilleure résolution.

L'idéal serait la possibilité d'avoir du DLAA/DLDSR pour ceux qui le souhaitent, j'ai testé un truc tordu, du DLSS Performance en 2160p sur écran 1080p, ça a l'air d'être un bon compromis détails préservés/aliasing maitrisé.
par BloodBrother, le Lundi 30 Mai 2022 à 15h47  
Autrement, on peut désactiver le TAA et mettre du MSAA dans RDR2....
Après vu que t'aime bien voir flou, ne mets pas tes lunettes, laisses tes options "spécial flouttage" et crème de la crème, procure toi un écran CRT, tu m'en diras des nouvelles !
par Alffir, le Lundi 30 Mai 2022 à 10h50  
par Un ragoteur de transit en Île-de-France le Lundi 30 Mai 2022 à 10h12
On ne peut pas créer des détails justes qui de toute façon n'existent pas dans l'image "source" car elle est de définition inférieur.
--> C'est logique et touts les comparatifs le montrent.
Le DLSS et Le FSR est intéressant quand on est limite niveau FPS mais ce sera toujours un downgrade car techniquement, c'est impossible de faire mieux qu'une image à résolution Native.
Et il suffit simplement de désactiver le DLSS sur CyberPunk, RDR2 , Fortnite etc..... pour voir que l'image est bien plus nette et exempt de défauts et artefacts du au traitement DLSS.
C'est beau de répéter les "c'est pas possible de faire mieux", mais le DLSS 2, le FSR 2.0 et le TSR de l'Unreal Engine tirent leurs infos de plusieurs images.

D'ailleurs qu'est-ce qu'on entend par "images natives" ? Car les 3 jeux que tu cites utilisent tous un TAA maison, celui de RDR2 n'est d'ailleurs pas exempt de défauts et artefacts (je n'ai pas joué aux 2 autres).

C'est une évidence que ces techniques font mieux avec une haute résolution de rendu, d'ailleurs chez Nvidia on a le DLAA qui tourne en résolution native, mais perso je préfère largement le rendu des TAA modernes même avec une échelle de résolution, que les anciennes images natives oà même avec MSAA x4 on voyait des beaux créneaux.
par Un ragoteur de transit en Île-de-France, le Lundi 30 Mai 2022 à 10h12  
On ne peut pas créer des détails justes qui de toute façon n'existent pas dans l'image "source" car elle est de définition inférieur.
--> C'est logique et touts les comparatifs le montrent.
Le DLSS et Le FSR est intéressant quand on est limite niveau FPS mais ce sera toujours un downgrade car techniquement, c'est impossible de faire mieux qu'une image à résolution Native.
Et il suffit simplement de désactiver le DLSS sur CyberPunk, RDR2 , Fortnite etc..... pour voir que l'image est bien plus nette et exempt de défauts et artefacts du au traitement DLSS.

par Sk d'Occitanie, le Lundi 30 Mai 2022 à 00h48  
Je suis désolé pour ceux qui ont gobé goulument encore une fois le discours marketing de Nvidia.

Et pourtant ayant moi même une 3070ti et un écran 4K 120Hz j'aimerai prendre ces 15fps de plus en ayant au moins la même qualité... J'en ai besoin même...

La réalité c'est dlls 1 ou 2 "l'ia" (en vrai le terme "ia" est abusif aussi mais bon) doit interpréter une image en plus basse résolution, le calcul en temps réel fait qu'il y a forcément des approximations

Sur des images fixe l'effet fonctionne et peux même être légèrement plus fin, mais certaines textures subissent l'interprétation de l'ia et on est donc plus dans la vision précise des artistes par moment (un peu plus baveux, moins précis, changement d'éclairage) et en mouvement la différence saute encore plus aux yeux avertis à mon goût.

La techno est une avancé clairement, mais pas encore sans défauts hélas.
par Alffir, le Dimanche 29 Mai 2022 à 21h19  
par BloodBrother le Dimanche 29 Mai 2022 à 19h46
Vous me faites trop Rire
Genre le DLSS 2.0 il ajoute des détails même pas programmés par les développeurs !
Vivement le DLSS 3.0 alors, qui programmera surement les jeux tout seul sans développeurs grâce a L'IA.....

Le DLSS et le FSR c'est un Upscaling = Une image de petite résolution rendue en grande résolution (pour simplifier) ; Grace au DLSS et FSR, l'upscaling est de bonne qualité mais il y aura toujours des pertes inhérentes = Textures moins fines et des effets indésirables = Flou et autres imprecisions.

Y'a des dizaines de comparatifs sur le Net (DLSS1, 2, FSR1 & 2 VS Natif) mais je mets quand même 2 liens pour ceux qui on du mal a tester leurs yeux ou qui savent pas utiliser internet....
Ici et La

Et vraiment, Si vous me dites qu'il y a plus de détails sur les textures avec DLSS que Sans, faut vraiment Consulter.....
FSR 2.0, DLSS 2.x, TSR Unreal ou XeSS d'Intel utilisent l'info de plusieurs images pour en former une.

Et pour avoir le maximum d'info de plusieurs images, ils les décalent légèrement lors du rendu :
un petit lien tout mignon

Ce qui fait qu'ils peuvent avoir plus d'information qu'une image native.

Le 1080p upscalé en 2160p est moins gourmand que du 1440p natif tout en ayant beaucoup plus de détails.
par BloodBrother, le Dimanche 29 Mai 2022 à 19h46  
Vous me faites trop Rire
Genre le DLSS 2.0 il ajoute des détails même pas programmés par les développeurs !
Vivement le DLSS 3.0 alors, qui programmera surement les jeux tout seul sans développeurs grâce a L'IA.....

Le DLSS et le FSR c'est un Upscaling = Une image de petite résolution rendue en grande résolution (pour simplifier) ; Grace au DLSS et FSR, l'upscaling est de bonne qualité mais il y aura toujours des pertes inhérentes = Textures moins fines et des effets indésirables = Flou et autres imprecisions.

Y'a des dizaines de comparatifs sur le Net (DLSS1, 2, FSR1 & 2 VS Natif) mais je mets quand même 2 liens pour ceux qui on du mal a tester leurs yeux ou qui savent pas utiliser internet....
Ici et La
Et vraiment, Si vous me dites qu'il y a plus de détails sur les textures avec DLSS que Sans, faut vraiment Consulter.....
par Jemporte, le Dimanche 29 Mai 2022 à 12h16  
par seb4771 le Dimanche 29 Mai 2022 à 10h40
Rappel du dlss "rapido" : nvidia prend une image de base ET une image en "32k rtx ultra uber" puis fait bosser les serveurs pour trouver une image propre et nette dans diverses résolutions avec une IA qui AJOUTE elle-même des détails. => d'ou une image souvent meilleure que l'original depuis le dlss 2.x qu'on avait pas du tout en 1.x.

Rappel du FSR "rapido" : système quasi identique sur la base mais SANS une AI qui peut ajouter des détails et éléments d'elle-même, d'ou la "différence" de qualité.

Ce qui entraine une + grande dégradation sur le FSR dès qu'on descend en qualité, logique donc.

Bien entendu, ça reste des détails qu'on ne peut voir que sur une image FIXE et nullement en mouvement à qualité identique (w8, comme l'ultra vs high... dingue ça :P)
C'est un énorme raccourci de parler de AI pour le DLSS. Nvidia utilise les unités de calculs destinées à calculer les tenseurs dédiés au calculs AI (inoccupés dans les calculs 3D), ce qui n'occupe pas le reste du GPU (entièrement dédié à la 3D au travers des raster et RT cores). Leur algorithme colle aux capacités et fonctionnalités de ces unités tenseur et c'est tout.
Pour ce qui est des précalculs sur leurs serveurs, c'est différent, et qui permettent de calibrer l'usage des unités destinées aux calculs AI. Ces unités ont des capacités de calcul très limitées en fonctionnalités mais sont très nombreuses et occupent globalement 1/4 du GPU.
AMD qui n'a pas de capacité AI au travers d'unités spécialisées pour calculer les tenseurs, ne peut pas utiliser cette opportunité et doit recourir aux unités standard, d'où l'obligation d'un rapport de bénéfice par rapport aux unités GPU raster et RT engagées.
par Thibaut G., le Dimanche 29 Mai 2022 à 11h32  
par seb4771 le Dimanche 29 Mai 2022 à 10h40
Rappel du dlss "rapido" : nvidia prend une image de base ET une image en "32k rtx ultra uber" puis fait bosser les serveurs pour trouver une image propre et nette dans diverses résolutions avec une IA qui AJOUTE elle-même des détails. => d'ou une image souvent meilleure que l'original depuis le dlss 2.x qu'on avait pas du tout en 1.x.

Rappel du FSR "rapido" : système quasi identique sur la base mais SANS une AI qui peut ajouter des détails et éléments d'elle-même, d'ou la "différence" de qualité.

Ce qui entraine une + grande dégradation sur le FSR dès qu'on descend en qualité, logique donc.

Bien entendu, ça reste des détails qu'on ne peut voir que sur une image FIXE et nullement en mouvement à qualité identique (w8, comme l'ultra vs high... dingue ça :P)
exactement, et c'ets pour ça que le ragoteur "anonyme" que je sais qui c'est a préféré dire le contraire en se foutant de la gueule des gens plutôt qu'apporter lui même une réponse argumentée qui l'aurait mis en difficulté
par seb4771, le Dimanche 29 Mai 2022 à 10h40  
par Scrabble le Dimanche 29 Mai 2022 à 07h15
J'ai la même opinion, je ne vois pas comment, en partant d'une image rendue dans une définition moindre, on pourrait aboutir à une meilleure qualité que l'image en définition native. Personnellement, j'aurais plutôt tendance à utiliser une définition au contraire plus élevée que celle de l'écran, en désactivant le ray-tracing si besoin
Rappel du dlss "rapido" : nvidia prend une image de base ET une image en "32k rtx ultra uber" puis fait bosser les serveurs pour trouver une image propre et nette dans diverses résolutions avec une IA qui AJOUTE elle-même des détails. => d'ou une image souvent meilleure que l'original depuis le dlss 2.x qu'on avait pas du tout en 1.x.

Rappel du FSR "rapido" : système quasi identique sur la base mais SANS une AI qui peut ajouter des détails et éléments d'elle-même, d'ou la "différence" de qualité.

Ce qui entraine une + grande dégradation sur le FSR dès qu'on descend en qualité, logique donc.

Bien entendu, ça reste des détails qu'on ne peut voir que sur une image FIXE et nullement en mouvement à qualité identique (w8, comme l'ultra vs high... dingue ça :P)