COMPTOIR
  
register

×

nvidia comparo dlss 2x t

Le DLSS 2 évolue et se prépare à ajouter un nouveau mode qualitatif
nvidia comparo dlss 2x t

Le DLSS 2 du caméléon subit plus d'améliorations que n'en avait subi le DLSS 1. Globalement, l'upscaling appliqué, entrainé via un réseau de neurones, et donc appliqué et accéléré par les tensor cores des RTX en local, permet d'afficher une image censée être de bonne qualité à partir d'une image en basse définition, afin d'une part de gagner en performance, et d'autre part éliminer toute trace d'aliasing. On a pu voir il y a quelques jours, que le DLSS 2.2.6.0 trainait dans le dernier LEGO pour lequel nous avions fait un test incluant du RDNA 2 pour la partie ray tracing.

 

A priori, l'Unreal Engine 5, qui gèrera cette technologie comme le fait l'UE4, possèderait dans ses presets un nouveau mode qualitatif. Par défaut, le DLSS 2 propose Ultra Performance (mais ultra dégradation d'image comme le FSR dans ce mode), Performance, Equilibré et Qualité. Le nouveau venu serait l'Ultra Qualité, qui devrait donc offrir un upscaling de meilleure qualité puisque rendu à partir d'une image de définition plus haute que le mode Qualité. En partant de moins bas, le rendu ne peut qu'être mieux.

 

Les gains en conséquence devraient être moindres, mais tourner autour des 20/25% en plus, ceci n'est que spéculation, mais il y en aura quand même, et forcément intéressants pour gratter des images par seconde en plus. C'est Digital Foundry qui a trouvé trace du DLSS 2.2.9.0 dans l'UE5, avec une comparaison de qualité entre 2.1.66, 2.2.6.0 et 2.2.9.0. On voit bien que le gain sur les déplacements est important, avec quasiment pas de ghosting, ce qui impliquerait que le caméléon a peaufiné encore plus son upscaling temporel, le seul qui assure le steak en cas de mouvements depuis les débuts du DLSS. Affaire à suivre, pardi !

 

nvidia comparo dlss 2x t [cliquer pour agrandir]cliquez pour agrandir

Un poil avant ?

Test • NZXT N7 Z590

Un peu plus tard ...

Texas Instrument rachète une usine de Micron pour du 300 mm

Les 32 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur qui pipotronne en Communauté Valencienne, le Lundi 05 Juillet 2021 à 19h13  
L'autre qui rage depuis des jours parce que le DLSS est une super techno et qu'AMD est incapable de suivre..
par Thibaut G., le Lundi 05 Juillet 2021 à 17h45  
@Hardbitfr/AntiZ : mais qu'est ce que tu racontes ? Désolé, mais ton pavé qui part dans tous les sens, qui prouve rien et qui fait "ouin ouin", j'ai rigolé tellement c'est nul. Je t'ai repris initialement sur le fait que tu as dénnoncé le DLSS comme n'étant pas écolo, ce qui déjà ne veut rien dire même avec ton exemple "DLSS cénul les serveurs qui bossent le DNN Model ça consomme trop", et au final tu as dévié ça en conso des cartes et en attaque perso d'un niveau indigne de maternelle. Bref t'as rien compris, et en plus tu délires sur mes positions que tu fantasmes. Je te le dis donc, on n'y arrivera pas, donc restons en là, y a trop à dire et à faire pour que ça débouche sur un truc constructif, et surtout trop de temps perdu pour une personne qui ne vient qu'envenimer pour son plaisir...A bon entendeur !
par Touche f78 en Île-de-France, le Lundi 05 Juillet 2021 à 16h34  
Ah quand le ban de ce hardbitfr?

Faudrait mieux pour lui qu'on fasse pas un sondage.
Ce type est imbuvable depuis le début.
Et à son arrivée ,c'est pas comme si il avait crée un avatar crado pour bien se faire remarquer en plus...
par HardBitFr, le Lundi 05 Juillet 2021 à 16h20  
@Thibaut

Aucune confusion avec le RIS et FSR non, certaienement pas.

Je la joue pas écolo, je décrie justement ceux qui se la jouent écolo quand ça les arrange en faisant comme eux (cf GTX 1060, etc), mais bizarrement t'en parles pas de ceux là et d'un coup c'est plus du tout écolo quand ils le font.

La GTX 480 a beau avoir eu les meilleures perfs, ça n'empêche pas qu'elle au moins a été un minimum décrié pour sa conso, raison même de l'arrivée de Kepler.
Par contre, on en a vu se plaindre de la RTX 3090 malgré sa conso record vs RX 6900 XT ? Rien, Nada.

La RTX 3090 meilleures perfs ? Me fait pas rire, la RX 6900 XT la bat en 1080p et désormais cher 1440p, le 2160p est le prochain sur la liste.

Le RT, on en reparlera quand il y aura une adoption générale et que les perfs suivront pour que ça vaille la peine. Parce que presque 3 ans plus tard on y est toujours pas.

Vega non j'ai pas oublié, mais au moins je suis pas hypocrite comme les fameux "déçus" à l'époque de la GTX 1060. L'argument de la consommation étant du coup ridicule quel que soit le camp (au cas où tu n'aurais pas compris mon point de vue), Vega 64 avait au moins le mérite de faire l'affaire sur sa cible, la GTX 1080 tandis que Vega 56 fumait la GTX 1070. Ca sert strictement de prendre la GTX 1080 Ti vs Vega 64 à part tuer la concurrence et monter les prix.

Les "torchons" ça c'est quand ça t'arranges, c'est qui d'ailleurs le Fanboy Nvidia et Intel qui est venu massivement troller puis disparaître d'Auvergne-Rhone-Alpes ? Ce que t'as fait ne se fait pas (cf Anteraks), alors soit au moins impartial sur ce point et dit qui c'est.

Complotisme ? Ok, là tu déçois, tu ne sais plus quoi dire
par Thibaut G., le Lundi 05 Juillet 2021 à 15h39  
par HardBitFr, le Lundi 05 Juillet 2021 à 15h06
blabla
Tellement d'idiotie dans ton torchon... Mais ce n'est pas bien grave, tu mélanges les générations, tu confonds le RIS avec le FSR par exemple, et tu la joues écolo. Tu oublies de dire que la conso élevée, c'est pas atroce, surtout quand la carte est celle qui a les meilleures perfs, comme c'était le cas de la GTX 480 et de la RTX 3090. Par contre c'était pas le cas de VEGA par exemple puisque tu y fais allusion sans le dire et en éludant ce point capital dans le ratio prix/perf. Bref tu t'arranges, et tu me fais dire des choses que je n'ai pas dites, comme "la concurrence existe pas". Depuis quand stp ? Tu mens comme un arracheur de dents dans ta tirade. Et le pompom : prendre le RIS pour un upscaling, c'est top. C'est tellement pareil qu'AMD a donc sorti le FSR, et ce n'est pas la première fois que tu sors ces bêtises.
Tu as bien raison, le gens ne sont pas dupes et savent mieux lire que toi. Ils savent que tu n'as rien testé et que tu es un menteur/basheur, comme ton ancien pseudo AntiZ ou Antimasse sur HFR, ou Anteraks et ses multis, les gens savent lire et ont bien lu que contrairement à ce que tu racontes, il y a la place pour les deux technos et que c'est ce qui se passe et c'est ce que j'écris partout. Et que tes prêches anti verts ou pro rouges avec tes fausses sources n'y changeront rien, ton complotisme est crasse, comme la mort de HardOCP liée au GPP (GPP qui était dégueulasse oui), etc. Garde tes menaces pour d'autres et les crédules qui boiront ton grand n'importe quoi, je ne suis pas tombé de la dernière pluie. Et tu confirmes donc que t'avais rien comme argument que l'écologie pour casser le DLSS, tout le reste est délire ou fantasme.
par boovich, le Lundi 05 Juillet 2021 à 15h28  
On s'égare sur des broutilles, vous avez raison sur certains points.
Mais le vrai gouffre énergétique et les hausses de prix des cartes graphiques, c'est ce satané minage de crypto-investissements. En particulier les crypto-investissements résistants aux ASICs plus efficients.
Sur ce point, Thibaut a raison, il faut comparer ce qui est comparable, et que tous les gamers pointent les mêmes responsables.
Après c'est clair que je respecte Linus Torvald pour le middle finger a Nvidia, on a trop privatisé, le libre c'est mieux pour tous le monde, sauf les milliardaires.
Encore quelques mois, quand le nicky minage trébuchera, on aura le sourire avec une avalanche de cartes graphiques neuves et d'occasion.
Avec l'électricité qui vient de prendre 10% sur la facture, c'est peut-être mieux de se contenter de ce que l'on a. La 3060ti, carte la plus efficiente, est quasiment introuvable.
par HardBitFr, le Lundi 05 Juillet 2021 à 15h06  
par Thibaut G., le Vendredi 02 Juillet 2021 à 21h29
Le truc écolo, t'as pas trouvé mieux pour descendre la technologie ?
Tiens, on disait pas la même chose pour ceux qui ont descendu les Radeons à la sortie des Pascal... (les fameux "déçus" ) ?
Bizarrement Ampere qui fait autant que Fermi niveau consommation démesurée, on en a aussi peu vu.
Un peu d'équilibre donc, histoire de ne pas le payer plus tard.

Ce qui est mal par contre, c'est ne pas reconnaître que la concurrence existe. Et à ce jeu là le Radeon Image Sharpening y'a même pas eu de comparaison ici ou ailleurs alors que seul TechSpot l'a fait et que ça a largement mieux fonctionné que DLSS 1.0 sans "IA" et supercalculateurs derrière, en bien plus compatible.
Et marketting oblige, AMD a été obligé de suivre inutilement (parce que han "IA" et "cores dédiés !" recyclés) Nvidia qui ne supporte le DLSS que sur 47 jeux au jour d'aujourd'hui contrairement à ce que Nvidia annonce...

Nvidia ne serait pas ce qu'il est (au point même que tout le monde craint pour ARM), ça se serait mieux passé, mais on connait la musique avec G-Sync sur laptop (ses FPGA inutiles en réalité ) et autres forçages qui ont coûté très cher à certains (HardOCP est mort juste après, ULi/ALi, etc) pour avoir dénoncé ses pratiques (GPP, etc).

Nvidia est anti-concurrentiel, et c'est pas étonnant qu'on le paye tous avec des prix de GPUs toujours plus cher pour la même gamme. Mais on "s'étonne" encore.
Donc qui monte les uns contre les autres ? Certainement des "ayatollah".

Tu peux dire autant que tu veux "Moi j'ai testé et pas vous, STFU", les gens sont pas dupes. RTX, etc ça prend pas.

La dernière fois, j'ai pas lu ton pavé digne de Jemporte niveau mise en forme, ici ce sera mon dernier effort.
par boovich, le Dimanche 04 Juillet 2021 à 12h23  
A voir la conso des super calculateurs, mais avec le DLSS 2, le calcul pour l'entrainement IA des tensor cores n'est fait qu'une fois et les tensor cores c'est 10 ou 15% de surface "gâchis" de silicium. (ça permet peut-être une meilleure répartition de la chaleur, avec plus de fréquence quand les tensor cores non utilisés)
Après ça dépend des jeux joués en compétitif. Perso le jeux le plus lourd joué en multi, c'est Warzone qui est maintenant en DLSS 2.0. Donc à comparer la conso des calculateurs vs le gain de transformation élec des joueurs Nvidia qui peuvent se contenter d'un GPU milieu de gamme moins gourmand pour des performances équivalentes.
Mais c'est vrai, tous les jeux multi gourmands devraient bénéficier du DLSS. C'est du cas par cas avec une maigre liste de jeux compatibles.
Une définition de 1080p sur une dalle 2160p devrait avoir le résultat le plus net, car 4 pixels exacts pour 1.
par HardBitFr, le Vendredi 02 Juillet 2021 à 19h54
Entre avoir le choix d'avoir de meilleures perfs sans ce gâchis de silicium sur tous les jeux et donc peut-être s'affranchir d'un besoin d'upscaling ou autre, et avoir des unités "IA" qui ne marchent que pour une poignée de jeu (47 jeux la dernière fois que j'ai check, d'autres sont en cours en fait malgré ce que Nvidia avec sa liste veut nous faire croire, quand ce sera vraiment là on verra), le choix est vite fait.

En plus des unités IA, il faut aussi des supercalculateurs pour entrainer le DLSS qui gonfleront la taille des drivers. Vachement efficient niveau consommation et CO2...
par _m_, le Dimanche 04 Juillet 2021 à 08h29  
A quand une techno qui simulera la poussière et les saleté, rendant les surfaces plus ternes mais plus réalistes?
par Un pilote de Fuego embusqué, le Samedi 03 Juillet 2021 à 20h25  
par Un adepte de Godwin embusqué, le Vendredi 02 Juillet 2021 à 06h43
Le principe c'est d'afficher la résolution native. Si ton jeu est trop gourmand tu baisses la qualité graphique. C'est un peu idiot d'acheter un écran 4k et pas être à sa résolution native. Sur des jeux multijoueurs bon nombres de joueur desactive le DLSS. Augmente les latences...
Mon écran sert moins de 50% à jouer, donc acheter une résolution plus basse uniquement pour pouvoir jouer aux jeux en résolution native, je trouve ça encore plus idiot.

Si tu pars du dogme "il faut jouer à la résolution native", alors tu ne peux pas trouver le DLSS intéressant.

Pour moi le principe c'est que ça soit joli avec le matos dont je dispose. Comme j'arrive à jouer à des jeux sans mettre tout à fond, je n'aurais pas de souci à activer le DLSS pour activer des options lourdes mais jolies ou augmenter la fluidité.
par _m_, le Samedi 03 Juillet 2021 à 12h22  
par Un ragoteur blond en Castille-et-León, le Samedi 03 Juillet 2021 à 10h30
Non le RT ne rend pas tout miroir.
Je joue pas, mais de ce que j'en ai vu jusqu'à présent à droite à gauche, ça fait très bling-bling en tout cas, et peu réaliste.
Mais la faute probablement plus aux devs qui en abusent, plus qu'à la techno.
par Un ragoteur blond en Castille-et-León, le Samedi 03 Juillet 2021 à 10h30  
Non le RT ne rend pas tout miroir.
par HardBitFr, le Vendredi 02 Juillet 2021 à 19h54
Genre le semi ray-tracing rend pas tout mirroir alors que même sans l'Unreal Engine 4 en 2014 et 2015 en fait autant sans unités RT dédiées.

Peut importe le moyen (DLSS, Radeon Image Sharpening, Nvidia Sharpening, FSR, etc), tant que ce le ratio performances/réalisme/contraintes est bon.

Entre avoir le choix d'avoir de meilleures perfs sans ce gâchis de silicium sur tous les jeux et donc peut-être s'affranchir d'un besoin d'upscaling ou autre, et avoir des unités "IA" qui ne marchent que pour une poignée de jeu (47 jeux la dernière fois que j'ai check, d'autres sont en cours en fait malgré ce que Nvidia avec sa liste veut nous faire croire, quand ce sera vraiment là on verra), le choix est vite fait.

En plus des unités IA, il faut aussi des supercalculateurs pour entrainer le DLSS qui gonfleront la taille des drivers. Vachement efficient niveau consommation et CO2...