COMPTOIR
  
register

Le DLSS en 2020, adios 2019 et sans regret !

Nvidia avait réservé son DLSS, acronyme de Deep Learning Super Sampling, pour ses cartes Turing. Basé sur ce qu'on appelle IA, ils permettent d'afficher un antialiasing calculé  par des supercalculateurs du caméléon sur une définition supérieure, mais affiché dans une définition inférieure à celle du jeu, grâce justement aux capacités d'apprentissage des Tensor Cores de l'architecture Turing. L'objectif est de ne pas miner les performances avec un AA trop gourmand tout en offrant un rendu visuel proche du TAA, les Tensor Cores du coup bossent en permanence pour adapter le meilleur rendu possible à ce DLSS sur une définition donnée du jeu. On a pu voir dans nos divers articles que le DLSS, d'un point de vue qualitatif, était très variable d'un jeu à l'autre, mais restait globalement un peu plus flou que le TAA dans le meilleur des cas.

 

Nvidia a fait évoluer ses algorithmes en ce début d'année, et promet une qualité visuelle supérieure aux premiers DLSS parus fin 2018, au point de venir égaler le TAA. Les performances également seraient en hausse, ce qui rendrait au final ce DLSS incontournable pour tout possesseur de RTX, surtout avec Raytracing comme on l'a vu dans nos différents tests. Techspot a fait un bilan de ce DLSS nouvelle génération face à la première génération, et le verdict est assez clair : ça booste toujours aussi bien, mais le rendu est bien moins flou, complètement acceptable et conseillable. De plus, Nvidia peut désormais implémenter le nouveau DLSS via les pilotes GameReady plutôt que d'attendre un patch des développeurs de jeux. C'était important pour les verts d'améliorer ce point précis, qui restait sujet à discussion, et qui devient de plus en plus impeccable, même s'il n'est pas encore parfait.

 

nvidia new longeur

 

Un poil avant ?

Du gameplay pour Resident Evil 3, y a bon !

Un peu plus tard ...

Les premières puces Bluetooth Audio LE apparaissent chez Imagination

Les 22 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur des lumières de Bretagne, le Samedi 29 Février 2020 à 00h25  
par Un ragoteur bio en Provence-Alpes-Côte d'Azur, le Vendredi 28 Février 2020 à 18h06
Les tensor core servent a accélérer les calculs type IA, pas à faire du ray tracing (ce que font les RT cores)?????? Et donc vu que le seul interet actuel en gaming de ces tensor cores c'est le DLSS, quel est l'intérêt des tensor cores si les shader cores classiques font quasiment aussi bien????
il servent aussi pour le Ray tracing en post process pour la correction du bruit d'image
par Un ragoteur bio en Provence-Alpes-Côte d'Azur, le Vendredi 28 Février 2020 à 18h06  
par radada, le Jeudi 27 Février 2020 à 18h07
En parlant de tensors cores ; j'ai lu dans un article (promotionnelle sur la prochaine xboite) que le ray-tracing étais utiliser sur toutes les sources y compris le son????????
Le but des tensor-cores??????????
Les tensor core servent a accélérer les calculs type IA, pas à faire du ray tracing (ce que font les RT cores)?????? Et donc vu que le seul interet actuel en gaming de ces tensor cores c'est le DLSS, quel est l'intérêt des tensor cores si les shader cores classiques font quasiment aussi bien????
par Un adepte de Godwin en Bourgogne-Franche-Comté, le Vendredi 28 Février 2020 à 07h37  
par Un ragoteur Gaulois de Bretagne, le Vendredi 28 Février 2020 à 05h13
tu snifes trop de colle
à quoi ça rime de comparer du hdg avec du mdg
A la base, ton affirmation ridicule était, je cite : "Sortir des nouvelles feature pas encore au point et maitrisés seulement au bout de quelques années c'est arrivé régulièrement ( Shader, HDR, tessellation )
mais les faire financer directement par les acheteurs, ça c'est une première "
Donc dis nous qui finance les nouvelles features des produits qui nous sont vendus ? A part les acheteurs, je vois pas qui donne de l'argent pour ça. Sinon, c'est justement l'écart de prix entre les cartes courantes et ce haut de gamme, dont tu décries le prix abusé, qui te fait dire ça.
par Un adepte de Godwin en Bourgogne-Franche-Comté, le Vendredi 28 Février 2020 à 07h33  
par Un ragoteur Gaulois de Bretagne, le Vendredi 28 Février 2020 à 05h13
tu snifes trop de colle
à quoi ça rime de comparer du hdg avec du mdg
la puce leader avant la sortie du geforce 256, c'était la woodoo3 et elle valait 1500 balles auquel il fallait rajouter le prix d'une carte 2d
la geforce 256 vallait entre 2100 et 2400 en ddr et 1500 fr en sdr
le gap de perfs entre les deux était énorme de base et il s'est accentué avec le temps
rappelle moi quel est le gap de perf en pascal et turing

désolé, mais tu racontes de la merde, elle était à peine plus cher qu'une woodoo 3 et encore si on considère la version SDR qui proposait un gros gap de perf déjà, elle était même moins chère car il n'y avait pas besoin de rajouter une carte 2d
les features c'était juste du bonus

sources : les test hfr de l'époque que je t'invite à lire histoire de te rafraichir la mémoire
Oui c'est ça, quand tu n'as pas d'arguments, tu deviens grossier. De 1500 à 2500 francs, c'est à peine plus cher... Les 3dfx ne nécessitaient plus de cartes 2d après la voodoo 2. Donc je ne sais pas qui raconte de la merde comme tu dis, mais oui, tu devrais aller voir sur hfr car ça te remettra les idées en place.
par Un ragoteur Gaulois de Bretagne, le Vendredi 28 Février 2020 à 05h13  
par en Bourgogne-Franche-Comté, le Vendredi 28 Février 2020 à 00h34
Oui, on a tous oublié les geforce 256 révolutionnaires dont les jeux ne tiraient pas partie à leur sortie. Ces cartes coutaient dans les 2500 francs quand une carte moyen de gamme tirait dans les 700 francs. Mais non, c'est une première de faire financer les nouvelles features par les acheteurs. A d'autres, reviens sur terre, ça s'est toujours fait et ça se fera encore.
tu snifes trop de colle
à quoi ça rime de comparer du hdg avec du mdg
la puce leader avant la sortie du geforce 256, c'était la woodoo3 et elle valait 1500 balles auquel il fallait rajouter le prix d'une carte 2d
la geforce 256 vallait entre 2100 et 2400 en ddr et 1500 fr en sdr
le gap de perfs entre les deux était énorme de base et il s'est accentué avec le temps
rappelle moi quel est le gap de perf en pascal et turing

désolé, mais tu racontes de la merde, elle était à peine plus cher qu'une woodoo 3 et encore si on considère la version SDR qui proposait un gros gap de perf déjà, elle était même moins chère car il n'y avait pas besoin de rajouter une carte 2d
les features c'était juste du bonus

sources : les test hfr de l'époque que je t'invite à lire histoire de te rafraichir la mémoire
par en Bourgogne-Franche-Comté, le Vendredi 28 Février 2020 à 00h34  
par Unragoteursansespace de Bretagne, le Jeudi 27 Février 2020 à 22h51
Alors pourquoi tu dis ça ?

Sortir des nouvelles feature pas encore au point et maitrisés seulement au bout de quelques années c'est arrivé régulièrement ( Shader, HDR, tessellation )
mais les faire financer directement par les acheteurs, ça c'est une première
Et je pense pas qu'il faille le cautionner
Oui, on a tous oublié les geforce 256 révolutionnaires dont les jeux ne tiraient pas partie à leur sortie. Ces cartes coutaient dans les 2500 francs quand une carte moyen de gamme tirait dans les 700 francs. Mais non, c'est une première de faire financer les nouvelles features par les acheteurs. A d'autres, reviens sur terre, ça s'est toujours fait et ça se fera encore.
par Unragoteursansespace de Bretagne, le Jeudi 27 Février 2020 à 22h51  
par Aquina, le Jeudi 27 Février 2020 à 21h16
Bah j'ai pas acheté de Turing donc je me suis pas fait entubé
Alors pourquoi tu dis ça ?

Sortir des nouvelles feature pas encore au point et maitrisés seulement au bout de quelques années c'est arrivé régulièrement ( Shader, HDR, tessellation )
mais les faire financer directement par les acheteurs, ça c'est une première
Et je pense pas qu'il faille le cautionner
par Thibaut G., le Jeudi 27 Février 2020 à 22h31  
par Un ragoteur qui pipotronne en Île-de-France, le Jeudi 27 Février 2020 à 21h31
L'un des intérêts du DLSS c'est de se servir des IA cores qui servent à rien en jeu autrement et qui sont des unités séparées dont on peut se servir sans léser le compute, alors que les autres modes font appel au CPU et au compute, donc vont ralentir le jeu.
Ce qu'on peut conclure c'est que à la sortie de Turing, les cartes Nvidia n'avaient que du hardware non utilisé, avec des pilotes faits à la sauvette, et qu'il leur a fallu 2 ans pour les optimiser. Par ailleurs il semble que le hardware a été sorti lui-même à la va-vite pour créer un effet de nouveauté et qu'il est très mal optimisé dans la Ray trace. Et donc on est en droit d'attendre beaucoup d'Ampère et de RDNA 2 dans le raytrace comparativement à Turing, côté hardware et pilotes.
bullshit certified by Jemporte
par Un ragoteur qui pipotronne en Île-de-France, le Jeudi 27 Février 2020 à 21h31  
L'un des intérêts du DLSS c'est de se servir des IA cores qui servent à rien en jeu autrement et qui sont des unités séparées dont on peut se servir sans léser le compute, alors que les autres modes font appel au CPU et au compute, donc vont ralentir le jeu.
Ce qu'on peut conclure c'est que à la sortie de Turing, les cartes Nvidia n'avaient que du hardware non utilisé, avec des pilotes faits à la sauvette, et qu'il leur a fallu 2 ans pour les optimiser. Par ailleurs il semble que le hardware a été sorti lui-même à la va-vite pour créer un effet de nouveauté et qu'il est très mal optimisé dans la Ray trace. Et donc on est en droit d'attendre beaucoup d'Ampère et de RDNA 2 dans le raytrace comparativement à Turing, côté hardware et pilotes.
par Aquina, le Jeudi 27 Février 2020 à 21h16  
par Unragoteursansespace de Bretagne, le Jeudi 27 Février 2020 à 20h33
nan mais c'est clair
toujours en train de se plaindre
j'espère qu'Ampère sera encore plus cher pour justifier les nouvelles features qui seront exploitées dans 10 ans
c'est vraiment formidable de se faire entuber comme ça
Bah j'ai pas acheté de Turing donc je me suis pas fait entubé
par Unragoteursansespace de Bretagne, le Jeudi 27 Février 2020 à 20h33  
nan mais c'est clair
toujours en train de se plaindre
j'espère qu'Ampère sera encore plus cher pour justifier les nouvelles features qui seront exploitées dans 10 ans
c'est vraiment formidable de se faire entuber comme ça
par Aquina, le Jeudi 27 Février 2020 à 16h40
Si je suis ton raisonnement alors faut jamais lancer de "nouvelle" techno ( le RT c'est pas nouveau ) parce que c'est toujours trop gourmand pour ce que ça apporte , donc en fait faut revenir aux premiers jeux 3D !

Oui le RT actuellement est très gourmand en ressources pour un rendu pas toujours agréable ( ou pas terrible ou pas utile , choisi l'adjectif qui te va le mieux ) , mais fallait bien le lancer un jour sur les cartes grand public , et oui en effet les premiers acheteurs ont essuyé les plâtres de cette techno , mais en même temps fallait pas s'attendre non plus a faire du RT en temps réel a 200fps en 4K non plus....

La prochaine gen de CG le supportera mieux , et celle d'après encore mieux etc etc , et ça finira par se démocratiser parce que le rendu se fera de plus en plus vite !

Nvidia a au moins le mérite de ne pas se tourner les pouces comme d'autres ( hein Intel ? ) et d'ajouter une plus valus à ces cartes gen après gen ( que ce soit en termes de perfs ou de technos ) , même si en effet ça ajoute pas mal d'euros a leurs cartes , mais dis toi que si ils avaient développé ca en interne avec du gros matos pour sortir un truc plus efficace , ta carte tu l'aurai payé 2500 ou 3000€
par radada, le Jeudi 27 Février 2020 à 18h07  
par Carbon13, le Jeudi 27 Février 2020 à 17h25
Donc apparemment dans Control le DLSS tournait sur les shader cores ?? Ça voudrait dire qu'AMD aurait pu l'utiliser dans ce jeu ou pourra utiliser quelque chose de similaire dans le futur, en plus de remettre en question l'utilité plus que discutable des tensors cores
En parlant de tensors cores ; j'ai lu dans un article (promotionnelle sur la prochaine xboite) que le ray-tracing étais utiliser sur toutes les sources y compris le son????????
Le but des tensor-cores??????????