COMPTOIR
  
register

×

Gabe N. : Hihihi, merci Jensen !

Nvidia DLSS 2.1, une bonne nouvelle pour la réalité virtuelle ?
Gabe N. : Hihihi, merci Jensen !

C’est un fait bien connu, la réalité virtuelle est une activité gourmande (et coûteuse) exigeant généralement un matos assez costaud sur PC, où il sera généralement préférable de maintenir un framerate constant entre 80 et 90 ips pour obtenir une latence minimale. Cela signifie souvent devoir faire un compromis entre l’efficacité du rendu et la fidélité visuelle. Mais le DLSS de Nvidia — pour Deep Learning Supersampling — pourrait prochainement potentiellement venir changer un peu (beaucoup ?) la donne.

 

En effet, avec les RTX 30, leurs évolutions architecturales et un tas d’autres nouveautés logicielles, arrivera aussi DLSS 2.1 ! Visiblement, avant tout une variation mineure du DLSS 2.0 introduit seulement en mars dernier, là où d’autres auraient peut-être plutôt attendu un DLSS 3.0 pour marquer le coup avec la nouvelle génération.

Ainsi, tel que confirmé par NVidia dans son Q&A sur Reddit, le SDK DLSS 2.1 désormais en distribution inclut trois mises à jour principales : un mode ultra-performance pour du jeu en 8K (avec une option de scaling x9 spécialement pour la RTX 3090), le support d’une définition dynamique et le support de la réalité virtuelle !

 

Gabe N. : Hihihi, merci Jensen ! [cliquer pour agrandir]

 "Comme ça ils arrêteront enfin d'y voir des trucs qui n'existent pas, didiou !"

 

Rappelons que le DLSS est une technique d’amélioration de l’image et des performances via upscaling grâce à l’intelligence artificielle, et s’appuyant sur les Tensor Cores introduits avec Turing. Ces derniers étant a priori encore bien améliorés avec la génération Ampere, il y a de quoi imaginer que la méthode — à l’efficacité variable, mais aussi reconnue — n’en sera que plus performante avec les RTX 30, assez pour s’en servir dans le domaine de la VR.

Nvidia n’a toutefois pas mentionné la manière dont cela fonctionnera ni des spécificités liées au domaine. En tout cas, ce sera toujours aux développeurs d’intégrer la solution dans leurs titres. Par exemple, on pourrait imaginer qu’un jeu soit rendu à 1440 x 800 sur un Valve Index, puis upscallé à 2880 x 1600 avec DLSS, la définition native combinée du casque. En principe, cela libérerait le GPU d’une bonne charge de travail et dont la puissance sera donc disponible pour servir ailleurs, par exemple sur des effets visuels  - et pourquoi pas du ray tracing — ou tout simplement obtenir plus d’images par seconde pour réduire encore la latence.

 

Nvidia n’a pas donné de date de lancement pour DLSS 2.1. Logiquement, cela devrait se faire en même temps que tout le reste, nouveautés logicielles et hardware, donc à partir du 17 septembre ? De plus, les RTX 2000 devraient également en profiter. Le connecteur VirtualLink a disparu, mais ça ne veut pas dire que la réalité virtuelle sera désormais oubliée pour autant. Bref, le DLSS au secours de la VR pour réduire les exigences hardware et de performances, et donc améliorer sa viabilité ? L’avenir nous le dira. (Source)

Un poil avant ?

Déploiement FttH Q2 2020 : les travaux pour l'installation de la fibre en France vs la Covid-19

Un peu plus tard ...

Premières RTX 3090 et 3080 custom référencées pas loin, et ça donne quoi ?

Les 20 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Deus, le Mercredi 09 Septembre 2020 à 17h17  
par Sgt Tagazou, le Mercredi 09 Septembre 2020 à 17h00
Je parlais des jeux actuels plus gourmands.
Il ne faut pas que ce soit excuse pour moins optimiser les jeux.

CS GO, c'est vrai que c'est incompréhensible, sachant que Dota 2 est lui compatible avec Vulkan.

Le hack tu parles de DXVK ?
ouais, ya quelques jeux CPU limited D3D9 qui prennent un bon petit boost en copiant collant la d3d9.dll de DXVK a la racine de l'exe ou l'empacement des .dll, meme sous windows ! pour peu que ca marche.
par Sgt Tagazou, le Mercredi 09 Septembre 2020 à 17h00  
par Deus, le Mercredi 09 Septembre 2020 à 14h44
Le probleme de ces jeux je pense c'est surtout le CPU, et ca malheureusement baisser la resolution interne de rendu (ce que fait DLSS) n'aidera pas beaucoup donc les gens baissent les graphismes plus pour alleger les draw calls du CPU que le moteur de rendu.
Je pense par exemple a CS:GO qui utilise toujours honteusement Direct3D9 alors que c'est une API pas du tout efficient sur le CPU (dailleurs peut etre que le Vulkan hack marche sur ce jeu ? affaire a suivre lol)
Je parlais des jeux actuels plus gourmands.
Il ne faut pas que ce soit excuse pour moins optimiser les jeux.

CS GO, c'est vrai que c'est incompréhensible, sachant que Dota 2 est lui compatible avec Vulkan.

Le hack tu parles de DXVK ?
par Deus, le Mercredi 09 Septembre 2020 à 14h44  
par Sgt Tagazou, le Mercredi 09 Septembre 2020 à 11h57
Bizarre qu'il n'y ai pas plus de jeux multijoueur l'ayant intégré, ça permettrai de faire du HFR sans devoir baisser les options graphiques.

Manque plus qu'a régler certains effets de trainée sur des objets en mouvement, et certains artéfacts qui apparaissent et ce sera parfait.
Le probleme de ces jeux je pense c'est surtout le CPU, et ca malheureusement baisser la resolution interne de rendu (ce que fait DLSS) n'aidera pas beaucoup donc les gens baissent les graphismes plus pour alleger les draw calls du CPU que le moteur de rendu.
Je pense par exemple a CS:GO qui utilise toujours honteusement Direct3D9 alors que c'est une API pas du tout efficient sur le CPU (dailleurs peut etre que le Vulkan hack marche sur ce jeu ? affaire a suivre lol)
par Sgt Tagazou, le Mercredi 09 Septembre 2020 à 11h57  
Bizarre qu'il n'y ai pas plus de jeux multijoueur l'ayant intégré, ça permettrai de faire du HFR sans devoir baisser les options graphiques.

Manque plus qu'a régler certains effets de trainée sur des objets en mouvement, et certains artéfacts qui apparaissent et ce sera parfait.
par CYCGalaxy, le Mercredi 09 Septembre 2020 à 11h15  
par m en Île-de-France, le Mercredi 09 Septembre 2020 à 10h55
Non, je pense que ce qu'il voulait souligner, c'est que dans la news, il est dit que c'est aux développeur d'intégrer cette utilisation dans leur titres.
Pourquoi ne pas activer cette technologie hardware directement par le driver, afin que tous les titres, anciens comme nouveaux, puissent en bénéficier?
Hum, chaque moteur de jeu est codé différemment, mets de l'essence dans une voiture diesel et dit nous le résultat, ce sera certainement plus ou moins le même merdier.

Après, c'est cool que NVIDIA se bouge le cul pour nous sortir ces features, pour rappel, l'image native en très haute résolution n'est accessible que par des machines de luxe, grave à Nvidia, ce trompe oeil qu'est le DLSS nous permet de rêver à moindre frais. Oui les cartes sont cheres... mais sans cette technologie il faudrait des SLI pour faire tourner les jeux en 8K etc

Après, si vous m'offrez un SLI de 3090, alors oui je pourrai vous faire un retour exclusif
par m en Île-de-France, le Mercredi 09 Septembre 2020 à 10h55  
par Scrabble, le Mercredi 09 Septembre 2020 à 09h32
Le seul intérêt du DLSS, c'est d'augmenter les performances en utilisant les tensors cores du GPU. Si c'était émulé de manière logicielle dans le driver, il n'y aurait aucune amélioration des performances.
Non, je pense que ce qu'il voulait souligner, c'est que dans la news, il est dit que c'est aux développeur d'intégrer cette utilisation dans leur titres.
Pourquoi ne pas activer cette technologie hardware directement par le driver, afin que tous les titres, anciens comme nouveaux, puissent en bénéficier?
par Un ragoteur blond en Île-de-France, le Mercredi 09 Septembre 2020 à 10h36  
par Deus, le Mercredi 09 Septembre 2020 à 09h51
La meme ! si ils sont capable de faire de l'emulation CUDA pour RTX, ils en sont capables pour DLSS aussi...
Le DLSS 1.9 qui était sur Control utilisait les coeurs CUDA au lieu des tensor cores
par Deus, le Mercredi 09 Septembre 2020 à 09h51  
par Un ragoteur RGB de Normandie, le Mercredi 09 Septembre 2020 à 07h48
Parce que personne n'achèterait la nouvelle génération, boudiou!
Moi qui ai une 1080 Ti encore vaillante mais qui en changera sûrement dans les six prochains mois, si demain le DLSS3.0 est activé dessus, je la garde jusqu'à ce qu'elle crame, voire plus !
La meme ! si ils sont capable de faire de l'emulation CUDA pour RTX, ils en sont capables pour DLSS aussi...
par Deus, le Mercredi 09 Septembre 2020 à 09h49  
par Scrabble, le Mercredi 09 Septembre 2020 à 09h32
Le seul intérêt du DLSS, c'est d'augmenter les performances en utilisant les tensors cores du GPU. Si c'était émulé de manière logicielle dans le driver, il n'y aurait aucune amélioration des performances.
Justement non !!!!! Ca n'est pas le seul interet de DLSS ! DLSS (a partir de la version 2.0 du moins) augmente considerablement la qualite de l'image et surtout de l'image en mouvement compare a TAA, la difference est enorme. Je serai pret a perdre des FPS pour avoir le rendu de DLSS sur plein de jeux !
par Scrabble, le Mercredi 09 Septembre 2020 à 09h32  
par Un ragoteur qui draille en Île-de-France, le Mercredi 09 Septembre 2020 à 06h39
Cette techno est vraiment géniale mais une chose que je ne comprend pas : Pourquoi ne peut elle pas être intégré au driver afin de pouvoir en profiter sur tous les jeux (comme le DRS, même si ce dernier est bien moins complexe) ?
Le seul intérêt du DLSS, c'est d'augmenter les performances en utilisant les tensors cores du GPU. Si c'était émulé de manière logicielle dans le driver, il n'y aurait aucune amélioration des performances.
par Hamster1er, le Mercredi 09 Septembre 2020 à 09h26  
par Un ragoteur qui draille en Île-de-France, le Mercredi 09 Septembre 2020 à 06h39
Cette techno est vraiment géniale mais une chose que je ne comprend pas : Pourquoi ne peut elle pas être intégré au driver afin de pouvoir en profiter sur tous les jeux (comme le DRS, même si ce dernier est bien moins complexe) ?
Faudrait voir comment ça marche en détail, le DLSS et la différence entre les versions, et comment les tensor cores sont utilisés.

Je pense que lorsque on passe d'une version à une autre, c'est l'architecture du réseau de neurones qui change, sans doute en se complexifiant. Donc une carte avec peu de tensor core de base ne pourra pas accélérer les réseaux les plus complexes (ou pas en entier), et donc ne sera pas compatible avec la derniere version du DLSS. Dans le sens où ça ne servirait à rien d'avoir une moitié de réseau qui fait des inférences à donf, et l'autre moitié qui rame parce qu'elle n'est pas accélérée. ça ne permettrait pas d'avoir une fonction d'upscaling assez rapide pour tenir les FPS envoyés par le GPU.

C'est une hypothèse de ma part hein
par jumorolo, le Mercredi 09 Septembre 2020 à 09h16  
par Un ragoteur qui draille en Île-de-France, le Mercredi 09 Septembre 2020 à 06h39
Cette techno est vraiment géniale mais une chose que je ne comprend pas : Pourquoi ne peut elle pas être intégré au driver afin de pouvoir en profiter sur tous les jeux (comme le DRS, même si ce dernier est bien moins complexe) ?
parce que si nvidia n'ont pas pré-compilé pour ton jeu ça ne sert a rien