COMPTOIR
  
register

Du Ray Tracing saucé TAA à l'étude chez NVIDIA
Que le Ray Tracing vous séduise ou non, la plus-value visuelle liée à son emploi est indéniable. Cependant, le gouffre de performance induit par son activation en a fait râler plus d'un et pour cause : le FullHD 60 FPS a du mal a passer sur une RTX 2060 pourtant vendue plus de 300€, ce qui donne un vilain sentiment de régression.
 
Pour accélérer le rendu, NVIDIA nous a vendu un DLSS utilisant un réseau de neurones afin d'affiner les images générées dans une définition moindre. La technique produit néanmoins des résultats hétérogènes, et pour cause : l'entraînement est long et effectué chez NVIDIA, ce qui n'est pas toujours compatible avec les emplois du temps serrés des éditeurs. C'est pourquoi il est peu étonnant de voir débarquer une technique non statistique d'accélération du rendu du côté des équipes de recherches vertes.
 
La firme n'est pas à son coup d'essai : si le nom TAA vous est familier, il s'agit justement du même principe appliqué à la rastérisation, c'est-à-dire réutiliser le résultat de calculs précédents couplé à l'équation du mouvement de l'objet rendu pour s'épargner des étapes de rendu inutiles. Comme quoi les idées de base des recherches sont loin d'être nouvelles... Ici, il est par contre question de rayons et non de surfaces projetées, il fallait bien adapter la technologie, té !
 
Le but du papier est ambitieux : atteindre pas moins de 240 FPS afin de cibler le segment de l'e-sport au stade compétitif - dans la théorie tout du moins puisque la fonctionnalité est encore loin d'une implémentation au sein d'un moteur de jeu grand public. En diminuant la définition de rendu d'un facteur 4 (un gros pixel pour un carré de deux pixels de large), les performances se sont envolées sans surprise, et l'algorithme de fusion temporel des images est - aux dires des chercheurs - plutôt efficace sur la qualité de l'image finale.
 
nvidia logo super cdh
On espère que ça fera un super rendu !
 
Notez en outre que, puisque le résultat est issu de la fusion de plusieurs images, la qualité se dégrade de manière très visible lorsque le nombre de FPS est insuffisant. L'idée est de masquer aux yeux du joueur un rendu inégal par un très haut taux de rafraîchissement, empêchant les yeux de distinguer les imperfections propres à une frame unique. Une des scènes de test, représentant un bar, passe ainsi d'un 60 FPS artefacté sur une RTX 2080 Ti à un 240 FPS bien plus agréable, mais qui n'efface pas totalement le bruit généré par l'insuffisance de rayons et le rendu mixte dès que l'on stoppe image par image. Une piste à creuser ?
 
Un poil avant ?

Le NVMe fait peau neuve avec sa version 1.4

Un peu plus tard ...

Combien de switchs différents chez Razer ?

Les 23 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur de transit de Bretagne, le Mercredi 19 Juin 2019 à 11h10  
par Carbon13 le Mardi 18 Juin 2019 à 17h36
Ce qui me surprend surtout c'est que le TAA n'a quasiment pas évolué depuis son introduction par l'Unreal Engine en 2014, je suis sur qu'il y aurait moyen de faire mieux que ce qu'il y a maintenant tout en restant très rapide.
2014 tu dis ?
ben voyons
par Un ragoteur qui pipotronne en Bourgogne-Franche-Comté, le Mardi 18 Juin 2019 à 18h40  
par Un ragoteur qui pipotronne en Île-de-France le Lundi 17 Juin 2019 à 23h13
Oui, pardon, à force de lire caméra même dans des articles français (en anglais caméra = appareil photo) j'ai moi-même fait l'erreur. Le système a été reconduit (mais on n'en faisait plus la pub) sur plusieurs modèles, je crois même avec plus de collimateurs.
Pour aujourd'hui, c'est normal, plus personne ne fait attention à ce qu'il photographie et la qualité photographique a perdu de sa valeur. Sa valeur était due au prix de l'argentique.
Sinon concernant les prises, non : quand je prends mon reflex (numérique) j'utilise le viseur. C'est nettement mieux, je suis plus à l'aise, et les photos sont nettement plus réussies.
Ah pardon, je n'avais pas fait le lien avec l'anglais.
En effet, je ne peux m'empêcher d'avoir le réflexe de coller l'oeil à un appareil photo. C'est tellement plus efficace pour juger de la mise au point et de la profondeur de champ. Mais la proportion de la population qui fait encore ça se réduit fortement. Mettre en place le pilotage par l'oeil est coûteux, et si cela ne touche qu'une partie des clients, je comprends que Canon l'ai vite abandonné (du moins sur les gammes grand public-expert).
Je continue à douter que ce système en particulier (celui des appareils photos) soit adaptable aux yeux regardant un écran. Ce doit être une autre technique. Je me trompe peut-être.
par Carbon13, le Mardi 18 Juin 2019 à 17h36  
Ce qui me surprend surtout c'est que le TAA n'a quasiment pas évolué depuis son introduction par l'Unreal Engine en 2014, je suis sur qu'il y aurait moyen de faire mieux que ce qu'il y a maintenant tout en restant très rapide.
par Ideal, le Mardi 18 Juin 2019 à 14h45  
Faudra forcément un moniteur qui respecte les besoins de cette technique.. Ton moniteur peut pas bah tu en bénéficies pas .. y a pas + simple que ça.
par Un ragoteur dubitatif en Nouvelle-Aquitaine le Mardi 18 Juin 2019 à 12h30
Oui enfin, 240 fps, je veux bien, mais quand le moniteur n'en affiche que 120 ou même 60 fps, je ne vois pas vraiment comment ils comptent faire pour "masquer aux yeux du joueur un rendu inégal par un très haut taux de rafraîchissement"...
par Un ragoteur dubitatif en Nouvelle-Aquitaine, le Mardi 18 Juin 2019 à 12h30  
Oui enfin, 240 fps, je veux bien, mais quand le moniteur n'en affiche que 120 ou même 60 fps, je ne vois pas vraiment comment ils comptent faire pour "masquer aux yeux du joueur un rendu inégal par un très haut taux de rafraîchissement"...

De toutes façons, je n'ai jamais aimé le rendu TAA... Je préfère de très loin un AA classique, i.e. un *vrai* sur-échantillonnage bien bourrin des familles (4x suffit amplement et donne même souvent de meilleurs rendus que le 8x), évidemment trop coûteux pour du lancer de rayons... D'où l'impasse que je compte faire sur les RTX 20x0. Ma GTX 1070Ti me suffit amplement pour la paire d'années à venir (on verra ensuite).
par Un ragoteur qui pipotronne en Île-de-France, le Lundi 17 Juin 2019 à 23h13  
par Un ragoteur qui pipotronne en Bourgogne-Franche-Comté le Lundi 17 Juin 2019 à 22h53
Ce sont des appareils photos qui disposaient du pilotage de la mise au point par l'oeil et non des caméras. Le principe n'a pas été reconduit sur les gammes suivantes, y compris lors du passage au numérique.
Pour le reste le fonctionnement et l'utilisation d'un appareil photo reflex avec des collimateurs activables, manuellement ou dans le cas de cette gamme de Canon EOS avec l'orientation de la pupille, est très différent de celui d'un écran. Il faut se souvenir que les appareils photos de l'époque s'utilisaient exclusivement à travers un viseur auquel on collait son oeil. Il était plus simple d'estimer la direction du regard ainsi.
Maintenant tout le monde prend les photos bras tendu, avec l'oeil à 15000km d'un écran qui a remplacé le viseur. Cela ne permet pas un pilotage aussi précis par l'oeil, déjà que ce n'était pas toujours fiable avec un viseur...
Oui, pardon, à force de lire caméra même dans des articles français (en anglais caméra = appareil photo) j'ai moi-même fait l'erreur. Le système a été reconduit (mais on n'en faisait plus la pub) sur plusieurs modèles, je crois même avec plus de collimateurs.
Pour aujourd'hui, c'est normal, plus personne ne fait attention à ce qu'il photographie et la qualité photographique a perdu de sa valeur. Sa valeur était due au prix de l'argentique.
Sinon concernant les prises, non : quand je prends mon reflex (numérique) j'utilise le viseur. C'est nettement mieux, je suis plus à l'aise, et les photos sont nettement plus réussies.
par Un ragoteur qui pipotronne en Bourgogne-Franche-Comté, le Lundi 17 Juin 2019 à 22h53  
par Jemporte le Lundi 17 Juin 2019 à 21h16
Les caméra reflex EOS (EOS 5 le premier il me semble , à film argentique, ont déjà introduit le principe pour savoir sur quelle zone de la photo faire la mise au point. Donc années 90.

Pour ce qui est de la technique qui consiste à calculer une image bien définie seulement sur ses points d'intérêt, ça fait partie du VRS. Normalement les Turing (ça vaut pour les GTX 1660Ti) sont pourvues de VRS et Navi le sera aussi.
Ce sont des appareils photos qui disposaient du pilotage de la mise au point par l'oeil et non des caméras. Le principe n'a pas été reconduit sur les gammes suivantes, y compris lors du passage au numérique.
Pour le reste le fonctionnement et l'utilisation d'un appareil photo reflex avec des collimateurs activables, manuellement ou dans le cas de cette gamme de Canon EOS avec l'orientation de la pupille, est très différent de celui d'un écran. Il faut se souvenir que les appareils photos de l'époque s'utilisaient exclusivement à travers un viseur auquel on collait son oeil. Il était plus simple d'estimer la direction du regard ainsi.
Maintenant tout le monde prend les photos bras tendu, avec l'oeil à 15000km d'un écran qui a remplacé le viseur. Cela ne permet pas un pilotage aussi précis par l'oeil, déjà que ce n'était pas toujours fiable avec un viseur...
par Ideal, le Lundi 17 Juin 2019 à 22h03  
par Jemporte le Lundi 17 Juin 2019 à 21h16
Les caméra reflex EOS (EOS 5 le premier il me semble , à film argentique, ont déjà introduit le principe pour savoir sur quelle zone de la photo faire la mise au point. Donc années 90.

Pour ce qui est de la technique qui consiste à calculer une image bien définie seulement sur ses points d'intérêt, ça fait partie du VRS. Normalement les Turing (ça vaut pour les GTX 1660Ti) sont pourvues de VRS et Navi le sera aussi.
par Jemporte, le Lundi 17 Juin 2019 à 21h16  
par Ideal le Lundi 17 Juin 2019 à 18h40
Je sais que ça existe déjà, même stephen hawking utilisait cette techno y a + de 15 ans il me semble au pire même des chercheurs l'utilisent fréquemment que ce soit pour tester l'intelligence des primates ou le comportement réel des humains niveau empathie etc.

Mais ici ce qui m'intéresse ça serait que cette techno soit couplée avec le GPU dans l'optique de pas calculer une résolution trop importante là ou les yeux n'exercent pas leurs focus.

Kinect aussi était déjà sur ce terrain. RIP
Les caméra reflex EOS (EOS 5 le premier il me semble , à film argentique, ont déjà introduit le principe pour savoir sur quelle zone de la photo faire la mise au point. Donc années 90.

Pour ce qui est de la technique qui consiste à calculer une image bien définie seulement sur ses points d'intérêt, ça fait partie du VRS. Normalement les Turing (ça vaut pour les GTX 1660Ti) sont pourvues de VRS et Navi le sera aussi.
par Jemporte, le Lundi 17 Juin 2019 à 21h08  
Donc si je comprends bien on moyenne et on filtre les images successives pour diminuer le bruit et le résultat serait meilleur qu'un traitement spéculatif DLSS.
On peut espérer que dans ces nouveaux calculs, ce sont à nouveau une partie des tensor cores qui sont mis à contribution, histoire de ne pas altérer les performances (puisque autrement ils ne vont servir à rien).
par Nicolas D., le Lundi 17 Juin 2019 à 20h27  
par Laitauriz le Lundi 17 Juin 2019 à 19h29
Justement, il est question ici de diminuer la résolution du rendu, et de ne pas appliquer de MSAA ensuite. C'est bien pour cela qu'il ne s'agit pas du TXAA. Je comprends ce que tu veux dire, mais même si c'est un TAA version Nvidia, il ne s'agit lexicalement pas du TXAA. C'est un peu comme si, dans une situation imaginaire, Nvidia décidait d'implémanter spécifiquement un SMAA amélioré dans un jeu, et que l'on appelait ça du FXAA car il existe déjà cette solution d'AA post process venant de chez eux .
Je vois ce que tu veux dire et c'est effectivement plus correct, c'est modifié !
par Un ragoteur qui pipotronne d'Occitanie, le Lundi 17 Juin 2019 à 19h39  
Il pouvait pas l'appeler RTXAA, ça colle plus avec son but !