COMPTOIR
  
register

Les Mesh Shaders gérés par Turing en démonstration

Nvidia a essayé de lancer diverses fonctionnalités matérielles dans ses GPU Turing pour, dixit, améliorer l'image et les performances. La philosophie est en gros de n'afficher et de n'améliorer que ce qui est dans le champ de vision. Les Mesh Shaders, expliqués ici dans notre dossier architecture, font partie de ces avancées dont on ne sait pas si elles seront suivies par les développeurs.

 

Pourtant AMD avait présenté un truc similaire dans l'esprit, les Primitive Shaders. Avec les mesh shaders, en gros, il s'agit d'afficher les objets et d'en modifier la qualité selon la distance d'affichage. Les mesh shader sont là pour faire ces calculs avant d'envoyer les objets à la phase rasterisation, qui est globalement celle qui permet de passer d'une image en 3D à une image en 2D, et qui englobe par extension tous les procédés d'améliorations d'image. Et donc ces calculs sont ciblés pour être adaptés lorsqu'une scène comporte un grand nombre d’objets complexes. La grande nouveauté induite par les mesh shaders, c'est que ces demandes de calcul sont gérées par le GPU et plus par le CPU, ce sont les fameux draw calls.

 

Nvidia met en avant une scène d'un vaisseau dans un champ d’astéroïdes, et on peut voir que les cailloux lointains sont moins polygonés que ceux au premier rang. Et plus le caillou avance dans la scène du fond vers le premier plan, et plus il s'enrichit en polygones et autres joyeusetés. Il y a une graduation dans l'affichage dit dynamique, et c’est cela que les mesh shaders permettent, tout en gagnant dans l'idée en performance. Un objet lointain moins chargé sera plus facile à passer à la rastérisation qu'un proche, sans que cela ne soit visible à l'oeil nu dans le mouvement de la scène. Il y a une démo pour ça, et elle est disponible. Pour ceux qui ont Turing et qui voudraient essayer la démo, il faudra passer par une inscription d'ordinaire réservée aux devs. En gros pas testable pour tous les possesseurs de Turing.

 

Un poil avant ?

Un mode bac à sable à venir dans Windows 10 ?

Un peu plus tard ...

Bon plan • Les NZXT Kraken x52 et x62 à partir de 133 € livrés

Les 8 ragots
Les ragots sont actuellement
ragots réservés aux QI élevésouverts aux ragoteurs logués
par Ideal, le Jeudi 20 Décembre 2018 à 23h11  
"Primitive Shaders" "Mesh Shaders" = LOD géré par les GPU avec moins de call CPU au final.
Plutôt une très bonne idée même si la techno n'est pas neuve ptet elle sera ptet + discrète et + performante gérée comme ça.

Ceci dit Nvidia ce sont pas foulé sur le nom on reprend celui d'amd en remplaçant un mot par un synonyme + générique et hop comprendra qui pourra .
par Sarge, le Jeudi 20 Décembre 2018 à 23h00  
par Scrabble, le Jeudi 20 Décembre 2018 à 22h41
Si j'ai bien compris, le mesh shaders de Nvidia ou le primitive shaders d'AMD, c'est du LOD calculé directement par le GPU. Du coup c'est nickel, si les deux fabricants le font, ça sera sûrement utilisé par les développeurs.
Je pense aussi, mais le miracle serait d'avoir qqch d'unifié pour les cartes graphiques des deux marques..Par conséquent, je me demande si ces technologies (Primitive/Mesh Shaders) sont transférables dans une APi, pour éviter le syndrome des propriétés rouges ou vertes (avec badge au lancement du jeu) ?!
par Scrabble, le Jeudi 20 Décembre 2018 à 22h41  
Si j'ai bien compris, le mesh shaders de Nvidia ou le primitive shaders d'AMD, c'est du LOD calculé directement par le GPU. Du coup c'est nickel, si les deux fabricants le font, ça sera sûrement utilisé par les développeurs.
par Thibaut G., le Jeudi 20 Décembre 2018 à 22h28  
par dfd, le Jeudi 20 Décembre 2018 à 20h34
L'idée n'est pas mauvaise en soi, mais ça fait un peu traficotage de scène, et ces bidouillages géométriques n'ont que pour seul objectif d'augmenter artificiellement les perfs.
Et si ça peut se faire au détriment de son concurrent de toujours, c'est encore plus bonnard...
AMD avait proposé un truc semblable nommé Primitive Shaders, ça gênait personne que ça soit du traficotage, et là pourquoi ça gênerait tout à coup ? L'idée est bonne et le concept se marie bien avec le LOD obligatoire et l'Object Culling qui est le fait de ne pas calculer les objets cachés dans la scène. On peut pas toujours râler que les perfs sont en mieux, surtout si le LOD ne se voit pas au fur et à mesure que l 'objet progresse dans la scène, traduire par passe du fond vers le premier plan.
par QuequetteEnOr, le Jeudi 20 Décembre 2018 à 22h14  
par willow57, le Jeudi 20 Décembre 2018 à 20h38  
par dfd, le Jeudi 20 Décembre 2018 à 20h34
L'idée n'est pas mauvaise en soi, mais ça fait un peu traficotage de scène, et ces bidouillages géométriques n'ont que pour seul objectif d'augmenter artificiellement les perfs.
Et si ça peut se faire au détriment de son concurrent de toujours, c'est encore plus bonnard...
Ce traficotage existe depuis toujours et n'en est pas un, bien au contraire. Cela s'appelle le LOD et c'est obligatoire. Tous les moteurs et Cgs (AMd, nvidia, etc) le font le font car il est impossible de calculer une scène avec tous les détails sur de longues distances pour des raisons évidentes de perfs.

Le seul problème est que souvent les transitions sont visibles dans beaucoup de jeux et si ça peut se faire sans que ça soit visible, ce sera génial.

par dfd, le Jeudi 20 Décembre 2018 à 20h34  
L'idée n'est pas mauvaise en soi, mais ça fait un peu traficotage de scène, et ces bidouillages géométriques n'ont que pour seul objectif d'augmenter artificiellement les perfs.
Et si ça peut se faire au détriment de son concurrent de toujours, c'est encore plus bonnard...
par Cristallix, le Jeudi 20 Décembre 2018 à 20h21  
Ce que font déjà moult moteurs graphiques. Après là la transition entre les différents états est plutôt bien foutu ce qui n'est pas toujours le cas dans les moteurs donc bonne nouvelle. Mais est-ce que ça génère encore des triangles inutiles comme avec le scandale Crysis où nVidia avait fricoté avec Crytek et où les radeons prenaient cher niveau tesselation pour rien ?