COMPTOIR
  
register

×

d3d 11.3 - volume tiled resources

Test • GeForce TITAN X / GM200
d3d 11.3 - volume tiled resources
d3d 11.3 - conservative rasterization
nvidia gameworks turf effects
nvidia gameworks flex
nvidia gameworks turf effects
nvidia gameworks flex
Chambre à vapeur et turbine
La carte nue

• D3D 11.3 & 12_1 / VXGI

Côté fonctionnalités, la seconde révision de Maxwell apporte cette fois le support complet de DirectX 11, y compris les niveaux D3D 11.1, 11.2 et le 11.3 qui reprendra les "features" apportées par D3D12_1. Concernant ces dernières, Microsoft a présenté à ce sujet certaines nouveautés parmi lesquelles notamment :

 

Conservative Rasterization, technique de rastérisation plus précise permettant de savoir si un polygone recouvre un pixel, en testant aux quatre coins plutôt qu'en son centre.

Rasterizer Ordered Views (ROVs), qui permet aux développeurs de maitriser l'ordre dans lequel les objets d'un scène sont rasterisés, et donc l'ordre dans lequel ils sont rendus, sans intervention du processeur pour effectuer ce tri. Une alternative aux UAVs pour le rendu des scènes.

Volume Tiled Resources (VTRs), supports directement tirés des travaux ayant abouti aux Tiled Ressources implémentées dans D3D 11.2, aussi connu sous le nom Megatexture chez ID. Ils gagnent ici une dimension supplémentaire, notamment dans l'idée de les utiliser avec les voxels ou volumetric pixels.

 

d3d 11.3 - volume tiled resources [cliquer pour agrandir]d3d 11.3 - conservative rasterization [cliquer pour agrandir]

Les dernières coquetteries D3D 11.3 supportées - cliquez pour agrandir

 

Ces fonctionnalités sont intégralement prises en charge par les puces Maxwell v2, tout comme d'autres telles que VXGI (Voxel Global Illumination), une technique d'éclairage avancée extrêmement prometteuse, permettant de s'approcher encore un peu plus du photoréalisme. Si on n'est pas encore au niveau du Ray Tracing, le VXGI permet de gérer l'éclairage indirect d'un objet par la réflexion naturelle de la lumière issue de leur environnement, sources comme objets. L'intégration au sein de l'UE4 devrait selon le caméléon accélérer la mise en oeuvre de cette technique au sein de futurs jeux.

 

 

• Quoi de neuf côté affichage et encodage ?

Le moteur d'affichage est similaire à celui du GM204, on reste donc cantonné à la gestion simultanée de 4 écrans avec une carte mais la prise en charge d'un DVI DL, de 3 DisplayPorts 1.2 et d'un HDMI 2.0 fera plaisir aux amateurs de multi-écrans ou de grosses définitions (5120x3200 max.). L'encodeur maison NVENC voit ses capacités boostées (2.5x) permettant en H.264 l'enregistrement de vidéo en 4K@60fps via ShadowPlay et prend en charge à présent le H.265. Point surprenant, ce dernier ne dispose par contre pas d'un décodeur dédié, NVIDIA utilisant pour cette opération un mix du décodeur H.264 et des unités de calcul du GPU, une solution bien moins économe en énergie... A priori le décodeur était bien prévu à l'origine, mais un bug a obligé le caméléon à le désactiver sur les GM200/204 conçus probablement dans le même laps de temps alors que la version incluse au GM206 (peut-être plus "récent" au niveau de sa conception) est quant à elle pleinement fonctionnelle. G-Sync est bien entendu de la partie et reste pour le moment la solution la plus efficace vu les déboires des premiers écrans adoptant FreeSync !

 

 

• de l'Anti-Aliasing à revendre !

Pour rappel, NVIDIA met en avant plusieurs technologies d'amélioration du rendu. La première est le MFAA, une technique d'anti-aliasing avec des échantillons non plus fixes mais programmables via le support hardware du "multi-pixel programmable sampling" au niveau des moteurs de rastérisation. En couplant cette fonctionnalité avec une composante temporelle, NVIDIA indique pouvoir proposer les performances d'un MSAA 4x avec la qualité du 8x (ou 4x pour le coût du 2X). Le résultat est réellement intéressant et prend toute sa légitimité sur une carte comme la GTX 960 étranglée par le MSAA du fait de son bus 128-bit.

 

MFAA

MFAA : un AA efficace et moins couteux !

 

La seconde est une technique de filtrage nommée DSR pour Dynamic Super Resolution. En pratique il s'agit du retour au sein des pilotes du super-sampling qui consiste à calculer l'image dans une définition supérieure à celle de l'afficheur et de réaliser un downsampling pour afficher l'image sur le moniteur et ce par le biais d'un filtre Gaussien élaboré limitant les artefacts visuels qui pourraient survenir lors de cette opération. Comme on peut s'en douter, le coût d'une telle opération est par contre similaire à celui d'un rendu en pleine résolution.

 

• VR, gameworks, et le reste...

D'autres technologies arrivent avec cette 10e génération de GPU : Direct VR, ou la promesse de NVIDIA de réduire à minima les latences de rendu vers un périphérique VR type Oculus Rift, avec notamment des gains d'une dizaine de millisecondes (pour une latence "ordinaire" de 50ms en tout) des latences induites par l'OS et le pilote dans le traitement des instructions de rendu, ou encore des astuces de prédictions de calculs dont l'Asynchronous Time Warp : le principe est d'obtenir la position de la tête de l'utilisateur au plus près du rendu final d'une frame pour appliquer une distorsion à cette dernière et obtenir un rendu quasi immédiat dès la position du casque acquise. Enfin, VR SLi permet d'affecter un GPU à chaque oeil ce qui permet d'utiliser plusieurs cartes sans faire exploser la latence, point critique s'il en est dans ce domaine. NVIDIA annonce avoir fourni aux principaux acteurs du domaine un pilote Alpha couplant VR SLi et l'Asynchronous Time Warp, une version publique est prévue dans quelques mois.

 

nvidia gameworks turf effects [cliquer pour agrandir]nvidia gameworks flex [cliquer pour agrandir]

Des astuces pour diminuer la latence en VR

 

Les librairies Visual FX ne sont pas en reste et accueillent de nouveaux modules dédiés aux rendus des herbages ou des différents types de liquides...

 

nvidia gameworks turf effects [cliquer pour agrandir]nvidia gameworks flex [cliquer pour agrandir]

De la belle herbe et des liquides crédibles

 

Passons à présent à la première carte intégrant ce GM200.

 

• TITAN X

Pour ce test, NVIDIA nous a fait parvenir une carte de référence. Elle reprend le désormais célèbre refroidisseur de la marque qui abandonne pour l'occasion sa livrée aluminium en passant au noir intégral du plus bel effet. La carte mesure un peu moins de 27cm et se retrouve dépourvue de backplate malgré la présence de puces mémoire au dos, la GTX 980 n'en disposant pas profite, elle, de ce traitement de faveur par contre...

 

NVIDIA GeFORCE GTX TITAN X

La TITAN X, toute de noire vêtue contrairement à la TITAN......... Black !

 

Le format de la carte est standard à 2 slots, l'alimentation électrique est assurée par 2 connecteurs à 6 et 8 pins positionnés sur la tranche de la carte. On retrouve sur cette dernière le logo rétroéclairé ainsi que les 2 connecteurs propriétaires pour la gestion du SLi.

 

NVIDIA GeFORCE GTX TITAN X tranche

 

Les connecteurs d'alimentation et le logo rétroéclairé

 

La carte débarrassée de son carénage laisse apparaitre la turbine de 60 mm qui permet d'expulser hors du boitier l'air chauffé par son passage entre les ailettes du radiateur. Le flux d'air a été retravaillé pour optimiser le refroidissement des composants de puissance. La base du dissipateur voit le retour d'une chambre à vapeur plus performante que les caloducs employés sur la GTX 980. Les puces mémoire sont en contact avec la plaque métallique supportant le ventilateur, cette dernière une fois retirée en laisse apparaitre 12 entourant le GPU, le reliquat se trouvant sur la face opposée. L'étage d'alimentation se compose de 6 phases dédiées au processeur graphique plus deux pour la mémoire. NVIDIA annonce avoir employé pour ce dernier des condensateurs polarisés ainsi que des bobines moulées afin de limiter au maximum les risques de bruit électrique.

 

Chambre à vapeur et turbine [cliquer pour agrandir]La carte nue [cliquer pour agrandir]

Le refroidisseur et le PCB - Cliquer pour agrandir

 

Continuons la description de notre carte au travers de GPU-Z : la puce en révision A1, preuve que le caméléon n'a pas connu beaucoup de souci pour sa mise au point, dispose de 3072 unités de calcul, 192 TMU, 96 ROP et de 12 Go de GDDR5 à 1,75 GHz adressés en 384-bit. La fréquence GPU est fixée à 1 GHz avec un Boost minimum à 1075 MHz si la température ou le TDP ne limitent pas la carte, GPU Boost 2.0 oblige.

 

GPU-Z GeFORCE TITAN X

GPU-Z : caractéristiques et fréquences

 

Au repos, la fréquence GPU est celle par défaut des GeFORCE, à savoir 135 MHz pour le GPU, la mémoire se stabilisant, elle, à 202 MHz. En charge, le Boost (maximum) atteint en réalité 1202 MHz, mais la carte ne tient cette fréquence que quelques instants avant que GPU Boost ne l'abaisse.

 

GPU-Z GeFORCE TITAN X : Fréquences au reposGPU-Z GeFORCE TITAN X : fréquences max. en charge

GPU-Z : Fréquences au repos et Boost Max

 

C'est tout pour la description de la TITAN X, voyons page suivante les spécifications des différentes cartes et le protocole de test.



Un poil avant ?

Aqua Computer sort six waterblocks pour la Titan X

Un peu plus tard ...

Les puces Maxwell ne sont pas potes avec les barbus


Sur le comptoir, au ~même sujet

 
 
 
 
 
 
 
 
 
 
 
 

Les 50 ragots
Les ragots sont actuellement
verrouillage dossierouverts aux ragoteurs logués
par mart666, le Mercredi 22 Avril 2015 à 13h47  
Ça promets pour une 980Ti !! J'ai hâte de voir ça !
Message de Un ragoteur tout mignon de Arizona supprimé par un modérateur : Au plaisir de ne plus te lire le troll !
par Eric B., le Lundi 20 Avril 2015 à 11h09  
Ce n'est pas du tout HS de signaler les anomalies (avec le bouton "Signaler un truc" c'est même mieux ) : un copier/coller de la ligne sans la modifier ensuite, oups !
par MeFabzi, le Lundi 20 Avril 2015 à 10h58  
Un peu HS mais dans le tableau à la page 4, c'est quoi la différence entre la 670 et la 680 ?
Message de Un ragoteur tout mignon embusqué supprimé par un modérateur : Troll
par Un ragoteur sans nom embusqué, le Lundi 20 Avril 2015 à 05h27  
Excellent article ! Il confirme que la 4K sera bien envisageable via du sli (je pense a la 980ti), en attendant les futurs 16nm. Nvidia a apparemment décidé de ce coté d'accélérer le pas en passant chez samsung pour ses futur puces.
par Un ragoteur tout mignon d'Ile-de-France, le Lundi 20 Avril 2015 à 02h58  
Je ne sais pas combien je vais payer ma prochaine carte graphique, mais quelque chose me dit que je vais la garder longtemps ...
Message de Un ragoteur lambda d'Ile-de-France supprimé par un modérateur : Bon il va falloir apprendre à lire !
par Dark, le Dimanche 19 Avril 2015 à 19h42  
par Eric B. le Dimanche 19 Avril 2015 à 07h21
Ce qui se passe surtout, c'est qu'un certain nombre ici passe son temps à critiquer l'award plutôt que de lire le dossier voir même seulement la page verdict... Je pense qu'au final la récompense va soit disparaître comme sur certains sites, soit s'orienter vers des awards qui n'incluent pas de notion de hiérarchie entre eux comme c'est le cas des bronze/argent/or/diamant. Ca pourra être un choix technologique de la rédaction, ou rapport qualité/prix de la redac, ou que sais-je d'autre.
Mon dieu ! certains vont être obligés de regarder le texte au lieu de la récompense, pour avoir une idée de ce que vaut l'item testé. Ça ne va pas être triste
par Eric B., le Dimanche 19 Avril 2015 à 19h16  
Asus RoG Swift PG278Q (depuis quelques mois déjà afin d'évaluer G-Sync), pour l'UHD je dispose d'un Samsung SyncMaster U28D590D
par zaibaker, le Dimanche 19 Avril 2015 à 18h46  
par Eric B. le Dimanche 19 Avril 2015 à 07h25
A voir, c'est vrai que c'est quelque chose que je n'ai jamais évalué (j'avais pas le moniteur pour ceci-dit).
Bon à savoir .
J'espère que vous le ferez à l'occasion.

Tu as quelle moniteur désormais?

N'oubliez pas le 720p pour ceux jouant en hdmi .
Je ne sais pas si depuis ils ont réglé le DSR avec la 3D vision, histoire de ne pas avoir qu'un vieux 720p.

Je reste aux aguets en tout cas, encore bravo pour le super boulot que vous faites avec ce superbe comptoir .
par lulu-nico, le Dimanche 19 Avril 2015 à 16h41  
L'efficacité énergétique supérieur du gm200 vient est surement du a ça fréquence.
Elle est plus faible que la 980 ç permet une baisse de la tension.
La 9xx ti ça serait bien de la ram a 8 ghz.
la fréquence sera plus haute donc ça sera utile.
Si nvidia ne le fait pas sur le modèle de référence les modèles customs doivent le faire pour se démarquer.