COMPTOIR
  
register

×

Turing en chiffres

Test • NVIDIA GeFORCE RTX 2080 / 2080 Ti
Turing en chiffres
Diagramme TU102
Diagramme TU104
GPU Boost 3.0
GPU Boost 4.0

• Turing

Pour ceux intéressés par l'architecture Turing, nous vous invitons à lire le dossier que nous lui avons consacré il y a quelques jours. Résumée en quelques lignes, cette dernière ressemble beaucoup à Volta avec quelques ajouts. Par rapport à Pascal (gaming) : des caches plus gros et rapides, des SM "plus petits" mais plus nombreux et capables de traiter en parallèle les calculs sur entier ou en virgule flottante (y compris en demi-précision (FP16) à double vitesse). Ces derniers intègrent à présent des Tensor Cores, accélérant significativement les calculs liés à l'intelligence artificielle, en particulier l'inférence, ainsi que les RT Cores, pierre angulaire de l'accélération matérielle du Ray Tracing, utilisable en temps réel dans les jeux via un rendu hybride, mixant cette technique à la rastérisation.  

 

Turing en chiffres [cliquer pour agrandir]

Turing en chiffres dans la déclinaison dédiée à la RTX 2080 Ti

  

 

• TU102

NVIDIA a conçu à partir de cette architecture 3 GPU, nous ne nous intéresserons qu'aux deux plus performants aujourd'hui. Le plus gros de la famille est le TU102, qui utilise un die 60% plus grand que GP102 à 754 mm² et intégrant pas moins de 18,6 milliards de transistors. Compte tenu du coût de production d'une telle puce, celles "parfaites" sont réservées pour le moment aux très onéreuses Quadro RTX 6000/8000. Le diagramme de la puce complète, ci-dessous, indique la présence de 6 GPC, chacun comprenant 6 TPC, conduisant à un total à 72 SM. Cela correspond à 4608 unités de calcul, 288 TMU, 576 Tensors Cores et 72 RT Cores. À cela s'ajoute 12 contrôleurs mémoire 32-bit, 96 ROP, 6 Mo de cache L2 et 2 liens NVLink 8x pour permettre un SLi avec une bande passante cumulée de 100 Go/s. 

 

Diagramme TU102 [cliquer pour agrandir]

 

Pour la RTX 2080 Ti, NVIDIA utilise un GPU partiellement activé, afin de faciliter sa production et réduire ainsi les coûts, puisque les puces dont certaines unités sont défectueuses restent utilisables, et améliorent ainsi les rendements de production. Voici les caractéristiques principales de cette variante de TU102, résumées dans le tableau ci-dessous.

 

GeForce RTX 2080 TiQuantité activée
GPC 6
TPC / SM 34 / 68
CUDA Cores 4352
TMU 272
Tensor Cores 544
RT Cores 68
ROP 88
L2 (Mo) 5,5
Bus mémoire (bits) 352

  

 

• TU104

Intéressons-nous à présent à TU104, qui prend place au sein de la RTX 2080. Première constatation, il n'est pas composé de 4 GPC comme c'est traditionnellement le cas sur cette gamme de GPU, mais de 6 à l'instar des GP102/TU102. Il gagne ainsi 2 Raster Engine, de quoi afficher jusqu'à 6 triangles par cycle. Il a toutefois subit une cure d'amincissement, puisque chaque GPC ne contient plus "que" 4 TPC / 8 SM, soit 33% de moins que son grand frère. Il en est de même pour les contrôleurs mémoire, ROP et cache L2. Du côté comptable, le GPU embarque un bus mémoire à 256-bit, 64 ROP, 48 SM, ce qui conduit à 3072 CUDA Cores, 192 TMU, 384 Tensor Cores et 48 RT Cores. Pour finir, il ne conserve qu'un seul lien NVLink 8x, sur les 2 que comptait TU102.  

 Diagramme TU104 [cliquer pour agrandir]

 

À l'instar de la gamme supérieure, le GPU utilisé est quelque peu bridé pour faciliter sa production (545 mm² quand même, soit davantage qu'un GP102), avec un TPC inactif soit 46 SM activés, sur les 48 que compte la puce. Le bus mémoire et les éléments liés (ROP et L2), sont par contre conservés intégralement. Ci-dessous, le récapitulatif du GPU dans cette configuration.  

 

GeForce RTX 2080Quantité activée
GPC 6
TPC / SM 23 / 46
CUDA Cores 2944
TMU 184
Tensor Cores 368
RT Cores 46
ROP 64
L2 (Mo) 4
Bus mémoire (bits) 256

  

 

• GPU Boost 4.0

Avant d'attaquer la description de la carte testée en page suivante, un petit rappel sur un changement notable au niveau de la gestion des fréquences appliquées au processeur graphique via GPU Boost. Ce mécanisme a pour objectif de pousser chaque puce au plus près de ses limites, en s'affranchissant de tests trop sélectifs en sortie de production. C'est en effet GPU Boost qui est est chargé par la suite, de s'assurer que les conditions environnementales permettent au GPU de fonctionner de manière stable et sans risque. Pour ce faire, il impose un double carcan constitué d'une limite de consommation et de température selon l'itération. Avec la version 3 introduite lors du lancement de Pascal, à partir de 37°C et tous les 5°C supplémentaires, le GPU perd 1 bin (~13 MHz) et ce jusqu'à la consigne de température maximale. Il perd alors autant de bins que nécessaire pour rester sous celle-ci.

 

La fréquence progressant de concert avec la tension d'alimentation du GPU, c'est un moyen très efficace pour contrôler la consommation (qui évolue au carré de la tension et dispose aussi de sa propre limite), évitant ainsi une envolée des nuisances sonores, avec un refroidisseur pas forcément dimensionné pour la dissiper discrètement, ce qui est le cas des Founders Edition à turbine. Le souci d'une telle approche, est la pénalisation de toutes les cartes Pascal, y compris les customs des constructeurs tiers, avec des refroidisseurs surdimensionnés. En effet, NVIDIA autorise la modification du TDP max. des cartes, mais en aucun cas les paliers de température par défaut de GPU Boost 3.0. Ci-dessous une représentation graphique de ce fonctionnement.

 

GPU Boost 3.0 [cliquer pour agrandir]

 

Avec Turing, NVIDIA a annoncé GPU Boost 4.0. En gros, ce dernier fonctionnerait de manière similaire, mais avec un ajustement qui fait toute la différence. En effet, les valeurs de températures sont à présent exposées et il possible de les modifier. Bien sûr, il est nécessaire de rester dans la plage autorisée par le caméléon, mais le seuil à 37°C qui marquait le "début de la baisse" des fréquences, n'est plus imposé. Cela coïncide avec l’utilisation d'un refroidisseur plus performant sur les Founders Edition, qui ne perdent donc plus de fréquence du fait de la température. Toujours est-il, qu'il était très difficile de s'approcher du TDP max sur ces dernières en version Pascal, à part lors des premiers instants de forte sollicitation, ce ne sera plus le cas avec les versions Turing, qui seront davantage limitées par leur enveloppe thermique. Ci-dessous, la représentation schématique de GPU Boost 4.0. Notons également qu'un bin prend à présent la valeur de 15 MHz, contre 13 MHz auparavant.

 

GPU Boost 4.0 [cliquer pour agrandir]

 

Voilà pour le sujet, passons page suivante à la description des cartes lancées par le caméléon.



Un poil avant ?

Live Twitch • Une quête avec des trolls poilus dedans !

Un peu plus tard ...

Le chipset Z390 (ré)officialisé le 8 octobre ?

Les 126 ragots
Les ragots sont actuellement
ragots réservés aux QI élevésouverts aux ragoteurs logués
par Eric B., le Mercredi 27 Février 2019 à 07h03  
Moi ce que je trouve étrange c'est ton commentaire : tu compares une carte graphique au design de référence (et donc avec une fréquence GPU sensiblement impactée) à la tienne fortement overclockée et couplée avec un CPU plus rapide pour ce genre de tâches (sachant que le score CPU est pris en compte dans le calcul du score global reporté dans le graphique et que la désactivation de l'HT sur le notre réduit encore davantage les performances dans le test CPU) et tu t'étonnes (faussement ?) de valeurs différentes... Autant comparer des choux et des carottes. Ce qui compte dans ce test spécifique (qui n'est d'ailleurs présent qu'à titre informatif, le verdict n'est établi que vis-à-vis des résultats in game), c'est la hiérarchie mesurée entre cartes sachant que les conditions d'exécution sont identiques (ce n'est pas ton cas), pas le score global dans l'absolu.
par Mika2012, le Mardi 26 Février 2019 à 13h36  
Je trouve les résultats du test bizarre.
J'ai un I7 8700K et une GTX 1080 Ti et j'ai un score 3D MarK de 10536...en QHD 1440*2560. Soit l'équivalent de la 2080...
Bon Ok le processeur est à 5.2Ghz et la Carte graphique à 2.2Ghz...
Mais quand même.
par Eric B., le Mardi 15 Janvier 2019 à 18h58  
Nous voulons bien t'aider à comprendre d'où provient le différentiel de performance, mais pour cela il faut être plus factuel :
* Préciser la configuration (CPU OC ? / fréquence et qté DDR4)
* Préciser davantage les réglages
* Comment sont mesurées les performances ? (durant un séance de jeu via fraps ou équivalent ? En solo ou en multi ? Avec le benchmark intégré ? Sur un replay perso ?
* L'idéal c'est de réaliser un log des fréquences de la carte graphique (via GPU-Z par exemple) durant ta session de jeu (et également l'usage CPU / fréquence si rien d'anormal côté GPU)
par DeathofWarQc, le Mardi 15 Janvier 2019 à 18h26  
J'ai l'impression d'avoir parler dans le vent mais bon mdr si tu veux x3
par Thibaut G., le Lundi 14 Janvier 2019 à 22h27  
par DeathofWarQc, le Lundi 14 Janvier 2019 à 22h12
Si si je lis tres bien mdr
Je joue pareil que sur les test tout au max sauf txaa et x4 1440p, avec g-sync et un i7 8700k
Meme si je serai un casual jouant sur du 1080p je devrais taper dans du 150fps au moins, la c'est tout le contraire.
Je me plaindrais pas si c'etais que 10 fps alors que la je parle de pratiquement 50% de perf en moins.
On est pas tous des jean billy tu sais xP
donc des conditions de test différentes, une machine différente, des réglages différents. On ne peut pas comparer directement, c'était le sens de mon message et tu le confirmes. Rien que ça ne te permettra pas de savoir d'où viennent tes contre performances. jean Billy ou pas, c'est assez simple de le comprendre, on ne peut comparer qu'à iso réglages et iso machine.
par DeathofWarQc, le Lundi 14 Janvier 2019 à 22h12  
par Thibaut G., le Samedi 12 Janvier 2019 à 15h03
et si tu lisais les conditions des tests avant ? Il y a 500% de chances qu'on ne teste pas de la même manière, la comparaison de chiffres directe est inutile, tu ne précises même pas la définition de test ni le niveau de détails que tu utilises.
Si si je lis tres bien mdr
Je joue pareil que sur les test tout au max sauf txaa et x4 1440p, avec g-sync et un i7 8700k
Meme si je serai un casual jouant sur du 1080p je devrais taper dans du 150fps au moins, la c'est tout le contraire.
Je me plaindrais pas si c'etais que 10 fps alors que la je parle de pratiquement 50% de perf en moins.
On est pas tous des jean billy tu sais xP
par Thibaut G., le Samedi 12 Janvier 2019 à 15h03  
par DeathofWarQc, le Samedi 12 Janvier 2019 à 14h35
100fps sur GTA V xD avec ma 2080 MSI trio X OC je depasse pas les 40fps avec des pics a 70
et si tu lisais les conditions des tests avant ? Il y a 500% de chances qu'on ne teste pas de la même manière, la comparaison de chiffres directe est inutile, tu ne précises même pas la définition de test ni le niveau de détails que tu utilises.
par DeathofWarQc, le Samedi 12 Janvier 2019 à 14h35  
100fps sur GTA V xD avec ma 2080 MSI trio X OC je depasse pas les 40fps avec des pics a 70
par Eric B., le Mardi 13 Novembre 2018 à 07h30  
Nous avons fait un dossier architecture distinct, les réponses s'y trouvent. Pour information, des ordonnanceurs hardware il y en a dans les architectures NVIDIA depuis belle lurette au niveau des blocs de traitement au sein des SM.

Comme tu évoque les async compute, j'imagine que tu veux parler du Multi Engine tel qu'implémenté au sein de DX12 (ou Vulkan), c'est à dire le traitement des files d'attente de rendu, si possible de manière concomitante. Pour cela il faut des processeurs de commande suffisamment évolués, sinon c'est aux développeurs ou au pilote de faire les tâches de synchronisation.

Turing marque effectivement un gros progrès à ce niveau du fait du rendu hybride, toutefois cela ne se traduira pas forcément par des gains similaires à ceux visibles sur les Radeon pour une raison simple : ce fonctionnement permet d'améliorer le taux de charge des unités de calcul, toutefois, si ce dernier est élevé par défaut, le gain potentiel est fortement réduit.

Les GPU NVIDIA depuis Maxwell ont un taux d'occupation par défaut supérieur à ce que l'on trouve chez AMD, c'est pour ça qu'en général il faut aux cartes d'AMD une puissance de calcul brute supérieure pour égaler leurs concurrentes sous DX11, du fait de ce différentiel. C'est pour ça aussi que les cartes d'AMD profitent plus de DX12 qui leur permet (si implémenté et possible) d'améliorer le taux d'occupation de leurs unités.

L'avantage pour Turing face aux précédentes archi vertes, c'est que si le développeur ne fait pas le travail d'optimisation spécifique au GPU, ses processeurs de commande évitent les pénalités de synchronisation et peuvent profiter de gains potentiels.
par TwoFace, le Lundi 12 Novembre 2018 à 10h55  
Au fait ce serait bien de rajouter dans le test des cartes, si les turing ont un ordonnanceur hardware et s'il y a l'async compute bien intégré ??? une lacune des Pascal VS AMD...
Message de wahidovic123 supprimé par un modérateur : HS
par Sarge, le Mardi 16 Octobre 2018 à 17h29  
Eh bien, le RTX (le vrai) a 60 FPS...ce n'est pas pour demain la vieille ! Heureusement qu'Nvidia a pigeonné trouvé des investisseurs clients pour développer les prochaines cartes qui elles, pourront faire tourner du RTX, du vrai !
Merci pour cette maj.