Test • NVIDIA GeForce RTX 2080 SUPER |
————— 23 Juillet 2019
Test • NVIDIA GeForce RTX 2080 SUPER |
————— 23 Juillet 2019
Pour ceux intéressés par l'architecture Turing, nous vous invitons à lire ou relire le dossier que nous lui avons consacré il y a quelque temps. Résumée en quelques lignes, cette dernière ressemble beaucoup à Volta avec quelques ajouts. Par rapport à Pascal (gaming) : des caches plus gros et plus rapides, des SM "plus petits" mais plus nombreux et capables de traiter en parallèle les calculs sur entiers ou en virgule flottante (y compris en demi-précision (FP16) à double vitesse).
Voilà pour la partie "classique" de l'architecture, NVIDIA a complété cette dernière par des Tensor Cores, accélérant significativement les calculs liés à l'intelligence artificielle, en particulier l'inférence, ainsi que les RT Cores, dédiés à l'accélération matérielle (des calculs d'intersection rayons / triangles) du Ray Tracing, utilisable en temps réel dans les jeux via un rendu hybride, mixant cette technique à une base rastérisation.
Turing en chiffres dans sa déclinaison dédiée à la RTX 2080 Ti
Mais ces nouvelles fonctionnalités sont loin d'être gratuites en termes de "coût transistors", avec pour conséquence des dies pour le moins imposants du fait de la stagnation du procédé de gravure utilisé, et donc onéreux à produire, vu la réduction du nombre de GPU par Wafer (disques en silicium sur lesquels sont gravés les puces).
NVIDIA a conçu à partir de sa dernière architecture, cinq GPU, dont 2 privés des fonctionnalités d'accélération RT et IA, qui se retrouvent au sein des GTX 16xx, le préfixe rappelant l'absence des nouvelles fonctionnalités. Vous retrouverez ci-dessous un résumé des différents GPU utilisés sur les GeForce série 10, 16 et 20, nous avons abrégé la série SUPER avec un S .
Cartes | GPU | Nombre de transistors | Superficie Die |
Densité (Millions de transistors / mm²) |
---|---|---|---|---|
GeForce RTX 2080 Ti | TU102 | 18,6 Milliards | 754 mm² | 24,7 |
GeForce RTX 2070S/80/80S | TU104 | 13,6 Milliards | 545 mm² | 24,9 |
GeForce RTX 2070/60/60S | TU106 | 10,8 Milliards | 445 mm² | 24,3 |
GeForce GTX 1660 (Ti) | TU116 | 6,6 Milliards | 286 mm² | 23,1 |
GeForce GTX 1650 | TU117 | 4,7 Milliards | 200 mm² | 23,5 |
GeForce GTX 1080 Ti | GP102 | 12 Milliards | 471 mm² | 25,5 |
GeForce GTX 1080/70 (Ti) | GP104 | 7,2 Milliards | 314 mm² | 22,9 |
GeForce GTX 1060 | GP106 | 4,4 Milliards | 200 mm² | 22 |
GeForce GTX 1050 (Ti) | GP107 | 3,3 Milliards | 132 mm² | 25 |
Quid de la RTX 2080 SUPER plus précisément ? Le modèle d'origine s'appuyait sur un TU104 dont 2 SM (1 TPC) avaient été désactivés. Pour cette "super" version, NVIDIA a décidé d'utiliser la version intégrale de son GPU, que l'on retrouve sur la Quadro RTX 5000. Voici résumées les principales caractéristiques de son GPU dans le tableau ci-dessous :
TU104 | RTX 2080 SUPER | RTX 2080 |
---|---|---|
GPC | 6 | 6 |
TPC / SM | 24 / 48 | 23 / 46 |
CUDA Cores | 3072 | 2944 |
TMU | 192 | 184 |
Tensor Cores | 384 | 368 |
RT Cores | 48 | 46 |
ROP | 64 | 64 |
L2 (Mo) | 4 | 4 |
Bus mémoire (bits) | 256 | 256 |
Au final, 4,3% séparent les deux versions de la RTX 2080 au niveau des unités de calcul et texturing. Pas de quoi générer un écart conséquent. Pour conserver des marges confortables, les verts n'ont pas choisi "d'upgrader" le GPU en passant sur un TU102, beaucoup plus cher à produire du fait de sa taille gigantesque. Pour autant, NVIDIA va jouer sur 2 points pour tenter de différencier davantage la nouvelle venue de sa devancière : les fréquences GPU / mémoire sont en effet en hausse, et pour s'assurer qu'elles soient exploitables en charge lourdes, l'enveloppe thermique est également plus généreuse.
Ce mécanisme a pour objectif de pousser chaque puce au plus près de ses limites, en s'affranchissant de tests trop sélectifs en sortie de production. C'est en effet GPU Boost qui est chargé par la suite, de s'assurer que les conditions environnementales permettent au GPU de fonctionner de manière stable et sans risque. Pour ce faire, il impose un double carcan constitué d'une limite de consommation et de température selon l'itération. Avec la version 3 introduite lors du lancement de Pascal, à partir de 37°C et tous les 5°C supplémentaires, le GPU perd 1 bin (~13 MHz) et ce jusqu'à la consigne de température maximale. Il perd alors autant de bins que nécessaire pour rester sous celle-ci.
La fréquence progressant de concert avec la tension d'alimentation du GPU, c'est un moyen très efficace pour contrôler la consommation (qui évolue au carré de la tension et dispose aussi de sa propre limite), évitant ainsi une envolée des nuisances sonores, avec un refroidisseur pas forcément dimensionné pour la dissiper discrètement à fréquence maximale durant une charge soutenue, ce qui est le cas des Founders Edition à turbine. Le souci d'une telle approche, est la pénalisation de toutes les cartes Pascal, y compris les customs des constructeurs tiers, avec des refroidisseurs surdimensionnés. En effet, NVIDIA autorise la modification du TDP max. des cartes, mais en aucun cas des paliers de température par défaut de GPU Boost 3.0. Ci-dessous une représentation graphique de ce fonctionnement.
Avec Turing version RTX, NVIDIA a annoncé GPU Boost 4.0. En gros, ce dernier fonctionnerait de manière similaire, mais avec un ajustement qui fait toute la différence. En effet, les valeurs de températures sont à présent exposées, il est donc possible de les modifier. Bien sûr, il est nécessaire de rester dans la plage autorisée par le caméléon, mais le seuil à 37°C qui marquait le "début de la baisse" des fréquences, n'est plus imposé. Cela coïncide avec l’utilisation d'un refroidisseur plus performant sur les Founders Edition, qui ne perdent donc plus de fréquence du fait de la température. Toujours est-il, qu'il était très difficile de s'approcher du TDP max sur ces dernières en version Pascal, à part lors des premiers instants de forte sollicitation. Ce ne sera plus le cas avec les versions Turing RTX, qui seront davantage limitées par leur enveloppe thermique. Ci-dessous, la représentation schématique de GPU Boost 4.0. Notons également qu'un bin, prend à présent la valeur de 15 MHz, contre 13 MHz auparavant.
Nous avons précisé RTX car il semble bien que la série 16 ne soit pas gouvernée par la dernière itération de GPU Boost, mais bien la précédente ou plutôt un mix des deux, plus de détails à ce sujet dans nos dossiers dédiés à la série 16 de NVIDIA. Voilà pour les rappels, passons page suivante à la description de la carte de test que nous avons reçue.
|
Un poil avant ?Wolfenstein Young Blood arrive, pas de manière complète | Un peu plus tard ...AMD rejoint le CXL consortium pour préparer le futur du PCIe |