Test • GeForce GTX 1650 SUPER vs Radeon RX 5500 XT |
————— 24 Décembre 2019
Test • GeForce GTX 1650 SUPER vs Radeon RX 5500 XT |
————— 24 Décembre 2019
Pour ceux intéressés par l'architecture Turing, nous vous invitons à lire ou relire le dossier que nous lui avons consacré il y a quelque temps. Résumée en quelques lignes, cette dernière ressemble beaucoup à Volta avec quelques ajouts. Par rapport à Pascal (gaming) : des caches plus gros et rapides, des SM "plus petits", mais plus nombreux et capables de traiter en parallèle les calculs sur entiers ou en virgule flottante (y compris en demi-précision (FP16) à double vitesse).
Voilà pour la partie "classique" de l'architecture, NVIDIA a complété cette dernière par des Tensor Cores, accélérant significativement les calculs liés à l'intelligence artificielle, en particulier l'inférence, ainsi que les RT Cores, dédiés à l'accélération matérielle (des calculs d'intersection rayons / triangles) du Ray Tracing, utilisable en temps réel dans les jeux via un rendu hybride, mixant cette technique à une base rastérisation.
Turing en chiffres dans sa déclinaison dédiée à la RTX 2080 Ti
Mais ces nouvelles fonctionnalités sont loin d'être gratuites en termes de "coût transistors", avec pour conséquence des dies pour le moins imposants et donc onéreux à produire, du fait d'un nombre réduit de ces derniers par Wafer (disques en silicium sur lesquels sont gravés les puces). Les verts ont toutefois conçu 2 autres GPU Turing s'affranchissant des RT et Tensors Cores, afin d'atteindre un coût de production plus adapté au marché visé. Il s'agit des TU117 (GTX 1650) et TU116 (GTX 1660 / 1660 SUPER / 1660 TI). C'est ce dernier qui officie à nouveau sur la déclinaison SUPER de la GTX 1650.
En toute logique, le préfixe RTX laisse la place à GTX du fait de l'absence des nouvelles fonctionnalités. Le die de TU116 mesure 286 mm², à mettre en perspective des 445 mm² de TU106 équipant les RTX 2060/2070 (mais ausi des 158 mm² de Navi 14). Cette baisse de 36% permet au caméléon de graver plus de GPU par Wafer, faisant mécaniquement baisser les coûts de production puisqu'il achète ces derniers aux fondeurs. Le procédé de fabrication 12 nm FFN est personnalisé pour les verts (FFN = FinFET NVIDIA) par TSMC, il s'agit en fait d'une optimisation du "16 nm FinFET Plus" existant. Les gains ne sont pas à chercher du côté de la densité de gravure, mais de la performance des transistors, afin de rester dans une enveloppe thermique "gérable", malgré l'explosion de leur nombre. Vous retrouverez ci-dessous un résumé des différents GPU utilisés sur le haut et moyen de gamme des GeForce série 10, 20 et 16, le S signifiant SUPER).
Cartes | GPU | Nombre de transistors | Superficie Die |
Densité (Millions de transistors / mm²) | Procédé de fabrication |
---|---|---|---|---|---|
GeForce RTX 2080 Ti | TU102 | 18,6 Milliards | 754 mm² | 24,7 | TSMC 12 nm FFN |
GeForce RTX 2080/70S | TU104 | 13,6 Milliards | 545 mm² | 24,9 | TSMC 12 nm FFN |
GeForce RTX 2070/60/60S | TU106 | 10,8 Milliards | 445 mm² | 24,3 | TSMC 12 nm FFN |
GeForce GTX 1660 (Ti / S) / GTX 1650S | TU116 | 6,6 Milliards | 286 mm² | 23,1 | TSMC 12 nm FFN |
GeForce GTX 1080 Ti | GP102 | 12 Milliards | 471 mm² | 25,5 | TSMC 16 nm FF+ |
GeForce GTX 1080/70 (Ti) | GP104 | 7,2 Milliards | 314 mm² | 22,9 | TSMC 16 nm FF+ |
GeForce GTX 1060 | GP106 | 4,4 Milliards | 200 mm² | 22 | TSMC 16 nm FF+ |
TU116 s'appuie comme TU106 sur 3 GPC, réduisant d'autant les unités de rastérisation. Par contre, il reprend la configuration de ceux utilisés par TU102, c'est-à-dire incluant 4 TPC / SM. On peut aussi voir TU116 comme un demi TU104 amputé de ses RT / Tensors Cores et à l'interface mémoire près. En effet, cette dernière n'est réduite que d'un quart, puisque le caméléon utilise un bus mémoire 192-bit via 6 contrôleurs 32-bit, qui prennent place au sein du die et sont capables de gérer aussi bien la GDDR 6 que 5. Enfin, la réduction est du même ordre pour les éléments liés, c'est-à-dire les ROP (par partition de 8) et le cache L2, pour des valeurs respectives de 48 et 3 Mo.
Le GPU utilisé sur la GeForce GTX 1650 SUPER est bien entendu partiellement bridé pour laisser un avantage aux diverses 1660. NVIDIA utilise toujours 3 GPC, par contre 2 TPC (soit 2 SM) sont cette fois désactivés (contre 1 sur les 1660 / 1660S). À cela s'ajoute la désactivation de 2 contrôleurs mémoire 32-bit, portant le bus à 128-bit et entrainant la suppression de 16 ROP ainsi qu'un megaoctet de L3. Ajoutons que si la fréquence de base est identique à celle des 1660 / 1660S, le boost est en recul de 2 bins (60 MHz).
GeForce GTX 1660 & GTX 1660 SUPER | Quantité activée | Quantité Présente |
---|---|---|
GPC | 3 | 3 |
TPC / SM | 10 / 20 | 12 / 24 |
CUDA Cores | 1280 | 1536 |
TMU | 80 | 96 |
Tensor Cores | - | - |
RT Cores | - | - |
ROP | 32 | 48 |
L2 (Mo) | 2 | 3 |
Bus mémoire (bits) | 128 | 192 |
Au niveau de la mémoire, le caméléon a décidé d'utiliser de la GDDR6 12 GBPS, à l'instar de la 1660 Ti. À noter également que les encodeurs et décodeurs vidéo intégrés sont de toute dernière génération, alors que la GTX 1650 (non SUPER) devait se "contenter" de la génération Volta pour ces derniers, puisque TU117 est ainsi conçu. L'écart entre les deux n'est toutefois pas substantiel, mais l'accès au B Frame du H.265 sur une carte au tarif accessible, en réjouira plus d'un. Finissons cette page par un dernier rappel, celui concernant le grand ordonnanceur des fréquences GPU des GeForce, à savoir GPU Boost dans sa quatrième itération, étrennée avec ces nouvelles générations de cartes, du moins les RTX.
Ce mécanisme a pour objectif de pousser chaque puce au plus près de ses limites, en s'affranchissant de tests trop sélectifs en sortie de production. C'est en effet GPU Boost qui est chargé par la suite de s'assurer que les conditions environnementales permettent au GPU de fonctionner de manière stable et sans risque. Pour ce faire, il impose un double carcan constitué d'une limite de consommation et de température selon l'itération. Avec la version 3 introduite lors du lancement de Pascal, à partir de 37°C et tous les 5°C supplémentaires, le GPU perd 1 bin (~13 MHz) et ce jusqu'à la consigne de température maximale. Il perd alors autant de bins que nécessaire pour rester sous celle-ci.
La fréquence progressant de concert avec la tension d'alimentation du GPU, c'est un moyen très efficace pour contrôler la consommation (qui évolue au carré de la tension et dispose aussi de sa propre limite), évitant ainsi une envolée des nuisances sonores, avec un refroidisseur pas forcément dimensionné pour la dissiper discrètement à fréquence maximale durant une charge soutenue, ce qui est le cas des Founders Edition à turbine. Le souci d'une telle approche, est la pénalisation de toutes les cartes Pascal, y compris les customs des constructeurs tiers, avec des refroidisseurs surdimensionnés. En effet, NVIDIA autorise la modification du TDP max. des cartes, mais en aucun cas des paliers de température par défaut de GPU Boost 3.0. Ci-dessous une représentation graphique de ce fonctionnement.
Avec Turing version RTX, NVIDIA a annoncé GPU Boost 4.0. En gros, ce dernier fonctionnerait de manière similaire, mais avec un ajustement qui fait toute la différence. En effet, les valeurs de températures sont à présent exposées, il est donc possible de les modifier. Bien sûr, il est nécessaire de rester dans la plage autorisée par le caméléon, mais le seuil à 37°C qui marquait le "début de la baisse" des fréquences n'est plus imposé. Cela coïncide avec l’utilisation d'un refroidisseur plus performant sur les Founders Edition, qui ne perdent donc plus de fréquence du fait de la température. Toujours est-il, qu'il était très difficile de s'approcher du TDP max sur ces dernières en version Pascal, à part lors des premiers instants de forte sollicitation. Ce ne sera plus le cas avec les versions Turing RTX, qui seront davantage limitées par leur enveloppe thermique. Ci-dessous, la représentation schématique de GPU Boost 4.0. Notons également qu'un bin, prend à présent la valeur de 15 MHz, contre 13 MHz auparavant.
Nous avons précisé RTX car il semble bien que la série 16 ne soit pas gouvernée par la dernière itération de GPU Boost, mais la précédente ou un mix des deux, plus de détails à ce sujet dans nos précédents dossiers dédiés aux GTX 16. Voilà pour les rappels côté vert, passons page suivante à ceux concernant les rouges.
|
Un poil avant ?Les ventes de RDR2 décevantes ... sur l'Epic Games Store | Un peu plus tard ...Quoi de neuf dans le noyau Linux pour Noël ? |