COMPTOIR
  
register

×

Comparaison architecture Pascal / Turing

Test • NVIDIA GeForce GTX 1660 SUPER
Comparaison architecture Pascal / Turing
Turing en chiffres
Diagramme TU116
GPU Boost 3.0
GPU Boost 4.0

• Turing

Pour ceux intéressés par l'architecture Turing, nous vous invitons à lire ou relire le dossier que nous lui avons consacré il y a quelque temps. Résumée en quelques lignes, cette dernière ressemble beaucoup à Volta avec quelques ajouts. Par rapport à Pascal (gaming) : des caches plus gros et rapides, des SM "plus petits" mais plus nombreux et capables de traiter en parallèle les calculs sur entiers ou en virgule flottante (y compris en demi-précision (FP16) à double vitesse).

 

Comparaison architecture Pascal / Turing [cliquer pour agrandir]

 

Voilà pour la partie "classique" de l'architecture, NVIDIA a complété cette dernière par des Tensor Cores, accélérant significativement les calculs liés à l'intelligence artificielle, en particulier l'inférence, ainsi que les RT Cores, dédiés à l'accélération matérielle (des calculs d'intersection rayons / triangles) du Ray Tracing, utilisable en temps réel dans les jeux via un rendu hybride, mixant cette technique à une base rastérisation.  

 

Turing en chiffres [cliquer pour agrandir]

Turing en chiffres dans sa déclinaison dédiée à la RTX 2080 Ti

 

Mais ces nouvelles fonctionnalités sont loin d'être gratuites en termes de "coût transistors", avec pour conséquence des dies pour le moins imposants et donc onéreux à produire, du fait d'un nombre réduit de ces derniers par Wafer (disques en silicium sur lesquels sont gravés les puces). Les verts ont toutefois conçu 2 autres GPU Turing s'affranchissant des RT et Tensors Cores, afin d'atteindre un coût de production plus adapté au marché visé. Il s'agit des TU117 (GTX 1650) et TU116 (GTX 1660 / 1660 TI). C'est ce dernier qui officie à nouveau sur la déclinaison SUPER.

 

 

• TU116

En toute logique, le préfixe RTX laisse la place à GTX du fait de l'absence des nouvelles fonctionnalités. Le die de TU116 mesure 286 mm², à mettre en perspective des 445 mm² de TU106 équipant les RTX 2060/2070. Cette baisse de 36% permet au caméléon de graver plus de GPU par Wafer, faisant mécaniquement baisser les coûts de production puisqu'il achète ces derniers aux fondeurs. Le procédé de fabrication 12 nm FFN est personnalisé pour les verts (FFN = FinFET NVIDIA) par TSMC, il s'agit en fait d'une optimisation du "16 nm FinFET Plus" existant. Les gains ne sont pas à chercher du côté de la densité de gravure, mais de la performance des transistors, afin de rester dans une enveloppe thermique "gérable", malgré l'explosion de leur nombre. Vous retrouverez ci-dessous un résumé des différents GPU utilisés sur le haut et moyen de gamme des GeForce série 10, 20 et 16, le S signifiant SUPER).

 

Cartes
GPUNombre de transistorsSuperficie Die

Densité (Millions de transistors / mm²)

Procédé de fabrication
GeForce RTX 2080 Ti TU102 18,6 Milliards 754 mm² 24,7 TSMC 12 nm FFN
GeForce RTX 2080/70S TU104 13,6 Milliards 545 mm² 24,9 TSMC 12 nm FFN
GeForce RTX 2070/60/60S TU106 10,8 Milliards 445 mm² 24,3 TSMC 12 nm FFN
GeForce GTX 1660 (Ti / S) TU116 6,6 Milliards 286 mm² 23,1 TSMC 12 nm FFN
GeForce GTX 1080 Ti GP102 12 Milliards 471 mm² 25,5 TSMC 16 nm FF+
GeForce GTX 1080/70 (Ti) GP104 7,2 Milliards 314 mm² 22,9 TSMC 16 nm FF+ 
GeForce GTX 1060 GP106 4,4 Milliards 200 mm² 22 TSMC 16 nm FF+

 

TU116 s'appuie comme TU106 sur 3 GPC, réduisant d'autant les unités de rastérisation. Par contre, il reprend la configuration de ceux utilisés par TU102, c'est à dire incluant 4 TPC / 8 SM. On peut donc voir TU116 comme un demi TU104 amputé de ses RT / Tensors Cores et à l'interface mémoire près. En effet, cette dernière n'est réduite que d'un quart, puisque le caméléon utilise un bus mémoire 192-bit via 6 contrôleurs 32-bit, qui prennent place au sein du die et sont capables de gérer aussi bien la GDDR 6 que 5. Enfin, la réduction est du même ordre pour les éléments liés, c'est-à-dire les ROP (par partition de 8) et le cache L2, pour des valeurs respectives de 48 et 3 Mo.

 

Diagramme TU116 [cliquer pour agrandir]

 

Le GPU utilisé sur la GeForce GTX 1660 est incomplet, NVIDIA réutilise exactement le même pour sa nouvelle 1660 SUPER, dont voici résumées les principales caractéristiques dans le tableau ci-dessous et les désactivations opérées. Ajoutons que les fréquences indicatives de fonctionnement sont également exactement les mêmes.

 

GeForce GTX 1660 & GTX 1660 SUPERQuantité activéeQuantité Présente
GPC 3 3
TPC / SM 11 / 22 12 / 24
CUDA Cores 1408 1536
TMU 88 96
Tensor Cores - -
RT Cores - -
ROP 48 48
L2 (Mo) 3 3
Bus mémoire (bits) 192 192

 

Alors qu'est-ce qui change entre les 2 modèles si les GPU sont strictement identiques y compris au niveau des fréquences ? Eh bien c'est au niveau de la mémoire que le caméléon va opérer un changement radical : alors que la GTX 1660 doit se contenter de GDDR5 à 8 Gbps, la version SUPER gagne de la GDDR6 à 14 Gbps, de quoi devancer le modèle Ti au niveau de la bande passante mémoire. A noter également que le moteur d’affichage vidéo est inchangé par rapport aux précédentes puces Turing, il en est de même pour les encodeurs et décodeurs intégrés, dont vous retrouverez le détail ici. A noter que la future GTX 1650 SUPER utilisera elle aussi un TU116, mais dont le bus mémoire sera amputé d'un tiers. Cela permettra aux verts de le coupler à nouveau avec de la GDDR6 (12 Gbps) pour gêner la RX 5500, alors que TU117 n'en semble pas capable. Finissons cette page par un dernier rappel, celui concernant le grand ordonnanceur des fréquences GPU des GeForce, à savoir GPU Boost dans sa quatrième itération, étrennée avec ces nouvelles générations de cartes, du moins les RTX.

 

 

• GPU Boost

Ce mécanisme a pour objectif de pousser chaque puce au plus près de ses limites, en s'affranchissant de tests trop sélectifs en sortie de production. C'est en effet GPU Boost qui est chargé par la suite, de s'assurer que les conditions environnementales permettent au GPU de fonctionner de manière stable et sans risque. Pour ce faire, il impose un double carcan constitué d'une limite de consommation et de température selon l'itération. Avec la version 3 introduite lors du lancement de Pascal, à partir de 37°C et tous les 5°C supplémentaires, le GPU perd 1 bin (~13 MHz) et ce jusqu'à la consigne de température maximale. Il perd alors autant de bins que nécessaire pour rester sous celle-ci.

 

La fréquence progressant de concert avec la tension d'alimentation du GPU, c'est un moyen très efficace pour contrôler la consommation (qui évolue au carré de la tension et dispose aussi de sa propre limite), évitant ainsi une envolée des nuisances sonores, avec un refroidisseur pas forcément dimensionné pour la dissiper discrètement à fréquence maximale durant une charge soutenue, ce qui est le cas des Founders Edition à turbine. Le souci d'une telle approche, est la pénalisation de toutes les cartes Pascal, y compris les customs des constructeurs tiers, avec des refroidisseurs surdimensionnés. En effet, NVIDIA autorise la modification du TDP max. des cartes, mais en aucun cas des paliers de température par défaut de GPU Boost 3.0. Ci-dessous une représentation graphique de ce fonctionnement.

 

GPU Boost 3.0 [cliquer pour agrandir]

 

Avec Turing version RTX, NVIDIA a annoncé GPU Boost 4.0. En gros, ce dernier fonctionnerait de manière similaire, mais avec un ajustement qui fait toute la différence. En effet, les valeurs de températures sont à présent exposées, il est donc possible de les modifier. Bien sûr, il est nécessaire de rester dans la plage autorisée par le caméléon, mais le seuil à 37°C qui marquait le "début de la baisse" des fréquences, n'est plus imposé. Cela coïncide avec l’utilisation d'un refroidisseur plus performant sur les Founders Edition, qui ne perdent donc plus de fréquence du fait de la température. Toujours est-il, qu'il était très difficile de s'approcher du TDP max sur ces dernières en version Pascal, à part lors des premiers instants de forte sollicitation. Ce ne sera plus le cas avec les versions Turing RTX, qui seront davantage limitées par leur enveloppe thermique. Ci-dessous, la représentation schématique de GPU Boost 4.0. Notons également qu'un bin, prend à présent la valeur de 15 MHz, contre 13 MHz auparavant.

 

GPU Boost 4.0 [cliquer pour agrandir]

 

Nous avons précisé RTX car il semble bien que la série 16 ne soit pas gouvernée par la dernière itération de GPU Boost, mais la précédente ou un mix des deux, plus de détails à ce sujet dans nos précédents dossiers dédiés aux GTX 16. Voilà pour les rappels, passons page suivante à la description de la Palit GTX 1660 SUPER GamingPro.



Un poil avant ?

TSMC et Glofo enfouissent (déjà) la hache et deviennent copains !

Un peu plus tard ...

Live Twitch • Modern Warfare, le retour

Les 25 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Virginie, le Mardi 14 Avril 2020 à 07h55  
par VIPH2 en Île-de-France le Dimanche 23 Février 2020 à 14h28
à noter que pour de l'encodage video HW, avec NVenc, la puce des GTX 1660 (base, super, Ti) est la même que sur les RTX.
Oui, enfin accès au B frame en H265 !!
Sur l'encodage, seule les vitesses ram et clock bus feront la différence entres les différentes cartes. ....
Memory Clock de la GTX 1660 SUPER / RTX 2060 = 14 000 Mhz
Memory Clock de la GTX 1660 Ti . . . . . . . . . . . . . . . = 12 000 Mhz
Memory Bandwidth de la GTX 1660 SUPER / RTX 2060 = 336 Gbp/s
Memory Bandwidth de la GTX 1660 Ti . . . . . . . . . . . . . . . = 288 Gbp/s
Donc, pour le Streaming et l'encodage NVenc la GTX 1660 SUPER, plus récente, serait meilleur que la GTX 1660 Ti ?
par VIPH2 en Île-de-France, le Dimanche 23 Février 2020 à 14h28  
à noter que pour de l'encodage video HW, avec NVenc, la puce des GTX 1660 (base, super, Ti) est la même que sur les RTX.
Oui, enfin accès au B frame en H265 !!
Sur l'encodage, seule les vitesses ram et clock bus feront la différence en les différentes cartes.

Donc, certes, une RTX 2080 sera meilleure qu'une 1660 mais de pas grand chose...

amis non-gamers, salut !
par Ideal, le Samedi 16 Novembre 2019 à 13h56  
par Eric B. le Samedi 16 Novembre 2019 à 11h15
Pas d'inquiétude à avoir, la distinction DX11 - DX12/Vlk sera toujours présente à l'avenir mais là faute de temps et s'agissant d'une énième version de Turing j'ai opté pour un échantillon de jeux allégé, cela n'avait plus bcp de sens de faire une moyenne dissociée du coup vu le faible nombre de jeux dans ce cas.
Le drama du jour date du 31/10
Ahah j'avais même pas vu j'ai dû accéder à la news par l'intermédiaire "nouveaux ragots" et cool concernant les tests dx12/dx11 c'est tout à fait compréhensible que ce soit chronophage surtout pour une carte qui est juste (bien) custom niveau de la mémoire. Merci de la réponse
par Eric B., le Samedi 16 Novembre 2019 à 11h15  
par Ideal le Vendredi 15 Novembre 2019 à 19h22
Cool le test dommage j'aimais bien la distinction entre les jeux DX12/vulkan et les jeux sous DX11 ça me manque.
Pas d'inquiétude à avoir, la distinction DX11 - DX12/Vlk sera toujours présente à l'avenir mais là faute de temps et s'agissant d'une énième version de Turing j'ai opté pour un échantillon de jeux allégé, cela n'avait plus bcp de sens de faire une moyenne dissociée du coup vu le faible nombre de jeux dans ce cas.
par Ideal le Vendredi 15 Novembre 2019 à 19h22
Concernant le drama du jour:
Le drama du jour date du 31/10
par Ideal, le Vendredi 15 Novembre 2019 à 19h22  
Cool le test dommage j'aimais bien la distinction entre les jeux DX12/vulkan et les jeux sous DX11 ça me manque
Sinon bien que la carte soit meilleur marché que celle qu'elle remplace pour moi c'est toujours pas assez bon marché tout comme les solutions AMD d'ailleurs.

Concernant le drama du jour:
par Thibaut G. le Mardi 29 Octobre 2019 à 20h25
premièrement tu te calmes, Guillaume n'est pas ton pote et il a le droit d'avoir un autre avis que le tien sans que tu te montres insultant ou méprisant.[...]mais de là à mal parler à Guillaume
Pas capté où il serait méprisant et encore moins insultant... d'ailleurs il s'est même pas adressé personnellement à guillaume... y a ni de "tu", "vous" ou "ses arguments".
Ptet "Ras le bol" c'est devenu une expression extrêmement offensante dans la street, faut que je me remette à la page
par Un ragoteur qui aime les BX de Bretagne le Mardi 29 Octobre 2019 à 20h00
Ras le bol de ces arguments. Génial dans 6 ans on aura des cartes qui consommeront 10 watts pour 250€ avec juste 50% de performances en plus. On est dans le monde du pc de bureau, pas du portable. Aujourd'hui on a l'impression que la seule chose qui compte c'est la consommation. Et parler du prix de la rx 580 à sa sortie, ce qui compte c'est ce que l'on a aujourd'hui pour tel prix
par Thibaut G., le Vendredi 15 Novembre 2019 à 18h15  
par Lord Anal d'Occitanie le Mercredi 06 Novembre 2019 à 09h59
Tout cela m'écœure au plus haut point, me débecte.
tout te débecte toi finalement, et si tu pouvais expliquer mon loulou?
par Un ragoteur en canicule en Provence-Alpes-Côte d'Azur, le Mercredi 06 Novembre 2019 à 10h38  
par Lord Anal d'Occitanie le Mercredi 06 Novembre 2019 à 09h59
Tout cela m'écœure au plus haut point, me débecte.
Ta raison l'anal c'est mal
par Lord Anal d'Occitanie, le Mercredi 06 Novembre 2019 à 09h59  
Tout cela m'écœure au plus haut point, me débecte.
par Un ragoteur en canicule en Provence-Alpes-Côte d'Azur, le Vendredi 01 Novembre 2019 à 13h31  
Et en même temps les prix devraient descendre d'ici le BF voir les soldes de Noel .
par Un ragoteur en canicule en Provence-Alpes-Côte d'Azur, le Vendredi 01 Novembre 2019 à 13h22  
par BloodBrother le Mardi 29 Octobre 2019 à 13h28
un peu cher tout de même...
oui un peu cher les RX 590 qui devraient être à 144 euros gros maxxx....
par Janus31, le Mercredi 30 Octobre 2019 à 13h03  
par Un ragoteur qui aime les BX de Bretagne le Mardi 29 Octobre 2019 à 20h00
Ras le bol de ces arguments. Génial dans 6 ans on aura des cartes qui consommeront 10 watts pour 250€ avec juste 50% de performances en plus. On est dans le monde du pc de bureau, pas du portable. Aujourd'hui on a l'impression que la seule chose qui compte c'est la consommation. Et parler du prix de la rx 580 à sa sortie, ce qui compte c'est ce que l'on a aujourd'hui pour tel prix
bah tu te contredis pas un peu ? en desktop/discrete les CG ne feront jamais moins de 100W (et effectivement resteront de l'ordre des 200€ mais pour des perfs accrues+++
et en portable, 100W ca passe aussi
Aucune chance de trouver des CG (heu, des vraies !) au dessous de 150€ (et encore, y'aura la manivelle pour la démarrer, comme le 2CV )
Sinon pour moi la seule utilité de ce genre de carte, c'est dans des micro-PC, avec juste un ventilo de boitier et un CPU "à-pas-chaud"
par Cronff, le Mercredi 30 Octobre 2019 à 12h41  
par calimeribo le Mardi 29 Octobre 2019 à 17h25
franchement ridicule ton argument certes une carte qui consomme peu est un avantage certain
par contre je vois pas bien le rapport avec un remplacement apacher
si c'est pour le coût électrique faut vraiment jouer et encore jouer pour que peut être qu'au bout d'un an ça te coûte 3€ de plus
par Un ragoteur qui aime les BX de Bretagne le Mardi 29 Octobre 2019 à 20h00
Ras le bol de ces arguments. Génial dans 6 ans on aura des cartes qui consommeront 10 watts pour 250€ avec juste 50% de performances en plus. On est dans le monde du pc de bureau, pas du portable. Aujourd'hui on a l'impression que la seule chose qui compte c'est la consommation. Et parler du prix de la rx 580 à sa sortie, ce qui compte c'est ce que l'on a aujourd'hui pour tel prix
C'est malheureux de lire que la moitié d'une réponse pour se donner raison
L'éco-responsabilité, on s'en tape quand on parle de ce domaine.
Et comme tu l'as dit, avant d'amortir avec la facture EDF, on peut jouer des années.

Je n'ai jamais été dans ce cas mais je suppose qu'il y a plein d'ados qui jouent sur des PC qui ne sont pas de première jeunesse, ou achetés en supermarché par des parents qui n'ont pas les moyens (ni les connaissances) d'acheter un gros PC. Et les OEM en supermarché sont souvent calculés au plus juste en ce qui concerne l'alimentation, les VRM sur la CM etc..

C'est à prendre en compte pour un upgrade économique pour pas arriver aux limites de l'alim et de la CM.