COMPTOIR
  
register

×

Comparaison architecture Pascal / Turing

Test • GeForce GTX 1650 SUPER vs Radeon RX 5500 XT
Comparaison architecture Pascal / Turing
Turing en chiffres
Diagramme TU116
GPU Boost 3.0
GPU Boost 4.0

• Turing

Pour ceux intéressés par l'architecture Turing, nous vous invitons à lire ou relire le dossier que nous lui avons consacré il y a quelque temps. Résumée en quelques lignes, cette dernière ressemble beaucoup à Volta avec quelques ajouts. Par rapport à Pascal (gaming) : des caches plus gros et rapides, des SM "plus petits", mais plus nombreux et capables de traiter en parallèle les calculs sur entiers ou en virgule flottante (y compris en demi-précision (FP16) à double vitesse).

 

Comparaison architecture Pascal / Turing [cliquer pour agrandir]

 

Voilà pour la partie "classique" de l'architecture, NVIDIA a complété cette dernière par des Tensor Cores, accélérant significativement les calculs liés à l'intelligence artificielle, en particulier l'inférence, ainsi que les RT Cores, dédiés à l'accélération matérielle (des calculs d'intersection rayons / triangles) du Ray Tracing, utilisable en temps réel dans les jeux via un rendu hybride, mixant cette technique à une base rastérisation.  

 

Turing en chiffres [cliquer pour agrandir]

Turing en chiffres dans sa déclinaison dédiée à la RTX 2080 Ti

 

Mais ces nouvelles fonctionnalités sont loin d'être gratuites en termes de "coût transistors", avec pour conséquence des dies pour le moins imposants et donc onéreux à produire, du fait d'un nombre réduit de ces derniers par Wafer (disques en silicium sur lesquels sont gravés les puces). Les verts ont toutefois conçu 2 autres GPU Turing s'affranchissant des RT et Tensors Cores, afin d'atteindre un coût de production plus adapté au marché visé. Il s'agit des TU117 (GTX 1650) et TU116 (GTX 1660 / 1660 SUPER / 1660 TI). C'est ce dernier qui officie à nouveau sur la déclinaison SUPER de la GTX 1650.

 

 

• TU116

En toute logique, le préfixe RTX laisse la place à GTX du fait de l'absence des nouvelles fonctionnalités. Le die de TU116 mesure 286 mm², à mettre en perspective des 445 mm² de TU106 équipant les RTX 2060/2070 (mais ausi des 158 mm² de Navi 14). Cette baisse de 36% permet au caméléon de graver plus de GPU par Wafer, faisant mécaniquement baisser les coûts de production puisqu'il achète ces derniers aux fondeurs. Le procédé de fabrication 12 nm FFN est personnalisé pour les verts (FFN = FinFET NVIDIA) par TSMC, il s'agit en fait d'une optimisation du "16 nm FinFET Plus" existant. Les gains ne sont pas à chercher du côté de la densité de gravure, mais de la performance des transistors, afin de rester dans une enveloppe thermique "gérable", malgré l'explosion de leur nombre. Vous retrouverez ci-dessous un résumé des différents GPU utilisés sur le haut et moyen de gamme des GeForce série 10, 20 et 16, le S signifiant SUPER).

 

Cartes
GPUNombre de transistorsSuperficie Die

Densité (Millions de transistors / mm²)

Procédé de fabrication
GeForce RTX 2080 Ti TU102 18,6 Milliards 754 mm² 24,7 TSMC 12 nm FFN
GeForce RTX 2080/70S TU104 13,6 Milliards 545 mm² 24,9 TSMC 12 nm FFN
GeForce RTX 2070/60/60S TU106 10,8 Milliards 445 mm² 24,3 TSMC 12 nm FFN
GeForce GTX 1660 (Ti / S)  / GTX 1650S TU116 6,6 Milliards 286 mm² 23,1 TSMC 12 nm FFN
GeForce GTX 1080 Ti GP102 12 Milliards 471 mm² 25,5 TSMC 16 nm FF+
GeForce GTX 1080/70 (Ti) GP104 7,2 Milliards 314 mm² 22,9 TSMC 16 nm FF+ 
GeForce GTX 1060 GP106 4,4 Milliards 200 mm² 22 TSMC 16 nm FF+

 

TU116 s'appuie comme TU106 sur 3 GPC, réduisant d'autant les unités de rastérisation. Par contre, il reprend la configuration de ceux utilisés par TU102, c'est-à-dire incluant 4 TPC / SM. On peut aussi voir TU116 comme un demi TU104 amputé de ses RT / Tensors Cores et à l'interface mémoire près. En effet, cette dernière n'est réduite que d'un quart, puisque le caméléon utilise un bus mémoire 192-bit via 6 contrôleurs 32-bit, qui prennent place au sein du die et sont capables de gérer aussi bien la GDDR 6 que 5. Enfin, la réduction est du même ordre pour les éléments liés, c'est-à-dire les ROP (par partition de 8) et le cache L2, pour des valeurs respectives de 48 et 3 Mo.

 

Diagramme TU116 [cliquer pour agrandir]

 

Le GPU utilisé sur la GeForce GTX 1650 SUPER est bien entendu partiellement bridé pour laisser un avantage aux diverses 1660. NVIDIA utilise toujours 3 GPC, par contre 2 TPC (soit 2 SM) sont cette fois désactivés (contre 1 sur les 1660 / 1660S). À cela s'ajoute la désactivation de 2 contrôleurs mémoire 32-bit, portant le bus à 128-bit et entrainant la suppression de 16 ROP ainsi qu'un megaoctet de L3. Ajoutons que si la fréquence de base est identique à celle des 1660 / 1660S, le boost est en recul de 2 bins (60 MHz).

 

GeForce GTX 1660 & GTX 1660 SUPERQuantité activéeQuantité Présente
GPC 3 3
TPC / SM 10 / 20 12 / 24
CUDA Cores 1280 1536
TMU 80 96
Tensor Cores - -
RT Cores - -
ROP 32 48
L2 (Mo) 2 3
Bus mémoire (bits) 128 192

 

Au niveau de la mémoire, le caméléon a décidé d'utiliser de la GDDR6 12 GBPS, à l'instar de la 1660 Ti. À noter également que les encodeurs et décodeurs vidéo intégrés sont de toute dernière génération, alors que la GTX 1650 (non SUPER) devait se "contenter" de la génération Volta pour ces derniers, puisque TU117 est ainsi conçu. L'écart entre les deux n'est toutefois pas substantiel, mais l'accès au B Frame du H.265 sur une carte au tarif accessible, en réjouira plus d'un. Finissons cette page par un dernier rappel, celui concernant le grand ordonnanceur des fréquences GPU des GeForce, à savoir GPU Boost dans sa quatrième itération, étrennée avec ces nouvelles générations de cartes, du moins les RTX.

 

 

• GPU Boost

Ce mécanisme a pour objectif de pousser chaque puce au plus près de ses limites, en s'affranchissant de tests trop sélectifs en sortie de production. C'est en effet GPU Boost qui est chargé par la suite de s'assurer que les conditions environnementales permettent au GPU de fonctionner de manière stable et sans risque. Pour ce faire, il impose un double carcan constitué d'une limite de consommation et de température selon l'itération. Avec la version 3 introduite lors du lancement de Pascal, à partir de 37°C et tous les 5°C supplémentaires, le GPU perd 1 bin (~13 MHz) et ce jusqu'à la consigne de température maximale. Il perd alors autant de bins que nécessaire pour rester sous celle-ci.

 

La fréquence progressant de concert avec la tension d'alimentation du GPU, c'est un moyen très efficace pour contrôler la consommation (qui évolue au carré de la tension et dispose aussi de sa propre limite), évitant ainsi une envolée des nuisances sonores, avec un refroidisseur pas forcément dimensionné pour la dissiper discrètement à fréquence maximale durant une charge soutenue, ce qui est le cas des Founders Edition à turbine. Le souci d'une telle approche, est la pénalisation de toutes les cartes Pascal, y compris les customs des constructeurs tiers, avec des refroidisseurs surdimensionnés. En effet, NVIDIA autorise la modification du TDP max. des cartes, mais en aucun cas des paliers de température par défaut de GPU Boost 3.0. Ci-dessous une représentation graphique de ce fonctionnement.

 

GPU Boost 3.0 [cliquer pour agrandir]

 

Avec Turing version RTX, NVIDIA a annoncé GPU Boost 4.0. En gros, ce dernier fonctionnerait de manière similaire, mais avec un ajustement qui fait toute la différence. En effet, les valeurs de températures sont à présent exposées, il est donc possible de les modifier. Bien sûr, il est nécessaire de rester dans la plage autorisée par le caméléon, mais le seuil à 37°C qui marquait le "début de la baisse" des fréquences n'est plus imposé. Cela coïncide avec l’utilisation d'un refroidisseur plus performant sur les Founders Edition, qui ne perdent donc plus de fréquence du fait de la température. Toujours est-il, qu'il était très difficile de s'approcher du TDP max sur ces dernières en version Pascal, à part lors des premiers instants de forte sollicitation. Ce ne sera plus le cas avec les versions Turing RTX, qui seront davantage limitées par leur enveloppe thermique. Ci-dessous, la représentation schématique de GPU Boost 4.0. Notons également qu'un bin, prend à présent la valeur de 15 MHz, contre 13 MHz auparavant.

 

GPU Boost 4.0 [cliquer pour agrandir]

 

Nous avons précisé RTX car il semble bien que la série 16 ne soit pas gouvernée par la dernière itération de GPU Boost, mais la précédente ou un mix des deux, plus de détails à ce sujet dans nos précédents dossiers dédiés aux GTX 16. Voilà pour les rappels côté vert, passons page suivante à ceux concernant les rouges.



Un poil avant ?

Les ventes de RDR2 décevantes ... sur l'Epic Games Store

Un peu plus tard ...

Quoi de neuf dans le noyau Linux pour Noël ?

Les 41 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par cabou83, le Samedi 28 Décembre 2019 à 21h06  
par Eric B. le Samedi 28 Décembre 2019 à 07h51
Tu n'étais pas déjà sur une Vega56 ? Oui en farlouillant toutes les options on doit certainement pouvoir trouver le réglage tiptop pour sa configuration, de mon côté, j'ai visé pour ce test des perfs proches des 60 i/s pour les 5500 XT & 1650 SUPER en utilisant des presets "simples" afin d'avoir une idée des compromis nécessaires pour atteindre ce niveau de performance avec ces cartes en FHD.
3615mavie, je l'ai vendu, car j'étais au chômage et j'avais besoin d'argent rapidement. J'ai retrouvé du taff donc je pouvais reprendre un bon gpu vers 350€ max (ou sinon fallait que j'attendent plus, avec ma 280X, mais quand on a connu le jeux en Ultra 1440p, repasser en moyen 1080p même pas à 60fps c'est trop dur ) et j'avoue que la, là promo ma fait de l'oeil et le rad est bien plus silencieux que la ref donc que du +.

D'ailleurs pour la petite anecdote. Pour la même fréquence entre la 56 et la 64 sous 3D mark j'ai 3.5% de gain avec la 64. Pour 1610MHz régler en P4/P5/P6/P7, ça permet à la carte de stabiliser la fréquence fixe et pas d'osciller, contrairement à l'OC uniquement du P7 que la carte n'arrive pas a atteindre.

Bref 4% pour 512sp de plus, ça prouve bien que FULL les CU sont mal alimenté, car je pense que le gain est du uniquement au cache L1 supplémentaire du au CU en +, et au TMU à 256 contre 224 sur la 56. Mais clairement les 512sp ne servent à rien ou presque vu le gain faiblard.
par Eric B., le Samedi 28 Décembre 2019 à 07h51  
Tu n'étais pas déjà sur une Vega56 ? Oui en farlouillant toutes les options on doit certainement pouvoir trouver le réglage tiptop pour sa configuration, de mon côté, j'ai visé pour ce test des perfs proches des 60 i/s pour les 5500 XT & 1650 SUPER en utilisant des presets "simples" afin d'avoir une idée des compromis nécessaires pour atteindre ce niveau de performance avec ces cartes en FHD.
par cabou83, le Vendredi 27 Décembre 2019 à 21h38  
par Eric B. le Jeudi 26 Décembre 2019 à 10h01
Il faut se contenter du moyen sur ce jeu pour atteindre les 60 i/s, cela n'a rien de déshonorant d'autant que le rendu est déjà très correct à ce niveau de détails. Après on peut aussi sacrifier les sacro-saints 60 i/s pour améliorer quelque peu le visuel, tout est histoire de choix.
Avec ce preset. On perd pas grand chose graphiquement face au "ultra". Et avec une Vega 64 optimisé j'ai 45fps en 4K, contre 35fps en ultra, et en passant en 1800p je monte a 55/60fps (contre 40/45fps en ultra) pour presque aucune différence de finesse entre le 1800p ou 2160p.
Je me suis laisser tenté par la V64 de Gigabyte a 278€ sur RDC, je me dis j'ai 220€ en bon d'achat pendant 12 mois avec leur pack reprise si je veux upgrade et je dois dire je suis plutôt satisfait, elle est silencieuse et bien refroidi.
C'était pour moi le meilleure bp des fêtes de fin d'année sur le marché des GPU.
par Une ragoteur de 14-18 d'Occitanie, le Vendredi 27 Décembre 2019 à 16h25  
Si je ne suis pas à 60 fps, cela ne m'empêche pas de dormir
par Eric B., le Jeudi 26 Décembre 2019 à 10h01  
Il faut se contenter du moyen sur ce jeu pour atteindre les 60 i/s, cela n'a rien de déshonorant d'autant que le rendu est déjà très correct à ce niveau de détails. Après on peut aussi sacrifier les sacro-saints 60 i/s pour améliorer quelque peu le visuel, tout est histoire de choix.
par Un ragoteur de 14-18 embusqué, le Jeudi 26 Décembre 2019 à 09h57  
Moi je vois que c'est un peu juste pour RDR2
par Un ragoteur qui draille embusqué, le Jeudi 26 Décembre 2019 à 09h48  
Merci pour ce test, enfin une évaluation sérieuse de ces cartes dans la langue de Molière. Ça valait la peine de patienter quelques peu, car le niveau de certains de vos confrères francophones fait peine à voir, s'en est presque gênant pour eux.
par Eric B., le Jeudi 26 Décembre 2019 à 01h17  
Tu sais que comme tu es loggé, tu as la possibilité de corriger directement ton ragot plutôt que d'ajouter d'autres messages ? Tu as trop l'habitude de poster en anonyme
par Jemporte, le Jeudi 26 Décembre 2019 à 01h15  
2e correct. : Double Slot SLIM Low Profile.
par Jemporte, le Jeudi 26 Décembre 2019 à 01h13  
TU115117 pour le 1650.
par Eric B., le Jeudi 26 Décembre 2019 à 01h12  
par Ideal le Mercredi 25 Décembre 2019 à 22h36
Clairement car entre l'inaction et ce qu'on vient de voir sur cette news, comme masse de réponses à un simple troll vu et revu des dizaines de fois sur chaque news 7nm ou RDNA2, y a quand même de quoi de faire en terme de réponses + concises et + claires.
Ce n'est malheureusement pas si simple à mon sens : comme indiqué précédemment si on ne ne dit rien on laisse la possibilité à certains d'être influencés par les propos tenus. Si on censure on passe pour les méchants qui n'acceptent pas la critique. Si on se montre dédaigneux vis-à-vis du message, on passe cette fois pour ceux à cours d'arguments pour répondre et jouant du sarcasme pour décrédibiliser le « savant/sachant ». Il n'y a pas de méthode miracle contre les trolls, sinon le web n'en serait pas infecté à ce point. Moi, mais ce n'est que mon avis, je trouve plus efficace d'étayer les réponses ( suffit de les lire attentivement pour se rendre compte que personne n'est dupe ici) en pointant du doigt les incohérences tout en restant correct, puisque c'est aussi le message que l'on souhaite faire passer. Le débat est toujours possible si dans la correction et la bonne foi, je l'ai d'ailleurs écrit précédemment. Par contre apporter une réponse argumentée c'est rarement faisable de manière concise et en une seule fois, surtout lorsque le mensonge est « emballé » au milieu de vérités utilisées à mauvais escient pour se donner une pseudo légitimité. C'est tout un talent pour certains, il faut savoir le reconnaître et détricoter tout ce fouillis n'est pas si aisé et ça demande des réponses / explications en conséquence .
par Jemporte, le Jeudi 26 Décembre 2019 à 01h10  
Je sais qu'on est sur des GTX 1650 Super TU116, mais les 1650 non Super, donc TU115, et leur TDP de 75W dans prise supplémentaire, qui gardent des perfs pas trop déclalées, permettent pour certaines, le double slot SLIM. Ca colle avec des PC mini-ITX très compacts ou micro-ATX fins. Autant dire un gros avantage qu'on est pas prêt de retrouver chez AMD avec un produit équivalent, du fait des TDP. Du coup, effectivement c'est raisonnable de penser qu'en 7nm, AMD aurait pu faire mieux et permettre une telle carte aux specs d'une GTX 1650 Super, parce que Nvidia le fait depuis un certains temps déjà en 12nm..