COMPTOIR
register

×

Turing en chiffres

Test • NVIDIA GeFORCE RTX 2070
Turing en chiffres
Diagramme TU106
GPU Boost 3.0
GPU Boost 4.0

• Turing

Pour ceux intéressés par l'architecture Turing, nous vous invitons à lire le dossier que nous lui avons consacré il y a quelque temps. Résumée en quelques lignes, cette dernière ressemble beaucoup à Volta avec quelques ajouts. Par rapport à Pascal (gaming) : des caches plus gros et rapides, des SM "plus petits" mais plus nombreux et capables de traiter en parallèle les calculs sur entier ou en virgule flottante (y compris en demi-précision (FP16) à double vitesse). Ces derniers intègrent à présent des Tensor Cores, accélérant significativement les calculs liés à l'intelligence artificielle, en particulier l'inférence, ainsi que les RT Cores, pierre angulaire de l'accélération matérielle du Ray Tracing, utilisable en temps réel dans les jeux via un rendu hybride, mixant cette technique à la rastérisation.  

 

Turing en chiffres [cliquer pour agrandir]

Turing en chiffres dans la déclinaison dédiée à la RTX 2080 Ti

 

 

• TU106

NVIDIA a conçu à partir de cette architecture 3 GPU (pour le moment), nous ne nous intéresserons aujourd'hui qu'au plus petit, alias TU106, qui se retrouve au sein de la RTX 2070. Ce dernier mesure tout de même un peu moins de 450 mm², soit très proche du flagship (hors pro) de la génération précédente, alias GP102. Le procédé de fabrication 12 nm personnalisé retenu par NVIDIA, est une optimisation du 16 nm FinFET de TSMC et dont les gains sont à chercher principalement au niveau de la performance des transistors, afin de rester dans une enveloppe thermique "gérable" malgré l'explosion de leur nombre. Vous retrouverez ci-dessous un résumé des différents GPU utilisés sur le haut de gamme des GeFORCE série 10 et 20.

 

CartesGPUNombre de transistorsSuperficie Die
GeForce RTX 2080 Ti TU102 18,6 Milliards 754 mm²
GeForce RTX 2080 TU104 13,6 Milliards 545 mm²
GeForce RTX 2070 TU106 10,8 Milliards 445 mm²
GeForce GTX 1080 Ti GP102 12 Milliards 471 mm²
GeForce GTX 1080 GP104 7,2 Milliards 314 mm²
GeForce GTX 1070 (Ti) GP104 7.2 Milliards 314 mm²

 

TU106 s'appuie sur 3 GPC, réduisant d'autant les unités de rastérisation, mais reprenant la constitution de ceux utilisés par TU102, soit 6 TPC / 12 SM. On peut donc voir TU106 comme un demi TU102, à l'interface mémoire près. En effet, alors que le caméléon utilise un bus mémoire 192-bit sur ses puces série xx06 depuis plusieurs années, ce sont cette fois pas moins de 8 contrôleurs mémoire qui prennent place au sein du die, pour une largeur cumulée de 256-bit, la même que TU104. Il en va de même pour les éléments liés, c'est-à-dire les 64 ROP et 4 Mo de cache L2.

 

Diagramme TU106 [cliquer pour agrandir]

 

Le GPU utilisé sur la GeForce RTX 2070 est "complet", c'est à dire qu'aucun bloc/unité n'a été désactivé pour faciliter la production comme c'était le cas des TU102/104 embarqués sur les RTX 2080 / 2080 Ti. Les caractéristiques principales de TU106 sont résumées dans le tableau ci-dessous.

 

GeForce RTX 2070Quantité activée
GPC 3
TPC / SM 18 / 36
CUDA Cores 2304
TMU 144
Tensor Cores 288
RT Cores 36
ROP 64
L2 (Mo) 4
Bus mémoire (bits) 256

 

En parlant chiffres, la RTX 2070 est-elle vraiment pénalisée par rapport à sa devancière de cette "rétrogradation" sur un GPU différent ? En fait, 37 % (calcul) et 25 % (bande passante mémoire) séparaient 1080 et 1070. Si l'on s'attache cette fois aux écarts séparant 2080 et 2070, ils sont de respectivement 35% et ......... 0%. Difficile donc de crier au scandale, sauf pour les amateurs de multi-GPU, puisque les interfaces Ad Hoc sont aux abonnés absents sur TU106.

 

 

• GPU Boost 4.0

Avant d'attaquer la description de la carte testée en page suivante, un petit rappel sur un changement notable au niveau de la gestion des fréquences appliquées au processeur graphique via GPU Boost. Ce mécanisme a pour objectif de pousser chaque puce au plus près de ses limites, en s'affranchissant de tests trop sélectifs en sortie de production. C'est en effet GPU Boost qui est est chargé par la suite, de s'assurer que les conditions environnementales permettent au GPU de fonctionner de manière stable et sans risque. Pour ce faire, il impose un double carcan constitué d'une limite de consommation et de température selon l'itération. Avec la version 3 introduite lors du lancement de Pascal, à partir de 37°C et tous les 5°C supplémentaires, le GPU perd 1 bin (~13 MHz) et ce jusqu'à la consigne de température maximale. Il perd alors autant de bins que nécessaire pour rester sous celle-ci.

 

La fréquence progressant de concert avec la tension d'alimentation du GPU, c'est un moyen très efficace pour contrôler la consommation (qui évolue au carré de la tension et dispose aussi de sa propre limite), évitant ainsi une envolée des nuisances sonores, avec un refroidisseur pas forcément dimensionné pour la dissiper discrètement, ce qui est le cas des Founders Edition à turbine. Le souci d'une telle approche, est la pénalisation de toutes les cartes Pascal, y compris les customs des constructeurs tiers, avec des refroidisseurs surdimensionnés. En effet, NVIDIA autorise la modification du TDP max. des cartes, mais en aucun cas les paliers de température par défaut de GPU Boost 3.0. Ci-dessous une représentation graphique de ce fonctionnement.

 

GPU Boost 3.0 [cliquer pour agrandir]

 

Avec Turing, NVIDIA a annoncé GPU Boost 4.0. En gros, ce dernier fonctionnerait de manière similaire, mais avec un ajustement qui fait toute la différence. En effet, les valeurs de températures sont à présent exposées et il possible de les modifier. Bien sûr, il est nécessaire de rester dans la plage autorisée par le caméléon, mais le seuil à 37°C qui marquait le "début de la baisse" des fréquences, n'est plus imposé. Cela coïncide avec l’utilisation d'un refroidisseur plus performant sur les Founders Edition, qui ne perdent donc plus de fréquence du fait de la température. Toujours est-il, qu'il était très difficile de s'approcher du TDP max sur ces dernières en version Pascal, à part lors des premiers instants de forte sollicitation, ce ne sera plus le cas avec les versions Turing, qui seront davantage limitées par leur enveloppe thermique. Ci-dessous, la représentation schématique de GPU Boost 4.0. Notons également qu'un bin, prend à présent la valeur de 15 MHz, contre 13 MHz auparavant.

 

GPU Boost 4.0 [cliquer pour agrandir]

 

Voilà pour le sujet, passons page suivante à la description de la MSI RTX 2070 ARMOR.



Les 27 ragots
Les ragots sont actuellement
prévention anti troll, loguez-vous !ouverts aux ragoteurs logués
par Pounyet, le Samedi 29 Décembre 2018 à 11h48  
par Guillaume L. le Samedi 29 Décembre 2018 à 10h00
Je vais même complêter la réponse d'Eric : l'intérêt des customs aujourd'hui est d'avantage de maintenir les performances sous toutes les conditions plus que d'augmenter les performances brutes sur un bench.
Pour ceux qui voudront booster les performances, maintenant il faudra passer par l'OC automatique des fabricants, mais les premiers tests sur des RTX customs ne démontrent pas de gros gains de puissances en conditions réelles . L'intérêt sera surtout sonore, la fiabilité et l'aspect visuel si on aime le RGB
par Guillaume L., le Samedi 29 Décembre 2018 à 10h00  
Je vais même complêter la réponse d'Eric : l'intérêt des customs aujourd'hui est d'avantage de maintenir les performances sous toutes les conditions plus que d'augmenter les performances brutes sur un bench.
Pour ceux qui voudront booster les performances, maintenant il faudra passer par l'OC automatique des fabricants, mais les premiers tests sur des RTX customs ne démontrent pas de gros gains de puissances en conditions réelles . L'intérêt sera surtout sonore, la fiabilité et l'aspect visuel si on aime le RGB
par Eric B., le Samedi 29 Décembre 2018 à 06h49  
Oui, on s'amuse à baisser les fréquences . Non mais sérieusement dans quel but ferait-on une telle chose ? L'écart entre la 1080 et 1080 Ti sur cet article est de 28,8 %, une valeur qui oscille systématiquement autour des 30% depuis son lancement (selon les dossiers et donc le panel de jeux retenus).

Edit : comme tu as enrichi ton message depuis ma réponse, je complète celle-ci. Comparer les scores comme tu fais est trompeur : la configuration est différente, les réglages peut-être aussi et la façon de faire le test probablement. Une FE pour rappel est sérieusement impactée par sa température lorsque tu prends le temps de laisser monter celle-ci sur la carte, ce que je fais pour toutes les cartes puisqu'en définitive ce sera le niveau de performance réelle que retrouvera un joueur lors d'une session prolongée et pas juste un bench à froid. Il est clair qu'une custom avec un bon refroidisseur sera moins impactée.
par fabtech, le Samedi 29 Décembre 2018 à 06h29  
Je me demande comment ça se fait que les scores soient aussi médicocres avec une GTX1080Ti et ce même avec une FE... vous avez sous cadencé la CG ???
J'ai une 1080Ti, pour exemple je fais 84fps sous Shadow of The Tomb Raider en Ultra QHD, Mon score 3DMARK est de plus de 10500... Il y a un souci je pense... Une FE fait en général plus de 9500 sous 3DMARK et en moyenne 80fps sous Shadow of The Tomb Raider, les résultats ici en sont très loin...
Test cependant très intéressant mais du coup je me demande si les résultats de la RTX ne sont pas faussés non plus...
par TwoFace, le Samedi 29 Décembre 2018 à 02h01  
par Jemporte le Samedi 29 Décembre 2018 à 00h21
Tu as lu l'article RTX sur Vega ? Ca en dévoile pas mal sur la mise en place du Raytrace par l'API RTX pour finalement le sortir par le DXR, en blanc et en vrai temps réel (ce que Vega peut montrer), et ce qu'on peut dire c'est que c'est très mal optimisé. Les deux explications plausibles : le DXR de M$ est très mal foutu, ou bien c'est le moyen le plus simple pour les devs, pour appliquer le raytrace en surcouche à un jeu fini et déjà développé.
Je confirme tu racontes n'importe quoi, l'API c'est DXR et le RTX c'est la techno qui utilise les RT cores qui ensuite passe par le DXR microsoft bref tu mélanges un peu tout, pour finir par un pâté qui sent pas très bon
par Jemporte, le Samedi 29 Décembre 2018 à 00h21  
par TwoFace le Vendredi 28 Décembre 2018 à 20h49
Sérieux t'en as pas marre de raconter des idioties ?
Tu as lu l'article RTX sur Vega ? Ca en dévoile pas mal sur la mise en place du Raytrace par l'API RTX pour finalement le sortir par le DXR, en blanc et en vrai temps réel (ce que Vega peut montrer), et ce qu'on peut dire c'est que c'est très mal optimisé. Les deux explications plausibles : le DXR de M$ est très mal foutu, ou bien c'est le moyen le plus simple pour les devs, pour appliquer le raytrace en surcouche à un jeu fini et déjà développé.
par TwoFace, le Vendredi 28 Décembre 2018 à 21h27  
par Jte Roule D3ssus le Vendredi 28 Décembre 2018 à 21h03
Pratiquement une 1080ti, c'est vraiment pas mal
C'est triste à dire mais c'est sans doute le meilleur rapport qualité prix niveau carte "haute performance"
Pourquoi triste ?? ah oui c'est une nvidia ...
Plus sérieusement oui c'est un excellent prestations / perfs et en prime elle reste jouable en DXR moyen pour du 1080p donc franchement y a rien à dire, contrairement aux 2080 Ti...
par Jte Roule D3ssus, le Vendredi 28 Décembre 2018 à 21h03  
Pratiquement une 1080ti, c'est vraiment pas mal
C'est triste à dire mais c'est sans doute le meilleur rapport qualité prix niveau carte "haute performance"
par TwoFace, le Vendredi 28 Décembre 2018 à 20h49  
par Jemporte le Vendredi 28 Décembre 2018 à 19h32
Et encore, en regardant ce qui se passe sur le hack des Vega en rendu DXR jeu, programmé pour RTX, on commence à comprendre l'usine à gaz mise en place pas Nvidia pour optimiser en DXR les jeux pas prévus, et ce qui explique la chute de perfs catastrophiques dès qu'on active le DXR. Autrement dit, si des jeux prennent en compte depuis le début le DXR, ça ira nettement plus vite. En theorie, le Raytrace, tel que développé par Nvidia (unités séparées du GPU), ne devrait avoir aucun impact sur les perfs jeu. Il devrait rendre merdiquement ou très bien mais séparément du reste du rendu... avec à la limite un peu d'impact pour la sync des deux.
Il est probable, au contraire, qu'AMD intègre les unités de calculs capables du Raytrace dans chaque unité de calcul général sur Navi, comme sur Vega. Du coup Navi (et vega) devrait être impacté par la qualité de rendu raytrace et le pilote AMD devra opérer l'équilibrage. le principe d'AMD dvrait permettre une utilisation optimale des cores, mais sera limité au niveau des capacités des Cores. Ils ne pourront pas gaver le GPU d'un type de calcul parallèle particulier, plus qu'un autre.
Sérieux t'en as pas marre de raconter des idioties ?
par Jemporte, le Vendredi 28 Décembre 2018 à 19h32  
par TwoFace le Vendredi 28 Décembre 2018 à 17h50
Plus sérieusement à 500 balles (et il y a déjà eu des promos à 480 euros..)franchement elle a du mérite cette carte, en prime elle donne l'occasion de pouvoir jouer en 1080p avec du DXR en moyen dans de bonnes conditions.
Après cela reste chère mais dans un positionnement de gamme c'est la meilleur offre sur les turing et pour ceux n'ayant pas les moyens la 2060 arrive en janvier il me semble.

Et hormis le DXR, la carte est très à l'aise en 1440p
Et encore, en regardant ce qui se passe sur le hack des Vega en rendu DXR jeu, programmé pour RTX, on commence à comprendre l'usine à gaz mise en place pas Nvidia pour optimiser en DXR les jeux pas prévus, et ce qui explique la chute de perfs catastrophiques dès qu'on active le DXR. Autrement dit, si des jeux prennent en compte depuis le début le DXR, ça ira nettement plus vite. En theorie, le Raytrace, tel que développé par Nvidia (unités séparées du GPU), ne devrait avoir aucun impact sur les perfs jeu. Il devrait rendre merdiquement ou très bien mais séparément du reste du rendu... avec à la limite un peu d'impact pour la sync des deux.
Il est probable, au contraire, qu'AMD intègre les unités de calculs capables du Raytrace dans chaque unité de calcul général sur Navi, comme sur Vega. Du coup Navi (et vega) devrait être impacté par la qualité de rendu raytrace et le pilote AMD devra opérer l'équilibrage. le principe d'AMD dvrait permettre une utilisation optimale des cores, mais sera limité au niveau des capacités des Cores. Ils ne pourront pas gaver le GPU d'un type de calcul parallèle particulier, plus qu'un autre.
par dfd, le Vendredi 28 Décembre 2018 à 19h10  
Super test anéfé !
Très bonne carte, cette RTX 2070 : à ~500 balles elle fera un carton dans sa gamme de perfs...
Mais pour les nouveaux acheteurs malheureusement : les possesseurs de GTX 1080 ne vont pas tout benner pour quelques % de perfs en plus.
Perso je ne retiens de RTX que l'inflation du ticket d'entrée.
Même l'hypothétique RTX 2050 aux perfs +/- proches de la GTX 1060 aura du mal à séduire, si elle ne tombe pas grandement sous les 250 euros...
par TwoFace, le Vendredi 28 Décembre 2018 à 17h59  
par Eric B. le Vendredi 28 Décembre 2018 à 17h54
Ben pour le coup, la Vega56 (si on met de côté la tirade DXR), on en trouve en ce moment à 350 € et à ce prix c'est loin d'être une énormité que de la conseiller...
Ben fallait mettre un peu la mise en scène non ? d'ou la tirade avec la VEGA 56 qui sois dit en passant est un super plan surtout avec 3 gros jeux AAA gratos j'en conviens volontiers