COMPTOIR
  
register

×

3 cartes lancées

Preview • Turing : la révolution Ray Tracing & IA ?
3 cartes lancées
Diagramme TU102
Diagramme TU104
Diagramme TU106

• 3 cartes = 3 GPU

Après avoir détaillé l'architecture et avant de parler plus en détail des fonctionnalités proposées, voyons comment NVIDIA a traduit tout cela en pratique, via la description succincte des différents GPU conçus pour l'occasion. Pour rappel, voici les cartes annoncées durant la Gamescon :

 

3 cartes lancées [cliquer pour agrandir]

 

Trois cartes donc. En se référant à l'historique récent, nous étions en droit de penser que le modèle Ti utiliserait le plus gros GPU disponible en version légèrement castrée (quelques SM désactivés et éventuellement un contrôleur mémoire) et que les 2 autres partageraient un autre GPU, plus petit, dans des variantes légèrement différentes au niveau des éléments actifs là-aussi. En fait, ce n'est pas tout à fait cela, comme nous allons le voir dans le tableau ci-dessous. Nous avons également ajouté la précédente génération à titre de comparaison.

 

CartesGPUNombre de transistorsSuperficie Die
GeForce RTX 2080 Ti TU102 18,6 Milliards 754 mm²
GeForce RTX 2080 TU104 13,6 Milliards 545 mm²
GeForce RTX 2070 TU106 10,8 Milliards 445 mm²
GeForce GTX 1080 Ti GP102 12 Milliards 471 mm²
GeForce GTX 1080 GP104 7,2 Milliards 314 mm²
GeForce GTX 1070 GP104 7.2 Milliards 314 mm²

 

Ainsi, la plus petite des 3 cartes lancées n'utilise pas la puce TU104 dans une version bridée comme on pouvait s'y attendre, mais un TU106, que l'on imaginait davantage dévolu à une hypothétique RTX 2060. Pourquoi diable le caméléon a-t-il procédé de la sorte ? Tout n'est que supputation, mais un rapide coup d’œil à la taille des différents die, donne un élément de réponse. La plus grosse puce gaming de la série 10 et utilisée sur le flagship, ne dépasse que d'un peu moins de 6% (en superficie) TU106...

 

Tout cela démontre s'il le fallait encore, que les GPU Turing nécessitent de nombreux transistors pour ajouter les capacités en Ray Tracing et IA, cela se paie donc au niveau de la taille des die, le procédé de gravure retenu ne permettant pas d'améliorer la densité de ces derniers. Et que dire de TU102 qui utilise un die 60% plus grand que GP102 ? Nous n'allons pas le décrire à nouveau en intégralité ici, puisque nous l'avons déjà fait page 2, mais nous intéresser à la déclinaison utilisée au sein de la RTX 2080 Ti.

 

Diagramme TU102 [cliquer pour agrandir]

 

Vu les coûts de production d'un telle puce, elle ne sera disponible en version intégrale que sur les Quadro RTX 6000/8000 (6 300$ /10 000$ avec 24 / 48 Go de GDDR6) pour le moment (une éventuelle TITAN T à l'avenir ?). Les puces partiellement fonctionnelles, permettront d'augmenter le taux d'usage et réduire ainsi les coûts. C'est donc une puce dont 4 SM et un contrôleur mémoire 32-bit ont été désactivés, qui est utilisée. Du dernier point cité, découle la désactivation automatique de 8 ROP et 512 Ko de cache L2. Au final, voici les caractéristiques principales de cette variante de TU102, résumées dans le tableau ci-dessous.

 

GeForce RTX 2080 TiQuantité activée
GPC 6
TPC / SM 34 / 68
CUDA Cores 4352
TMU 272
Tensor Cores 544
RT Cores 68
ROP 88
L2 (Mo) 5,5
Bus mémoire (bits) 352

 

Intéressons-nous à présent à TU104, qui prend place au sein de la RTX 2080. Première constatation, il n'est pas composé de 4 GPC comme c'est traditionnellement le cas sur cette gamme de GPU, mais de 6 à l'instar des GP102/TU102. Il gagne ainsi 2 Raster Engine, de quoi afficher jusqu'à 6 triangles par cycle. Il a toutefois subit une cure d'amincissement, puisque chaque GPC ne contient plus "que" 4 TPC / 8 SM, soit 33% de moins que son grand frère. Il en est de même pour les contrôleurs mémoire, ROP et cache L2. Du côté comptable, le GPU embarque un bus mémoire à 256-bit, 64 ROP, 48 SM et donc 3072 CUDA Cores, 192 TMU, 384 Tensor Cores et 48 RT Cores. Pour finir, il ne conserve qu'un seul lien 8x NVLink sur les 2 du TU102.

Diagramme TU104 [cliquer pour agrandir]

 

À l'instar de la gamme supérieure, le GPU utilisé est quelque peu bridé, avec un TPC inactif soit 46 SM activés. Le bus mémoire et les éléments liés (ROP et L2) sont par contre conservés intégralement. Ci-dessous, le récapitulatif du GPU dans cette configuration.

 

GeForce RTX 2080Quantité activée
GPC 6
TPC / SM 23 / 46
CUDA Cores 2944
TMU 184
Tensor Cores 368
RT Cores 46
ROP 64
L2 (Mo) 4
Bus mémoire (bits) 256

 

Finissons par la surprise de ce lancement, alias TU106 qui se retrouve au sein de la RTX 2070. Il s'appuie cette fois sur 3 GPC, réduisant d'autant les unités de rastérisation, mais reprenant la constitution de ceux utilisés par TU102, soit 6 TPC / 12 SM. On peut donc voir TU106 comme un demi TU102, à l'interface mémoire près. En effet, alors que le caméléon utilise un bus mémoire 192-bit sur ses séries x06 depuis plusieurs années, ce sont cette fois pas moins de 8 contrôleurs mémoire qui prennent place au sein du die, pour une largeur cumulée de 256-bit, la même que TU104. Il en va de même pour les éléments liés, c'est-à-dire les 64 ROP et 4 Mo de cache L2.

 

Diagramme TU106 [cliquer pour agrandir]

 

Le GPU utilisé sur la GeForce RTX 2070 est par contre complet cette fois, vous pouvez donc retrouver ses caractéristiques principales dans le tableau ci-dessous.

 

GeForce RTX 2070Quantité activée
GPC 3
TPC / SM 18 / 36
CUDA Cores 2304
TMU 144
Tensor Cores 288
RT Cores 36
ROP 64
L2 (Mo) 4
Bus mémoire (bits) 256

 

Voilà pour la mise en œuvre pratique de Turing, en parlant chiffres, la RTX 2070 est-elle vraiment pénalisée par rapport à sa devancière de cette "rétrogradation" sur un GPU différent ? Il faudra attendre les tests pour s'en assurer, toutefois, 37% (calcul) et 25 % (bande passante mémoire) séparaient 1080 et 1070. Si l'on s'attache cette fois aux écarts séparant 2080 et 2070, ils sont de respectivement 35% et 0%. Difficile donc de crier au scandale, sauf pour les amateurs de multi-GPU. Voilà pour notre tour d'horizon de l'architecture Turing, intéressons-nous page suivante aux nouvelles fonctionnalités misent en œuvre avec cette dernière.



Un poil avant ?

Live Twitch • Démo de Forza Horizon 4 sur PC

Un peu plus tard ...

Lara benchée par tous les... GPU bien sûr !

Les 33 ragots
Les ragots sont actuellement
ragots réservés aux QI élevésouverts aux ragoteurs logués
par Sarge, le Dimanche 16 Septembre 2018 à 09h09  
par Nicolas D., le Vendredi 14 Septembre 2018 à 19h30
Un complément est toujours possible, mais d'ici à en faire un tout structuré... Si tu as des axes précis je me ferais un plaisir de faire un soft du hard sur ce sujet !
Je n'ai pas d'axes précis, mais je pense vraiment que ce côté technique est une vraie plus-value pour votre site qui en plus, francophone...hâte d'avoir d'avantage de technique sur ce site !!

Ps : Et puis, pour les fans des verts, c'est le moment ou jamais pour se mettre à l'affut de la bonne affaire sur des GPU Pascalounet !!
par Eric B., le Dimanche 16 Septembre 2018 à 07h44  
Pour le coup je suis plutôt en phase avec ton raisonnement, comme quoi.
par Jemporte, le Samedi 15 Septembre 2018 à 21h01  
par philippe, le Samedi 15 Septembre 2018 à 11h16
Bon, on attend les tests 'réels' maintenant.
J'avoue ne pas savoir que penser. Les prix sont déjà factuels et sont déconnectés du pouvoir d'achat moyen.
Jouer va-t-il être réservé aux riches? La populace retournant aux mécanos? J'attends votre prose sur le sujet.
2070 = 650E (c'est déjà hors de prix pour 95% des joueurs)
2080 en sli: 1800E
2080 TI en sli triple : 3950E
Une 2070 étant une demi 2080TI (le prix est proportionnel), les futures 2060, 2050, 2030 profiteront-elles de ces nouveautés avec le peu de puissance de calcul à disposition prévisible ?
Je reste convaincu d'un lacement des GPU RTX bon marché et plus performants en 7nm (probablement juste les mêmes GPU 12nm redessinés en 7nm) dans un an, pas plus. En attendant ils ont sorti des machins très gros, pas rentables, à peine plus rapides que Pascal en usage courant (mais quand même un peu plus), pour occuper le terrain. Effectivement, les "riches" tiendront Nvidia en pointe, et permettront aux développeurs jeux de développer sur cette nouvelle architecture à capacité Raytracing "pour l'avenir".
Donc, selon moi, ces cartes seront démodées dans un an, tout autant que la gamme GTX.
Celà dit, la stratégie technico-commerciale de Nvidia est tout juste excellente, si les ventes sont à la hauteur (et pas la peine de capter tout le marché juste l'élite des joueurs).
par Cristallix, le Samedi 15 Septembre 2018 à 15h03  
par Nicolas D., le Samedi 15 Septembre 2018 à 08h31
Il est possible qu'un profil "générique" donne de bons résultats sur un grand nombre de moteurs de jeux différents en fait, vu que le phénomène à apprendre est toujours de l'aliasing (à prendre avec des pincettes pour le coup). Pour le faire soi-même, effectivement c'est impossible, mais même si ça l'avait été, je ne pense honnêtement pas que un particulier aurait la puissance de calcul nécessaire pour à la fois générer les images et entraîner le réseau dans un temps raisonnable...
Non mais au moins nVidia nous filait les outils pour le faire on pourrait le faire avec n'importe quel jeu, et pas seulement ceux que EUX ont décidé. Même si tout le monde va pas le faire on a toujours quelques personnes qui le feront.
par Arkane, le Samedi 15 Septembre 2018 à 14h57  
par Sarge, le Vendredi 14 Septembre 2018 à 15h17
Sinon, est ce possible de diminuer la "vitesse" des GIF, j'ai l'impression qui défilent super vite ?!
Y a des extensions qui existent pour ça:
- Firefox : mettre en pause ou "rembobiner" un GIF avec Toggle animated GIFs
- Chrome (j'ai pas testé ) : GIF Scrubber
par philippe, le Samedi 15 Septembre 2018 à 11h16  
Bon, on attend les tests 'réels' maintenant.
J'avoue ne pas savoir que penser. Les prix sont déjà factuels et sont déconnectés du pouvoir d'achat moyen.
Jouer va-t-il être réservé aux riches? La populace retournant aux mécanos? J'attends votre prose sur le sujet.
2070 = 650E (c'est déjà hors de prix pour 95% des joueurs)
2080 en sli: 1800E
2080 TI en sli triple : 3950E
Une 2070 étant une demi 2080TI (le prix est proportionnel), les futures 2060, 2050, 2030 profiteront-elles de ces nouveautés avec le peu de puissance de calcul à disposition prévisible ?
par Nicolas D., le Samedi 15 Septembre 2018 à 08h31  
par Cristallix, le Samedi 15 Septembre 2018 à 00h07
Je suis par contre beaucoup plus contrarié sur le DLSS. Ça ne sera effectif que jeu par jeu. Dès qu'il y aura un DLC potentiellement ils faut tout recalculer (et ce réseau de neurone pourrait donc rendre plus moche certaines textures/parties du jeu ?), on dépend encore plus d'nVidia et de ses serveurs (et à tous les coups Gefore Expérience sera obligatoire pour en profiter) et on aura pas la possibilité de faire entrainer les ces réseaux de neurones nous même sur les jeux qu'nVidia ne supportera pas.
Il est possible qu'un profil "générique" donne de bons résultats sur un grand nombre de moteurs de jeux différents en fait, vu que le phénomène à apprendre est toujours de l'aliasing (à prendre avec des pincettes pour le coup). Pour le faire soi-même, effectivement c'est impossible, mais même si ça l'avait été, je ne pense honnêtement pas que un particulier aurait la puissance de calcul nécessaire pour à la fois générer les images et entraîner le réseau dans un temps raisonnable...
par Nanabozo732, le Samedi 15 Septembre 2018 à 03h06  
Chapeau l'article, depuis les semaines que ça parle des cartes et de l'archi Turing on n'avait pas eu un 10e de tout ce qui est décrit là.
par Cristallix, le Samedi 15 Septembre 2018 à 00h07  
par Eric B., le Vendredi 14 Septembre 2018 à 22h06
J'essaierai d'uploader ça durant le WE.
Ça serait super

Sinon le dossier est bien détaillé et on voit qu'nVidia bien travaillé sa copie quand même. On attend les benchs pour se décider.

Je suis par contre beaucoup plus contrarié sur le DLSS. Ça ne sera effectif que jeu par jeu. Dès qu'il y aura un DLC potentiellement ils faut tout recalculer (et ce réseau de neurone pourrait donc rendre plus moche certaines textures/parties du jeu ?), on dépend encore plus d'nVidia et de ses serveurs (et à tous les coups Gefore Expérience sera obligatoire pour en profiter) et on aura pas la possibilité de faire entrainer les ces réseaux de neurones nous même sur les jeux qu'nVidia ne supportera pas.
par Dacoste, le Vendredi 14 Septembre 2018 à 22h38  
Félicitations a vous. Je n'ai clairement pas tout assimilé, mais celà reste impressionnant de travail et particulièrement intéressant. Je reste de ceux très enthousiaste a l'idée d'ombres et d'éclairage plus réalistes car je me tourne de plus en plus sur les jeux "contemplatif". Certes le pari est risqué car on ne peut miser franchement sur l'adoption par les développeurs de toutes ses nouveautés mais j'ai hâte de mettre la main sur cette gamme de carte, j'attends avec impatience vos test.

Merci encore pour le travail fournis. Bonne continuation et essayez de trouver un tips sur shadow of tomb raider (un peu a la manière des différents sauts ou monter de rebord des tout premiers épisodes ) les dev ont peut être fait en sorte qu'elle puisse faire une ombre chien qui aboie ou l'envole d' un oiseau avec les mains
par Eric B., le Vendredi 14 Septembre 2018 à 22h06  
J'essaierai d'uploader ça durant le WE.
par TwoFace, le Vendredi 14 Septembre 2018 à 22h03  
Serait'il possible d'avoir les screens en version statique ?
Et en plus gros pour bien voir l'apport du DLSS je suis preneur