COMPTOIR
  
register

×

diagramme logique de GP102-350

Test • GeFORCE GTX 1080 Ti
diagramme logique de GP102-350

• GP102

Avant de décrire la carte que nous a fait parvenir NVIDIA, passons en revue les principales caractéristiques de son GPU aka GP102. Ce dernier fait partie de ce que l'on pourrait appeler les "grosses puces" avec pas moins de 471 mm², même si on reste relativement éloigné des records à ce niveau, comme le GP100 et ses 610 mm². Mais revenons à la star du jour qui concentre pas moins de 12 milliards de transistors au sein de son die. C'est TSMC qui a été choisi pour graver la puce via son 16 nm déjà usité sur les GP100/104/106. La taille est donc en hausse de 50 % par rapport à GP104 et le nombre de transistors est encore plus impressionnant avec +66 % vis-à-vis de la même référence. C'est bien entendu l’architecture Pascal qui est à la manœuvre, pour les détails concernant cette dernière, nous vous invitons à lire ou relire la page qui lui est dédiée dans le dossier GTX 1070/1080. Commençons par le diagramme du GPU :

 

diagramme logique de GP102-350 [cliquer pour agrandir]

Diagramme logique du GP102-350

 

GP102 se compose de 6 GPC (Graphics Processing Cluster) qui comprennent en leur sein un Raster Engine chargé de transformer les triangles en pixels (16 par cycle) et 6 TPC (Texture Processing Cluster). Ces derniers sont constitués d'un Polymorph Engine dédié à la géométrie, ainsi qu'un SM (Streaming Multiprocessor) incluant 128 unités de calcul SP (également 4 DP n'apparaissant pas sur le schéma), 8 unités de texturing et du cache. La version 350 de GP102 implique la désactivation de 2 TPC, ce qui porte leur nombre à 28 en tout, à l'instar de la puce utilisée pour la TITAN X. Notons que schématiquement, les TPC sont désactivés dans des GPC différents, mais il n'est pas impossible qu'ils le soient au sein d'un même GPC, réduisant ainsi le débit de calcul à 12 pixels/cycle, soit moins que le Rasterizer.

 

Pour autant, ces deux GP102 ne sont pas tout à fait identiques : NVIDIA a décidé de retenir une configuration légèrement bridée au niveau de l'interface mémoire (augmentant probablement les Yields), en désactivant un contrôleur mémoire 32-bit (et les 8 ROP / 256 Ko L2 liés) sur les 12 constituant le bus mémoire à 384-bit d'un GP102 intégral. Il ne reste donc "que" 352-bit actifs et le caméléon a décidé de ne pas se lancer dans un bus tarabiscoté à la GTX 970 pour conserver une quantité de mémoire paire, mais a tout simplement supprimé une puce mémoire portant ainsi la capacité totale à 11 Go contre 12 à la TITAN X, une solution assurément plus "propre" et qui évitera toute polémique sur le sujet. Pour maintenir la bande passante, le caméléon a opté pour des puces plus rapides à 11 Gbps.

 

gddr5x

 

NVIDIA indique avoir particulièrement travaillé son contrôleur mémoire au sein des générations Maxwell/Pascal pour autoriser des fréquences très élevées, mais il a aussi collaboré étroitement avec les fabricants de mémoires sur la qualité du signal d'horloge, en particulier la zone critique de changement d'état ("l’œil" entre les courbes sinusoïdales), afin de limiter au maximum le bruit et la gigue nuisant aux fréquences très élevées, comme en témoigne la capture précédente. Pour rappel, des algorithmes de compression couleur (Delta Color) très évolués, permettent également de réduire la quantité de données à transférer, augmentant de fait le débit effectif. Enfin, le Tiled Caching permet lui aussi de limiter les accès mémoires en ne rasterisant que les triangles visibles, ceci via l'utilisation du cache L2 et d'une unité dédiée (binner).

 

tiledcaching

 

Du côté des fonctionnalités, on retrouve les mêmes éléments que pour GP104. Ainsi, au niveau de la prise en charge DX12, pas de nouveautés (niveau de fonctionnalités 12_1 / Tier 2) par rapport à Maxwell. Le moteur vidéo permet toujours 4 écrans simultanés et supporte les normes HDMI 2.0B et DP 1.3/1.4 pour le HDR entre autres choses. Côté décodage/encodage, on conserve les capacités du GP104. Poursuivons par le SMP (Simultaneous Multi-Projection), GPU Boost 3.0 et Fast Sync qui répondent toujours présents à l'instar des autres puces de cette génération. Enfin, un mot rapide sur les instructions DP2A et DP4A dédiées au Deep Learning et permettant d'accélérer par 2 et 4 les opérations à faible précision (16 et 8 bits). Voilà pour un bref tour d'horizon de ce GPU, passons aux caractéristiques de la seconde carte l'abritant, en comparaison d'autres références haut de gamme, présentes ou passées.

 

 

• Spécifications

 

CartesGPUFréquence GPU (MHz)Fréquence Mémoire (MHz)Unités de calculTMUROPTaille mémoire (Go)Bus mémoire (bits)Calcul SP (Gflops)Bande Passante (Go/s)
HD 7970 GHz Tahiti 1050 1500 2048 128 32 3 384 4301 288
HD 7990 Tahiti (x2) 950 à 1000 1500 2048 (x2) 128 (x2) 32 (x2) 3 (x2) 384 (x2) 7782 à 8192 576
R9 295 X2 Hawaii (x2) 1018 1250 2816 (x2) 176 (x2) 64 (x2) 4 (x2) 512 (x2) 11467 640
R9 390X Hawaii 1050 1500 2816 176 64 8 512 5914 384
R9 Fury X Fiji 1050 500 4096 256 64 4 4096 8602 512
RADEON PRO DUO Fiji (x2) 1000 500 4096 (x2) 256 (x2) 64 (x2) 4 (x2) 4096 (x2) 16384 1024
GTX 780 Ti GK 110 876 à 928 1750 2880 240 48 3 384 5045 à 5345 336
TITAN GK110 837 à 876 1502 2688 224 48 6 384 4500 à 4709 288
TITAN Black GK110 889 à 980 1750 2880 240 48 6 384 5121 à 5645 336
TITAN Z GK110 (x2) 705 à 876 1750 2880 (x2) 240 (x2) 48 (x2) 6 (x2) 384 (x2) 8122 à 10092 672
GTX 980 Ti GM200 1000 à 1075 1753 2816 176 96 6 384 5632 à 6054 337
TITAN X GM200 1000 à 1075 1753 3072 192 96 12 384 6144 à 6605 337
GTX 1080 GP104 1607 à 1733 1251 2560 160 64 8 256 8228 à 8873 320
GTX 1080 Ti GP102 1480 à 1582 1376 3584 224 88 11 352 10609 à 11340 484
TITAN X GP102 1417 à 1531 1251 3840 224 96 12 384 10157 à 10974 480

 

GeFORCE GTX 1080 Ti

 

La GTX 1080 Ti devance la TITAN X (2016) de 3,3 % au niveau de la puissance de calcul en se basant sur les boost respectifs annoncés. Toutefois, cette valeur est très fluctuante suivant la capacité de refroidissement et la consommation, nous vérifierons donc ce point page 16. Il en est de même pour le texturing, quant à la bande passante mémoire, elle est en hausse de 0,8 %, soit un écart négligeable. Côté Fillrate, selon la configuration des deux GP102, à savoir la désactivation des 2 TPC au sein du même GPC ou non, la TITAN X pourra prendre ou non, un léger avantage du fait de ses 96 ROP actifs contre 88 à la GTX 1080 Ti.

 

Si on s'attache uniquement aux chiffres bruts, la Fury X du concurrent agée de 20 mois n'est devancée "que" de 32 % en puissance de calcul et conserve un ascendant de 6,66 % pour la bande passante mémoire. Elle affiche par contre de lourds déficits en géométrie et fillrate, sans compter que n'apparaît pas dans les chiffres de calcul SP, l'apport des unités SFU des GeFORCE. Passons page suivante à la description de la carte.



Un poil avant ?

Second test pour les fantômes en reconnaissance dans les terres sauvages

Un peu plus tard ...

Une GTX 1080Ti AORUS Xtreme en arrivage

Les 50 ragots
Les ragots sont actuellement
prévention anti troll, loguez-vous !ouverts aux ragoteurs logués
par Alkros, le Mercredi 22 Mars 2017 à 11h00  
par Thomas N. le Vendredi 17 Mars 2017 à 17h22
C'te référence... Pas sur que tout le monde capte, mais elle est énorme.
T'façons ils font tout ce qu'ils veulent
par Thomas N., le Vendredi 17 Mars 2017 à 17h22  
par bouba81 le Vendredi 17 Mars 2017 à 11h37
(parce qu'il y a un "mais" selon les rois du mondes )
C'te référence... Pas sur que tout le monde capte, mais elle est énorme.
par bouba81, le Vendredi 17 Mars 2017 à 11h37  
(suite)

Pour conclure,

Si l'on prend en considération le prix actuel d'une Fury Nitro qui, une fois OC un chouilla, arrive a tenir les prestations d'une "X" et pouvant même la dépasser en étant plus généreux, je trouve difficile de proposer une autre carte sous la barre des 300/330 euros. Surtout que la Fury Nitro se touche depuis des mois à moins de 260€. A ce tarif elle n'a aucune concurrente sérieuse et elle reste une alternative de choix face une GTX 1070 nettement plus chère.

Pour revenir maintenant au vif du sujet je pense que, comme il est coutumier chez AMD de peiner à exploiter les performances réelles de ses cartes en début de commercialisation, la GTX 1080Ti tiendra le haut du pavé la première année mais (parce qu'il y a un "mais" selon les rois du mondes ) Vega reviendra doucement et surement sur Pascal, à l'instar de Fiji sur Maxwell, pour devenir une concurrente sérieuse à un tarif dérisoire.
par bouba81, le Vendredi 17 Mars 2017 à 10h49  
Test de TechPowerUp sur 22 jeux d'avant hier

Comme quoi le choix des jeux peut changer la donne. Admettons que TechPowerup ne sont pas des débutants....et vous non-plus.
C'est là toute la complexité en tant que lecteurs. L'avantage d'une carte par rapport à une autre sur un test, même s'il n'est que de quelques %, impacte de manière durable notre inconscient qui retient l'information de manière binaire (C'est "plus ou moins" )

La Fury X est donc, chez eux, devant la 980Ti 15 jeux sur 22 en QHD et 17 jeux sur 22 en UHD, ce qui lui profère une victoire écrasante sur leur panel (en toute relativité avec de petits à de gros écarts de perfs).

A contrario, votre Test laisse entendre que la 980Ti est plus puissante que la Fury X, alors que c'est vu d'un autre oeil chez TechPowerUp et GameGPU qui, eux, donne sans conteste la Fury X comme alternative sérieuse à la GTX 1070 puisque les deux cartes affichent des performances en moyenne similaires en UHD et quasi-similaires en QHD (avec un léger avantage pour la GTX 1070).

Après, ce que je trouve injuste c'est justement de ne pas souligner le retour de la Fury X sur une gamme de GPU qu'elle n'arrivait pas à concurrencer à sa sortie. Faut reconnaître qu'à ses début elle peinait à rivaliser avec une simple GTX 980 alors qu'aujourd'hui elle passe devant une GTX 980Ti, avec une conso pas si minable en fin de compte
par Thomas N., le Jeudi 16 Mars 2017 à 16h33  
par Eric B., le Jeudi 16 Mars 2017 à 15h25  
Désolé pour le délai de réponse, j'ai un accès très ponctuel et limité au web en ce moment. A la question posée sur le pourquoi du comment des filtres retenus et sur une éventuelle préférence de NVIDIA pour ces derniers, je rappelle le contexte : il s'agit du dossier portant sur la 1080 Ti, une carte très haut de gamme visant à proposer une expérience vidéoludique très poussée (surtout avec cette définition) en particulier au niveau des détails et des filtres d'amélioration du visuel, en l'occurrence il serait malvenu de faire des compromis à ce niveau... Toujours à ce sujet, je peux comprendre que certains ne perçoivent pas une différence flagrante en pleine action, mais dire par exemple que le MSAA 8x n'apporte rien à la qualité du rendu face à d'autres filtres (lesquels d'ailleurs ? FXAA, SMAA, etc.) est un jugement très subjectif et personnel que je ne partage pas du tout... Maintenant désavantagent-ils vraiment la Fury X comme prétendu, voyons cela point par point car cette réponse est variable selon le filtre et le jeu :

*Pour le MSAA 8x retenu uniquement sous Dirt Rally (soit 1 jeu sur 20), l'aliasing étant très prononcé avec ce jeu et il n'y a pas d'alternative satisfaisante proposée dans le jeu donc son activation est légitime. Le MSAA est très friand en bande passante mémoire (point qui avantage au contraire la Fury X du fait de sa HBM) et en ROP (la Fury X en a autant que la 1070 FE) et ceux d'AMD sont généralement plus efficaces avec MSAA que leurs pendants de la concurrence. Donc l'argument n'est pas valable hormis le principal risque de "désavantage" pour la Fury X qui serait une saturation de sa mémoire embarquée du fait de l'impact majeur du 8x sur ce point. Mais nous avons veillé à ce que cela ne soit pas le cas tout au long du test et ce pour tous les jeux et nous avons d'ailleurs baissé à plusieurs occasions (comme indiqué dans le dossier) la taille des textures pour ne pas se retrouver dans ce cas. La contreperformance de la Fury X dans ce test vient de 2 raisons toutes autres : le Blending avancé est terriblement gourmand (mais efficace visuellement en particulier sur les abords) et les GeFORCE s'en sortent bien mieux avec ce dernier. La seconde est plus simple, d'un point de vue général, les cartes vertes récentes se comportent mieux que leurs concurrentes avec l'EgoEngine 3 sous DiRT Rally et détails élevés.

* Pour le TXAA qui est un filtre mêlant un AA de type multisampling à faible échantillon (généralement 2X) à une composante temporelle, ce dernier s'avère en pratique bien moins gourmand que le MSAA de même niveau d'échantillon y compris en terme d'occupation mémoire mais le résultat n'est comparable qu'en mouvement et génère un effet de flou plus ou moins prononcé selon le jeu. Il n'y a aucune raison que ce filtre avantage tel ou tel carte si ce n'est vis-à-vis de leurs capacités intrinsèques en termes d'efficacité pour effectuer les calculs demandés.

* Petite aparté sur DOOM utilisant TSSAA 8X dans le panel, on pourra noter que l'alternative proposée dans le jeu en termes de filtrage AA serait le SMAA et que ce dernier donnait à l'époque de nos tests sur Vulkan, un résultat beaucoup moins favorable aux rouges (du fait de l'activation des Async Compute pour le rendu de ce filtre sur les RADEON alors que ce n'était pas le cas avec le SMAA) donc choisir ce filtre avantage la Fury X. Pire, le mode Nightmare (le max de détail) conduit à un effondrement des perfs de la Fury X par manque de mémoire (il faut 5 Go mini), ce niveau de détails pour les textures a donc été abaissé pour ne pas pénaliser cette carte qui se retrouve largement sous une 980 Ti dans le cas contraire !

Enfin les comparaisons du style "les autres n'ont pas vos valeurs ou moi je ne mesure pas ça" : cela revient à comparer des choux et des carottes car les tests sont faits avec des scènes différentes, environnement, etc. Pour l'exemple de Dishonored 2, oui il est possible d'obtenir 60 i/s avec la Fury X, mais pas sur notre scène retenue, nous avons de toute façon avant de publier ce dossier refait les mesures sur les jeux où effectivement les écarts étaient distant du comportement moyen avec les pilotes précédents et en abaissant au max la charge sur les textures pour vérifier l'origine de la limitation, il s'avère que la Fury X ce comporte ainsi avec ce jeu et dans ces conditions... Il est donc impossible de tirer un enseignement par ce biais d'où l'intérêt de multiplier les lectures pour se forger son propre avis, mais cela ne donne pas de "normalité" à revendiquer pour certains résultats. Non, la Fury X n'a pas été désavantagée dans ce dossier, bien au contraire car avec d'autres choix que je viens d'expliquer, elle serait encore moins performante en moyenne sans pour autant qu'il y ait eu malveillance : elle n'a « que » 4 Go de mémoire, c'est un fait et cela peut avoir des conséquences pratiques très notables que nous avons soigneusement choisi d'éviter, la favorisant donc mécaniquement dans des niveaux de détails max. adaptés à la carte testée dans ce dossier, donc nous reprocher le contraire est pour le moins malvenu car inexact.

Nous n'avons donc à l'évidence pas rencontré d'incident isolé sur notre Fury X, quand bien même ce serait le cas sur 1 ou 2 jeux, compte-tenu de la pondération appliquée pour le calcul de la moyenne, cela ne changerait pas le rapport de force ! Pour rappel, notre panel comporte 20 jeux avec des moteurs différents (ce qui implique un poids de "seulement 5%" par jeu/moteur ce qui évite de surévaluer chacun) et la 1070 FE est solidement devant, c'est la réalité du rapport de force actuel selon nos mesures (et nous ne sommes pas seuls à arriver à cette conclusion non plus), libre à chacun de se forger sa propre opinion en multipliant les lectures/sources et donc les conditions de tests ou d'interpréter selon ses préférences.
par bouba81, le Mardi 14 Mars 2017 à 15h06  
Bonjour l'équipe,

merci pour ce très bon dossier.

Une question tout de même:

pourquoi avoir choisi d'activer les TXAA/MSAA 8x dans certains jeux alors que ces filtres semblent parfaitement inutiles en QHD comparés d'autres filtres de lissage?

L'activation de l'un de ces filtres tue la Fury X dans l'oeuf, la pénalise lourdement et "inutilement".

On sait très bien aujourd'hui que les cartes Nvidia s'en sortent bien mieux avec certains filtres de lissage (TXAA ou MSAA 8x). Les activer ne change en rien la qualité de rendu comparée à celle d'un autre filtre de lissage moins "Nvidiaphile".

En activant un autre filtre, donc, on aurait eu dans votre indice final une Fury X au niveau d'une GTX 1070 FE, devant la GTX 980Ti. Mais vous avez fait ce choix d'utiliser un filtre qui pénalise la seule carte AMD du dossier.

Bref, en terme d'expérience vidéoludique je trouve que ce choix est discutable et inéquitable . C'est tout autant comparable à l'activation d'un filtre ou d'une option propriétaire pour comparer le comportement de deux cartes dont on castre consciemment l'une des deux de son potentiel réel.

De nombreux confrères ont fait le choix d'utiliser un autre filtre pour ne pas pénaliser les Radeon. Gamegpu.com, qui est un site de bench dont la réputation n'est plus à faire, choisi toujours un filtre équitable pour les différents cartes testées, en pensant "rendu à l'écran" et en présentant des screens de comparaison
par mart666, le Lundi 13 Mars 2017 à 11h50  
par thunder72fr le Lundi 13 Mars 2017 à 07h56
Sûrement, mais quand on investie déjà pour 2 machines dans une MSI GTX1080 GAMING X 8Go & une ZOTAC GTX1080 AMP! EXTREME 8Go, difficile de revendre sans trop perdre de plûmes...

J'ai déjà eu une proposition à 350 euros hier pour la MSI... Du grand n'importe quoi!!!

J'ai pensé échangé une des 2 cartes pour la même de l'autre modèle pour un SLI (malgré les inconvénients) afin d'attendre Volta. Je ne trouve personne pour le moment...

Sinon, ces GTX1080 font tout de même leur boulot... Ya t il vraiment besoin de passer à la ti?

Mon setup

Mon setup in night
Je joue en 4K, et oui, l'upgrade est nécessaire, mais pas pour tous les jeux... malheureusement certains jeux ont besoin de la puissance de la ti en 4K et c'est des jeux que je joue beaucoup, dont Watch Dogs 2, et Fallout 4, et probablement quelques autres jeux à venir, car les prochains jeux ne seront surement pas plus légers...

J'espère recevoir ma ti cette semaine !
par MeurdocK, le Lundi 13 Mars 2017 à 08h32  
Bon article !

Pour ceux qui ne veulent ou peuvent pas mettre plus de 850€ dans une CG, voyez votre souhait à la baisse. Dès qu'elle sortira (pas en préco), dans 7/8 jours, les 1070 et 1080 vont prendre une grosse décote, cela sera intéressant pour tous ceux qui ne veulent pas forcement la dernière sortie. En occas aussi ça commence à bouger avec de cette sortie.

En vu de changer mon SLI 970, je me tâte encore à soit prendre un SLI 1070 soit une 1080ti mais j'attendrai les éditions Strix d'asus ! D'ailleurs pas de date sur les sorties des éditions constructeur ?
par thunder72fr, le Lundi 13 Mars 2017 à 07h56  
par mart666 le Vendredi 10 Mars 2017 à 18h04
30-35% de plus qu'une 1080... C'est pas rien !! Et parfait pour la 4k...
Bon et elle est disponible quand cette carte?
Sûrement, mais quand on investie déjà pour 2 machines dans une MSI GTX1080 GAMING X 8Go & une ZOTAC GTX1080 AMP! EXTREME 8Go, difficile de revendre sans trop perdre de plûmes...

J'ai déjà eu une proposition à 350 euros hier pour la MSI... Du grand n'importe quoi!!!

J'ai pensé échangé une des 2 cartes pour la même de l'autre modèle pour un SLI (malgré les inconvénients) afin d'attendre Volta. Je ne trouve personne pour le moment...

Sinon, ces GTX1080 font tout de même leur boulot... Ya t il vraiment besoin de passer à la ti?

Mon setup

Mon setup in night
par mart666, le Vendredi 10 Mars 2017 à 19h41  
par Eric B. le Vendredi 10 Mars 2017 à 19h34
Ah oui désolé, je n'ai pas pensé que tu puisses résider de l'autre côté de l'Atlantique. Aucun revendeur US livrant au Canada n'en a en stock ?
J'ai pas vérifié, mais payer en USD$ ne vaut pas du tout la peine, notre dollar est beaucoup trop faible ces temps ci... Je vais patienter et garder les yeux sur le ouebe

Je viens de voir que quelques modèles commencent à apparaitre en précommande chez Amazon Canada... Les stocks arriveront bientôt !
par Eric B., le Vendredi 10 Mars 2017 à 19h34  
par mart666 le Vendredi 10 Mars 2017 à 19h30
J'suis au Canada, j'en trouve pas stock nulle part pour le moment. C'est clair que l'envie de changer ma 1080 non-ti par une ti est tentante... la 1080 non Ti est insuffisante en 4k... Pourtant je ne suis pas amateur d'antialiasing... lol

Je vais passer le week-end à m'en trouver une lol

Merci pour votre test bien complet, le gain de performance est non négligeable c'est certain avec la nouvelle ti !
Ah oui désolé, je n'ai pas pensé que tu puisses résider de l'autre côté de l'Atlantique. Aucun revendeur US livrant au Canada n'en a en stock ?