COMPTOIR
  
register

×

Schéma GK110

Test • GeFORCE GTX Titan
Schéma GK110

• Le GK110

Comme nous l'évoquions en débutant ce dossier, NVIDIA a déjà étrenné son GPU GK110 au travers de la gamme Tesla via les K20 et K20X. Si l'on se réfère à l'historique des nomenclatures du caméléon, la seconde lettre détermine l'architecture (F pour Fermi des GF1xx, K pour Kepler des GK1xx) le troisième chiffre détermine quant à lui le segment de la puce : 0 pour le haut de gamme, 4 pour le segment Performance, 6 pour Mainstream et 7 pour l'entrée de gamme. Le second chiffre sert lui à différencier les révisions d'une même puce (GF110 = GF 100 révisé). On se doute donc qu'avec le code GK110, cette puce ne vise rien d'autre que la performance à tous les niveaux. Fidèle à son habitude, NVIDIA a conçu un GPU très imposant pour cette gamme puisqu'il occupe une superficie de pas de moins de 561 mm² :

 

GK110

GK110, un très gros GPU !

 

Pour autant, ce n'est pas là le record du caméléon puisque pour mémoire le GT200 qui animait la GTX 280 occupait une surface de die de 576 mm² soit la plus grosse puce jamais produite par NVIDIA et TSMC, à l'époque en 65 nm, ce qui explique sa densité en transistors (1,4 milliard) relativement faible en comparaison de celle de GK110 qui lui en emploie 7,1 milliards via le procédé de fabrication 28 nm... Reste que l'on est ici sur des superficies gigantesques ce qui complexifie très largement la fabrication, augmente les coûts (moins de GPU par Wafer (disque de silicium sur lequel sont gravées les puces) et abaisse donc les rendements (Yields) avec de nombreuses puces partiellement défectueuses. En contrepartie cela donne un beau bébé surtout lorsqu'il est retouché artistiquement pour la communication comme l'image ci-dessous :

 

die GK110

Miroir, ô miroir, qui est le plus beau gros ?

 

Qu'a donc mijoté le caméléon pour nous pondre pareil monstre ? Tout d'abord, l'architecture utilisée, Kepler, est pour rappel un dérivé de Fermi retravaillé pour offrir une efficacité énergétique bien supérieure. Nous n'allons pas re-détailler cette dernière, pour ceux intéressés par le sujet, direction notre dossier GTX 680. Alors que GK104 emploie 4 GPC (Graphics Processing Clusters) constitués chacun de 2 SMX (Streaming Multiprocessors) et d'un rasterizer, GK110 s'articule lui autour de 5 GPC eux-mêmes comprenant 3 SMX, mais toujours un seul rasterizer.

 

Au final on se retrouve donc (à fréquence égale) avec une puissance de calcul presque doublée, mais un débit en pixels limité par un gain de 25% "seulement" du fait du nombre de rasterizer... Enfin, le bus mémoire croît de son côté de 50% avec 2 contrôleurs 64-bit additionnels par rapport au GK104 et donc une largeur de bus totale à 384-bit. 8 ROP étant toujours associés à chaque contrôleur, on obtient pour ces derniers le nombre de 48. Et schématiquement ça donne quoi ?

 

Schéma GK110 [cliquer pour agrandir]

Le schéma de principe du GK110 - Cliquer pour agrandir

 

Vue de détail d'un SMX cette fois, on retrouve bien sûr le Polymorph Engine dans sa seconde révision qui fait toute la force des GeFORCE dans le traitement de la géométrie (intégralement découplée) avec (dans le cas de GK110) pas moins de 7,5 triangles par cycle ! Les 192 Cuda Cores (unités de calculs) par SMX sont toujours présents, mais à ces derniers s'ajoutent 64 unités dédiées à la double précision permettant de corriger ce point faible avéré de GK104 dans le GPU computing. Notons que sur GTX Titan, leur activation se fait par le biais des pilotes et a pour conséquence la désactivation de GPU Boost. Enfin, les 16 TMU sont toujours présentes par SMX.

 

Schéma SMX

Composition d'un SMX du GK110

 

En faisant les comptes, on obtient donc pour le GK110 la bagatelle de 2880 unités de calcul, 240 TMU, 48 ROP et 15 Polymorph Engine. Toutefois, la complexité de la puce est telle que le caméléon (probablement afin de conserver des rendements acceptables) a dû se résoudre à désactiver un SMX par GK110 pour le moment, ce qui porte les valeurs respectives à 2688, 224, 48 et 14.

 

GPU Boost 2.0Dernière petite spécificité sur laquelle communique NVIDIA : GPU Boost passe en version 2. En pratique ce "turbo" automatique permet aux cartes du caméléon d'obtenir une fréquence de fonctionnement plus élevée lorsque le TDP n'est pas atteint. La seconde révision ajouterait une nouvelle composante à savoir la température. En fait, cela permettrait de valider des tensions d'alimentation GPU plus élevées afin de gagner encore en fréquence, pourvu que la température de fonctionnement n'excède pas la valeur fixée par NVIDIA. Ici, il s'agit de 80°C, difficile pour autant de croire qu'auparavant la température n'était pas surveillée. La valeur de cette dernière étant probablement plus élevée en fait, bref difficile de parler de réelle nouveauté et encore plus de gain pour l'utilisateur, comme vous allez le découvrir page suivante lors du descriptif de la carte : à moins de modifier son système de refroidissement, GPU Boost 2.0 agit davantage comme un "limitateur" des performances par rapport à la première version, qui disposait à priori de davantage de marge quant à la température autorisée...



Un poil avant ?

La GTX Titan iChill d'Inno3D

Un peu plus tard ...

Western Digital investit massivement sur le SSD

Les 97 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur inspiré d'Ile-de-France, le Lundi 15 Avril 2013 à 11h24  
allez petite fessée de la 690 (1020 base/1176 boost/7000 mhz GDDR5) vs Titan oc (1080 base /1180 boost/6675 mhz GDDR5)

http://gamegpu.ru/test-video-cards/geforce-gtx-titan-test-gpu.html
par Un ragoteur bélote embusqué, le Samedi 13 Avril 2013 à 15h37  
par Un ragoteur qui draille d'Ile-de-France le Vendredi 22 Mars 2013 à 14h01
j'ai ma 690 depuis bientot un an je ne suis en aucun cas limité par la Vram:

Au pire si tu joue en UHD (>1440p) ou Surround / 3D tu passe l'antincrenelage de x8 a x4 ... et tu repasse facilement sous la barre des 2 giga d'utilisation...

de plus la 690 prends entre 10 et 20% soit sur les gpu et la ram en fonction du sample. la mienne tient 1250/7500 aucune comparaison possible avec une titan quand bien meme overclockée (la 690 ... ne throlle pas contrairement au titans)
jsuis d'accord avec toi mais 1000e la carte yaurai pu avoir 4go par gpu histoire de vraiment affirmer le coté exclusif et pour voir venir aussi
par lulu-nico, le Dimanche 07 Avril 2013 à 11h52  
par Thibaut G. le Dimanche 07 Avril 2013 à 11h44
c'est pas une réponse ça, parce que :
1/ c basé sur l'avis d'un site
2/ c basé sur Crysis 3 uniquement
3/ ca ne compare pas qualitativement msaa et smaa directement
des avis où il est dit que le MSAA reste supérieur, j'en ai vu pas mal également, y a pas de secret, si tu veux des FPS potables, faut réduire le coût et la qualité de l'antialiasing, le smaa sert à ça
Le msaa ne filtre que la géométrie.
Je parle de crysis 3 car je ne connais pas d'autre jeux qui l'utilise.
Il le filtre mieux que le smaa vu qu'il monte jusqu'a x8.
Le smaa filtre la géométrie et d'autre chose qu'oublie le msaa comme les texture transparente par exemple.
De plus il ne rend pas flou l'image comme peut le faire le mlaa le fxaa ou le txaa.
Après c'est dommage que le jeux se limite au smaax4 et qu'il n'inclut pas un mode x8.
par Thibaut G., le Dimanche 07 Avril 2013 à 11h44  
par lulu-nico le Dimanche 07 Avril 2013 à 11h34
Voila un élément de réponse.
c'est pas une réponse ça, parce que :
1/ c basé sur l'avis d'un site
2/ c basé sur Crysis 3 uniquement
3/ ca ne compare pas qualitativement msaa et smaa directement

des avis où il est dit que le MSAA reste supérieur, j'en ai vu pas mal également, y a pas de secret, si tu veux des FPS potables, faut réduire le coût et la qualité de l'antialiasing, le smaa sert à ça
par Eric B., le Dimanche 07 Avril 2013 à 11h42  
LE SMAA le plus performant dans Crysis 3 (4x) mixe du MSAA 2x avec une composante temporelle, le gain en terme de consommation de ressources est évident, pour le visuel je reste sur ce que j'ai écrit plus bas, je préfère le MSAA 4x avec un lissage que je considère plus efficace selon mes yeux à moi, certaines scènes passent effectivement mieux avec le SMAA 4x ceci-dit...
par lulu-nico, le Dimanche 07 Avril 2013 à 11h34  
par Thibaut G. le Dimanche 07 Avril 2013 à 11h21
quand tu balances des trucs comme ça, etayes ta réponse au moins, parce que là elle est juste gratuite
le SMAA est juste l'équivalent du MLAA d'AMD, si il aide à conserver les fps à un bon niveau, en qualité il reste inférieur au MSAA
Voila un élément de réponse.
par Thibaut G., le Dimanche 07 Avril 2013 à 11h21  
par lulu-nico le Dimanche 07 Avril 2013 à 11h10
Tu es l'un des rare a trouver le msaa supérieur au smaa la smaa filtre des chose que le msaa ne filtre pas.
quand tu balances des trucs comme ça, etayes ta réponse au moins, parce que là elle est juste gratuite
le SMAA est juste l'équivalent du MLAA d'AMD, si il aide à conserver les fps à un bon niveau, en qualité il reste inférieur au MSAA
par lulu-nico, le Dimanche 07 Avril 2013 à 11h10  
par Eric B. le Dimanche 07 Avril 2013 à 09h31
D'un point de vue qualitatif je trouve le MSAA supérieur, il est donc logique de l'utiliser en Ultra. On pourrait éventuellement remplacer le FXAA du mode High par le SMAA.
Tu es l'un des rare a trouver le msaa supérieur au smaa la smaa filtre des chose que le msaa ne filtre pas.
par Eric B., le Dimanche 07 Avril 2013 à 09h31  
D'un point de vue qualitatif je trouve le MSAA supérieur, il est donc logique de l'utiliser en Ultra. On pourrait éventuellement remplacer le FXAA du mode High par le SMAA.
par lulu-nico, le Samedi 06 Avril 2013 à 18h20  
par Eric B. le Jeudi 28 Mars 2013 à 18h52
??
Il ne vaut mieux pas tester crysis 3 en smaa qu'en msaa ?
par Eric B., le Jeudi 28 Mars 2013 à 18h52  
??
par Un ragoteur qui braille de Quebec, le Jeudi 28 Mars 2013 à 13h26  
76 degrés celcius

C'est pour ça que la planète réchauffe...