COMPTOIR
  
register

×

diagramme logique de GP106

Test • GeFORCE GTX 1060
diagramme logique de GP106

• GP106

Pour bâtir son GP106, NVIDIA utilise donc son architecture Pascal, nous vous invitons à relire la partie qui lui est dédiée dans le dossier des GTX 1070/1080 si vous désirez plus de détails. On peut voir grossièrement ce nouveau GPU comme un demi GP104, au sous-système mémoire près. Voyons ce que donne la représentation schématique de ce dernier :

 

diagramme logique de GP106 [cliquer pour agrandir]

Diagramme logique du GP106

 

On passe donc de 4 GPC sur GP104 à 2 pour GP106, limitant ainsi le débit de pixels à 32 par cycle d'horloge soit la moitié du GP104, puisque le Raster Engine (unité de rastérisation chargée de découper les triangles en pixels) de chaque GPC ne peut débiter que 16 pixels par cycle. On retrouve au sein de ces derniers un total de 10 TPC, structure comprenant chacune un SM (calcul, texturing et mémoire partagée) et un Polymorph Engine (géométrie). Pour le bus mémoire, NVIDIA ne s'est par contre pas contenté de le diviser par 2 par rapport au GP104, puisque l'on retrouve 6 contrôleurs 32-bit par rapport aux 8 de la puce "plus haut de gamme". Le nombre de ROP suit cet ajustement avec 48 (même s'ils seront limités en amont par les 32 pixels par cycle), tout comme le cache L2 qui passe de 2 à 1,5 Mo. Cet arbitrage a probablement été décidé par NVIDIA pour éviter d'avoir à utiliser de la GDDR5X (plus coûteuse et d'approvisionnement difficile en ce moment, nouveauté oblige) afin d'obtenir une bande passante jugée suffisante pour ne pas pénaliser la carte, et ce contrairement à la GTX 960. Cela permettra aussi d'utiliser 6 Go au lieu de 8 (largement suffisant pour du 1080P, cible de la carte) et donc réduire à nouveau légèrement les coûts.

 

En faisant les compte, on obtient donc pour une puce intégrale : 1280 unités de calcul SP, 80 TMU, 48 ROP et un bus mémoire 192-bit. Des caractéristiques pas forcément impressionnantes, mais le caméléon garde dans sa manche son atout actuel : des fréquences de fonctionnement très élevées puisqu'il est question à nouveau de plus de 1,7 GHz ici ! Tout cela nous donne une puce de 4,4 Milliards de transistors gravée en 16 nm FinFET+ par TSMC. Avec 200 mm², elle est donc plus petite de respectivement 12% et 14% par rapport au GM206 (227 mm²) qu'elle remplace et Ellesmere / Polaris 10 (232 mm²) qu'elle doit concurrencer. En termes de coût de production, elle semble donc bien placée, même si le tarif d'un Wafer (disque de silicium sur lequel sont gravées les puces) et les Yields (taux de puces fonctionnelles aux spécifications souhaitées) sont gardés secrets et déterminent réellement cette valeur cruciale.

 

Du côté des fonctionnalités, on retrouve les mêmes éléments que pour GP104. Ainsi, la compression mémoire Delta est toujours présente et permet des gains substantiels par rapport à son implémentation dans Maxwell. Pour GP106, cela contribue avec l'augmentation du bus par rapport à GM206 et la mémoire plus véloce (8 Gbps vs 7 Gbps), à pratiquement doubler la bande passante effective. Du côté DX12, pas de nouveautés par rapport au GP104 (niveau de fonctionnalités 12_1 / Tier 2) et donc par rapport à Maxwell, on attendra tout de même de voir si le traitement du Multi Engine est plus efficace avec Pascal comme semble l'indiquer NVIDIA (mais aucun exemple flagrant en jeu pour le moment). Le moteur vidéo reste le même avec la prise en charge de 4 écrans simultanés et des normes HDMI 2.0B et DP 1.3/1.4 pour le HDR entre autres choses. Côté décodage/encodage, on conserve les capacités du GP104. Finissons par le SMP (Simultanous Multi-Projection) qui pourrait s'avérer un avantage décisif en VR, GPU Boost 3.0 et Fast Sync qui répondent toujours présents à l'instar du GP104.

 

Voilà pour un bref tour d'horizon de ce nouveau GPU, passons aux caractéristiques de la première carte l'abritant en comparaison des cartes existantes page suivante.

 



Un poil avant ?

Le bloc d'alimentation Toughpower DPS G de Thermaltake va-t-il trop loin dans le délire RVB ?

Un peu plus tard ...

Déjà une build 14393 pour les Insiders de Windows 10

Les 148 ragots
Les ragots sont actuellement
zone limitée - permis de ragotage requisouverts aux ragoteurs logués
par Minato, le Samedi 07 Janvier 2017 à 14h31  
Un Grand Merci super article comme d'habitude, bien détaillé, bien développé et toujours très objectif.
par Eric B., le Samedi 24 Décembre 2016 à 16h29  
par Eolmo, le Mardi 13 Décembre 2016 à 14h52
Bonjour,
Je ne suis pas très calé en matériel informatique (j'essaye néanmoins de progresser ) et totalement dépassé lorsque je vois plétore de version différentes d'un même type de carte sur des fourchettes de prix très étendues.

Outre l'impacte du fabriquant (sur lesquels je veux bien votre avis), ma question est donc la suivante :
Cette carte, proposée OC dès 280€ chez KFA2, est-elle plus intéressante qu'une GTX 970 OC trouvée 20 € moisn cher chez KFA2 ?

Merci d'avance pour vos réponses
Désolé pour le délai, pas vu ce commentaire avant : à titre personnel j'opterai sans hésiter pour le surcoût de 20€ en préférant une GTX 1060 6 Go à une GTX 970.
par Eolmo, le Mardi 13 Décembre 2016 à 14h52  
Bonjour,
Je ne suis pas très calé en matériel informatique (j'essaye néanmoins de progresser ) et totalement dépassé lorsque je vois plétore de version différentes d'un même type de carte sur des fourchettes de prix très étendues.

Outre l'impacte du fabriquant (sur lesquels je veux bien votre avis), ma question est donc la suivante :
Cette carte, proposée OC dès 280€ chez KFA2, est-elle plus intéressante qu'une GTX 970 OC trouvée 20 € moisn cher chez KFA2 ?

Merci d'avance pour vos réponses
par Thibaut G., le Jeudi 25 Août 2016 à 04h38  
t as pas à avoir les boules puisque la R9 490 n'est qu'une rumeur sans aucun fondement sérieux
par TRekt, le Jeudi 11 Août 2016 à 11h26  
D'après les rumeurs la rx 490 serait un X-Fire de 480 peut-être watercoolé ou pas.

Mais bon la 490 si elle est moins chère que ma 1070 j'ai les boules.
Message de TRekt supprimé par un modérateur : Doublon
Message de TRekt supprimé par un modérateur : Tu peux pas !
Message de xvince1 supprimé par un modérateur : J'espère que tu plaisantes à jouer les offusqués : tu uses et abuses d'insinuations nauséabondes et ça te déplaît que l'on te mette le nez dedans ? Au prochain message de ce genre on te laissera effectivement un peu de temps pour prendre du recul...
par Eric B., le Jeudi 28 Juillet 2016 à 12h25  
Non, c'est un fait : le multi-GPU fonctionne de manière très inconstante et les gains à en attendre sont plus que variables selon les jeux (et je ne parle même pas des à côtés). Je ne vois d'ailleurs pas bien en quoi cela rendrait notre article caduque, encore une pique gratuite mais on est plus à ça après avoir été vendu à NVIDIA selon tes propes termes...

Il ne faut pas non plus être naïf, la RX 480 a été présentée sous cet aspect bi-GPU (et dans un jeu particulièrement favorable) parce qu'AMD n'a tout simplement rien à mettre pour le moment en face des 1070/1080, c'est tout.

Tu imagines peut-être que l'on peut faire aussi bien avec 2 petites cartes qu'une grosse, mais ce n'est pas la réalité mesurée lors de nos tests, ou tout du moins qu'une partie : quand les conditions sont (très) favorables ce qui est loin d'être une généralité sans même parler des contreparties.

Certes nous n'avons pas pu intégrer 2 RX 480 lors de notre test (AMD ne nous en a fournit qu'une, voulait-il forcément qu'on la teste en X-Fire du coup ?), mais Thibaut prépare un dossier sur le sujet, je n'ai aucun doute sur ce qui va en ressortir.

Mais que l'on soit en désaccord sur l'utilité ou non de ce point n'est pas un problème en soi, ce qui l'est par contre c'est ton manque de respect dans tes écrits et ce malgré tes dires : "je vous respecte" mais je vous traite de vendus, d'incompétents et partiaux. Clairement on a pas la même notion du respect.
par xvince1, le Jeudi 28 Juillet 2016 à 11h23  
Perso, ça me choque que vous ne fassiez pas plus de bruit autour de ça. Que le multi GPU ne vous plaise pas, ça vous regarde, mais ça reste du parti pris (voire de la désinformation vu que le multi-GPU marche très bien dans l'immense majorité des cas) ce qui rend votre article assez caduque et peu objectif.

En l'occurence il n'y a aucune mise en perspective du problème par rapport à une solution AMD équivalente (genre la RX480 qui a carrément été présentée dans cette configuration). Je trouve ça d'autant plus dégueulasse qu'AMD a beaucoup bossé le multi-GPU justement, pour que le scaling soit meilleur, ou pour la suppression du bridge.

Ce type de solution a été vendu à ses débuts comme quelque chose d'évolutif: le type achète une première carte plein tarif, et une seconde moins chère plus tard, ce qui lui permet de conserver une machine correcte plus longtemps (Perso, je fonctionne comme ça depuis les radeon 3870 GeForce 7800GT).

Aujourd'hui, Nvidia segmente gentiment et artificiellement cette technologie pour le HDG, afin de creuser encore plus l'écart entre le MDG et le HDG, avec en prime leur petite saloperie pour limiter le SLI a du dual GPU... et la presse trouve ça normal

Après, je vous respecte, et notamment le travail que vous fournissez, mais pour le coup, on a un vrai point de désaccord. :tear
par Eric B., le Jeudi 28 Juillet 2016 à 06h41  
Oui oui on est payé par NVIDIA ! Tu préférerais peut-être qu'on consacre une page complète du dossier à l'absence de SLi pour la 1060 (et pour dire quoi de plus au juste) ? Retrouver l'information à 2 endroits dans le dossier dont la page verdict ne te suffit pas pour être informé ? Après tu peux être fan des solutions multi-GPU, c'est ton droit mais ce n'est pas notre cas vu l'inconstance de ces dernières. Par contre, cela ne justifie en rien tes propos mettant en cause notre intégrité ou celle d'un de nos confrères dont la réputation de qualité n'est plus à faire, sous prétexte que l'information, pourtant bien présente, n'ait pas eu la mise en valeur que tu aurais souhaité !
par xvince1, le Mercredi 27 Juillet 2016 à 14h57  
La vache, 2 phrases sur l'absence de connecteur SLI... quasiment rien sur le test HFR... combien ils vous payent chez NV, pour saucissoner tranquille leur nouveau marché de l'ultra HDG et la carte casual