COMPTOIR
  
register

×

Comparaison architecture Pascal / Turing

Test • NVIDIA GeFORCE GTX 1660
Comparaison architecture Pascal / Turing
Turing en chiffres
Diagramme TU116
GPU Boost 3.0
GPU Boost 4.0

• Turing

Pour ceux intéressés par l'architecture Turing, nous vous invitons à lire ou relire le dossier que nous lui avons consacré il y a quelque temps. Résumée en quelques lignes, cette dernière ressemble beaucoup à Volta avec quelques ajouts. Par rapport à Pascal (gaming) : des caches plus gros et rapides, des SM "plus petits" mais plus nombreux et capables de traiter en parallèle les calculs sur entiers ou en virgule flottante (y compris en demi-précision (FP16) à double vitesse).

 

Comparaison architecture Pascal / Turing [cliquer pour agrandir]

 

Voilà pour la partie "classique" de l'architecture, NVIDIA a complété cette dernière par des Tensor Cores, accélérant significativement les calculs liés à l'intelligence artificielle, en particulier l'inférence, ainsi que les RT Cores, dédiés à l'accélération matérielle (des calculs d'intersection rayons / triangles) du Ray Tracing, utilisable en temps réel dans les jeux via un rendu hybride, mixant cette technique à une base rastérisation.  

 

Turing en chiffres [cliquer pour agrandir]

Turing en chiffres dans sa déclinaison dédiée à la RTX 2080 Ti

 

Mais ces nouvelles fonctionnalités sont loin d'être gratuites en termes de "coût transistors", avec pour conséquence des dies pour le moins imposants et donc onéreux à produire, du fait d'un nombre réduit de ces derniers par Wafer (disques en silicium sur lesquels sont gravés les puces). Mais ça, c'était avant, puisque le petit dernier s'affranchit des RT et Tensors Cores, afin d'atteindre un coût de production plus adapté au marché visé.

 

 

• TU116

NVIDIA a donc conçu à partir de sa dernière architecture, un quatrième GPU nommé TU116, qui se retrouve au sein des GTX 1660 / 1660 Ti. En toute logique, le préfixe RTX laisse la place à GTX du fait de l'absence des nouvelles fonctionnalités. Le die de TU116 mesure 286 mm², à mettre en perspective des 445 mm² de TU106 équipant les RTX 2060/2070. Cette baisse de 36% permet au caméléon de graver plus de GPU par Wafer, faisant mécaniquement baisser les coûts de production puisqu'il achète ces derniers aux fondeurs. Le procédé de fabrication 12 nm FFN est personnalisé pour les verts (FFN = FinFET NVIDIA) par TSMC, il s'agit en fait d'une optimisation du "16 nm FinFET Plus" existant. Les gains ne sont pas à chercher du côté de la densité de gravure, mais de la performance des transistors, afin de rester dans une enveloppe thermique "gérable", malgré l'explosion de leur nombre. Vous retrouverez ci-dessous un résumé des différents GPU utilisés sur le haut et moyen de gamme des GeForce série 10, 20 et 16.

 

Cartes
GPUNombre de transistorsSuperficie Die

Densité (Millions de transistors / mm²)

Procédé de fabrication
GeForce RTX 2080 Ti TU102 18,6 Milliards 754 mm² 24,7 TSMC 12 nm FFN
GeForce RTX 2080 TU104 13,6 Milliards 545 mm² 24,9 TSMC 12 nm FFN
GeForce RTX 2070/60 TU106 10,8 Milliards 445 mm² 24,3 TSMC 12 nm FFN
GeForce GTX 1660 (Ti) TU116 6,6 Milliards 286 mm² 23,1 TSMC 12 nm FFN
GeForce GTX 1080 Ti GP102 12 Milliards 471 mm² 25,5 TSMC 16 nm FF+
GeForce GTX 1080/70 (Ti) GP104 7,2 Milliards 314 mm² 22,9 TSMC 16 nm FF+ 
GeForce GTX 1060 GP106 4,4 Milliards 200 mm² 22 TSMC 16 nm FF+

 

TU116 s'appuie comme TU106 sur 3 GPC, réduisant d'autant les unités de rastérisation. Par contre, il reprend la configuration de ceux utilisés par TU102, c'est à dire incluant 4 TPC / 8 SM. On peut donc voir TU116 comme un demi TU104 amputé de ses RT / Tensors Cores et à l'interface mémoire près. En effet, cette dernière n'est réduite que d'un quart, puisque le caméléon utilise un bus mémoire 192-bit via 6 contrôleurs 32-bit, qui prennent place au sein du die et sont capables de gérer aussi bien la GDDR 6 que 5. Enfin, la réduction est du même ordre pour les éléments liés, c'est-à-dire les ROP (par partition de 8) et le cache L2, pour des valeurs respectives de 48 et 3 Mo.

 

Diagramme TU116 [cliquer pour agrandir]

 

Le GPU utilisé sur la GeForce GTX 1660 est incomplet, ce qui signifie que le caméléon désactive certains blocs/unités pour faciliter la production. Le suffixe Ti de sa grande sœur utilisant un GPU complet, laissait entrevoir l'arrivée d'une GTX 1660, configurée via la technique traditionnelle de "recyclage" des puces partiellement défectueuses, augmentant d'autant les rendements avec un effet bénéfique sur les coûts de production. Voici résumées les principales caractéristiques de son GPU dans le tableau ci-dessous et les désactivations opérées.

 

GeForce GTX 1660Quantité activéeQuantité Présente
GPC 3 3
TPC / SM 11 / 22 12 / 24
CUDA Cores 1408 1536
TMU 88 96
Tensor Cores - -
RT Cores - -
ROP 48 48
L2 (Mo) 3 3
Bus mémoire (bits) 192 192

 

A noter également que le moteur d’affichage vidéo est inchangé par rapport aux précédentes puces Turing, il en est de même pour les encodeurs et décodeurs intégrés, dont vous retrouverez le détail ici. Finissons cette page par un dernier rappel, celui concernant le grand ordonnanceur des fréquences GPU des GeForce, à savoir GPU Boost dans sa quatrième itération, étrennée avec ces nouvelles générations de cartes, du moins les RTX.

 

 

• GPU Boost

Ce mécanisme a pour objectif de pousser chaque puce au plus près de ses limites, en s'affranchissant de tests trop sélectifs en sortie de production. C'est en effet GPU Boost qui est chargé par la suite, de s'assurer que les conditions environnementales permettent au GPU de fonctionner de manière stable et sans risque. Pour ce faire, il impose un double carcan constitué d'une limite de consommation et de température selon l'itération. Avec la version 3 introduite lors du lancement de Pascal, à partir de 37°C et tous les 5°C supplémentaires, le GPU perd 1 bin (~13 MHz) et ce jusqu'à la consigne de température maximale. Il perd alors autant de bins que nécessaire pour rester sous celle-ci.

 

La fréquence progressant de concert avec la tension d'alimentation du GPU, c'est un moyen très efficace pour contrôler la consommation (qui évolue au carré de la tension et dispose aussi de sa propre limite), évitant ainsi une envolée des nuisances sonores, avec un refroidisseur pas forcément dimensionné pour la dissiper discrètement à fréquence maximale durant une charge soutenue, ce qui est le cas des Founders Edition à turbine. Le souci d'une telle approche, est la pénalisation de toutes les cartes Pascal, y compris les customs des constructeurs tiers, avec des refroidisseurs surdimensionnés. En effet, NVIDIA autorise la modification du TDP max. des cartes, mais en aucun cas des paliers de température par défaut de GPU Boost 3.0. Ci-dessous une représentation graphique de ce fonctionnement.

 

GPU Boost 3.0 [cliquer pour agrandir]

 

Avec Turing version RTX, NVIDIA a annoncé GPU Boost 4.0. En gros, ce dernier fonctionnerait de manière similaire, mais avec un ajustement qui fait toute la différence. En effet, les valeurs de températures sont à présent exposées, il est donc possible de les modifier. Bien sûr, il est nécessaire de rester dans la plage autorisée par le caméléon, mais le seuil à 37°C qui marquait le "début de la baisse" des fréquences, n'est plus imposé. Cela coïncide avec l’utilisation d'un refroidisseur plus performant sur les Founders Edition, qui ne perdent donc plus de fréquence du fait de la température. Toujours est-il, qu'il était très difficile de s'approcher du TDP max sur ces dernières en version Pascal, à part lors des premiers instants de forte sollicitation. Ce ne sera plus le cas avec les versions Turing RTX, qui seront davantage limitées par leur enveloppe thermique. Ci-dessous, la représentation schématique de GPU Boost 4.0. Notons également qu'un bin, prend à présent la valeur de 15 MHz, contre 13 MHz auparavant.

 

GPU Boost 4.0 [cliquer pour agrandir]

 

Nous avons précisé RTX car il semble bien que la série 16 ne soit pas gouvernée par la dernière itération de GPU Boost, mais la précédente ou un mix des deux, plus de détails à ce sujet page 17. Voilà pour les rappels, passons page suivante à la description de la MSI GeForce GTX 1660 Gaming X.



Un poil avant ?

DMC 5 avec et sans Denuvo, un test avec un vrai protocole pour trancher !

Un peu plus tard ...

Intel va lancer un logiciel pour gérer les iGPU sauce Radeon Software/GFE ?


Sur le comptoir, au ~même sujet

 
 
 
 
 
 
 
 
 
 
 
 

Les 22 ragots
Les ragots sont actuellement
ragots réservés aux QI élevésouverts aux ragoteurs logués
par Fitzcairn, le Lundi 18 Mars 2019 à 18h09  
par dfd, le Jeudi 14 Mars 2019 à 21h21
Les 1660 sont des bonnes cartes, mais qui n'intéresseront pas les possesseurs de GTX 1060, clairement. Pour ceux là, la RTX 2060 est le minimum à viser.
Mais pour ceux qui ont des CG de générations précédentes, coucou GTX 950/960 et Radeon HD 7970, pour 230-250 balles, y'a de quoi faire un truc sympa !
Du coup pour une config comme la mienne i5 4690K @ 3,50 GHz / MSI GTX 980 4G pour jouer en full hd avec mon écran 144 hz gsync tu conseilles quelle carte minimum à viser ?
par Feeldapayne, le Dimanche 17 Mars 2019 à 12h59  
Pour rester sur une note joyeuse à base de généralités qui commencent par "moi je personnellement", moi je trouve personnellement que pour le tarif d'une GTX960 de l'époque (et même d'une 750ti si on remonte encore d'une gen), se retrouver pas loin d'une GTX 1070 peut redonner le sourire à certains gamers qui ne veulent pas mettre 300 eur dans un GPU, peu importe la raison (choix, finances, utilisation).
Même si, encore une fois, la politique de nomenclature et renommage de nv (et AMD, faut pas l'oublier celui-là ) commence à être agaçante.
Bref, dans l'absolu, une bonne carte qui a le défaut de subir les attentes du public, bien trop hautes, tout ça à cause du coup d'éclat de nv qui a placé la barre au top depuis le passage Maxwell => Pascal et ses cartes à 500 eur (1070) qui performaient pas loin des modèles à 700 eur (980ti)...

par Le Comptable, le Vendredi 15 Mars 2019 à 16h16  
par Eric B., le Vendredi 15 Mars 2019 à 10h33
Ça nous amène donc au sujet du panel de jeux, j'imagine qu'il y a autant d'avis que de lecteurs, le tiens est tout aussi respectable que celui d'autres, aucun souci avec cela.
Je comprends votre position, qui se justifie car il est vrai que ces "vieux" jeux représentent aujourd'hui encore de nombreuses ventes. Et il y a des données qu'en tant que simple lecteur intéressé je n'ai pas et que tu m'as bien rappelé comme l'utilisation de plusieurs moteurs.

Je reste cependant sur ma faim concernant ces vieux jeux Ils ont à mon sens trop de poids. Puis loin de moi l'idée de critiquer le panel dans son ensemble. C'est très étendu, et ça doit prendre un temps de dingue.
par TwoFace, le Vendredi 15 Mars 2019 à 12h38  
par Ez3kiel, le Vendredi 15 Mars 2019 à 08h15
Non c'est pas des bonnes cartes ! payer 250€ des GPU 20% au dessus des 1060 qui ont 3 ans ... et 10% en dessous des 1070 que nvidia a bien pris soin de faire retirer des catalogues des VPC... tu m'expliques a quel moment c'est un bon plan quand on trouve des VEGA56 à 300€ ?
Je dirais même 289 euros
https://www.rueducommerce.fr/produit/asus-arez-strix-rxvega56-o8g-gaming-radeon-rx-vega-56-8-go-high-bandwidth-memory-2-hbm2-74381626/offre-1470 88722

Par contre il n'y a plus les 3 jeux

Par contre y a mieux chez hfr :

311 euros avec 3 jeux
par Eric B., le Vendredi 15 Mars 2019 à 10h33  
Merci pour le compliment, nous n'avons pas de prétention à ce niveau, nous essayons juste de faire les choses du mieux possible (selon notre perception de ce mieux).

Ça nous amène donc au sujet du panel de jeux, j'imagine qu'il y a autant d'avis que de lecteurs, le tiens est tout aussi respectable que celui d'autres, aucun souci avec cela. Pour rappel notre philosophie depuis des années est de proposer un nombre conséquent de jeux (limitant à 5% le poids de chaque jeu), nous permettant justement de mixer ceux très récents avec des plus anciens, si ces derniers font toujours sens. Je pense que c'est le cas de GTA V et The Witcher III, tant techniquement qu'en termes de ventes (si Cyberpunk 2077 ou Red Dead Redemption II étaient disponibles sur PC, la question ne se poserait même pas).

Toutefois, nous suivons l'actualité vidéoludique, puisqu'en un peu plus d'un an, ce sont pas moins de 15 jeux qui ont été remplacés au sein du panel par rapport à ce dossier par exemple. Nous avons également choisi de ne faire apparaître qu'un seul type de moteur dans le panel, parce qu'on pourrait très bien mettre 3/4 jeux plus récents mais s'ils utilisent tous par exemple l'UE4, quelle pertinence ?

Il faut aussi avoir bien conscience que tous les jeux ne sont pas forcément adaptés pour entrer dans le périmètre de test. Pour les raisons on peu citer le côté trop light de certains, reportant la limitation sur les CPU au lieu des GPU. Le manque de répétabilité d'autres, la présence de limiteurs de fps, etc.

PS : Pour info Anno 2205 sera remplacé par la version 1800 à sa sortie mi-avril et il est possible que "A Plague Tale : Innocence" entre si adapté.
par Le Comptable, le Vendredi 15 Mars 2019 à 09h00  
Edit : avant toute chose merci pour ce test. Depuis la fin d'HFR, vous êtes pour moi la référence francophone en termes de hardware (même si je ne suis pas fan de tout, faut rendre à César ce qui lui appartient ).

Question : c'est possible de faire évoluer le protocole de test en changeant un peu la sélection des jeux ? Y'en a quelques uns qui commencent un peu à dater, et c'est ceux sur lesquels les écarts se font le plus ressentir entre deux constructeurs...

Je suis d'accord pour dire qu'il faut montrer de la diversité, mais pas créer des écarts là où il n'y en a plus vraiment en réalité car ces comparatifs servent de guide d'achat. On achète un GPU récent aussi et surtout pour les jeux à venir.

Un jeu comme GTA V qui a 4 ans sur PC (et presque 6 sur console), on peut partir du principe qu'on l'a tous torché et puis voilà. Pareil pour TW3.

Je comprends aussi la volonté de mettre autant de jeux "AMD friendly" que "NVidia friendly", mais ne devrait-on pas plutôt mettre les jeux du moment qui sollicitent le plus le GPU ? A ce titre, je salue l'arrivée si rapide de TD2 qui sort cette semaine.

PS : Contrairement à ce qu'on pourrait penser, j'ai un GPU NVidia (une GTX 1070). Donc non je ne trolle pas.
par Ez3kiel, le Vendredi 15 Mars 2019 à 08h15  
par dfd, le Jeudi 14 Mars 2019 à 21h21
Arrêtez de râler !
Les 1660 sont des bonnes cartes, mais qui n'intéresseront pas les possesseurs de GTX 1060, clairement. Pour ceux là, la RTX 2060 est le minimum à viser.
Mais pour ceux qui ont des CG de générations précédentes, coucou GTX 950/960 et Radeon HD 7970, pour 230-250 balles, y'a de quoi faire un truc sympa !
Que AMD se bouge le fi* et nous propose un Navi à la hauteur de la 1660 Ti, pour 220 balles, et on est bon !
Non c'est pas des bonnes cartes ! payer 250€ des GPU 20% au dessus des 1060 qui ont 3 ans ... et 10% en dessous des 1070 que nvidia a bien pris soin de faire retirer des catalogues des VPC... tu m'expliques a quel moment c'est un bon plan quand on trouve des VEGA56 à 300€ ?
par dfd, le Jeudi 14 Mars 2019 à 21h21  
Arrêtez de râler !
Les 1660 sont des bonnes cartes, mais qui n'intéresseront pas les possesseurs de GTX 1060, clairement. Pour ceux là, la RTX 2060 est le minimum à viser.
Mais pour ceux qui ont des CG de générations précédentes, coucou GTX 950/960 et Radeon HD 7970, pour 230-250 balles, y'a de quoi faire un truc sympa !
Que AMD se bouge le fi* et nous propose un Navi à la hauteur de la 1660 Ti, pour 220 balles, et on est bon !
par Vyndrall, le Jeudi 14 Mars 2019 à 15h51  
Autant ces nouvelles cartes Nvidia peuvent faire sens compte tenu de l'absence d'AMD sur pas mal de créneaux (milieu et haut de gamme),autant je trouve ces 1660/ti très chères pour ce qu'elles sont.

J'ai acheté ma GTX 1070 KFA² EX à 398€ en 2016. Force est de constater qu'ils ressortent des cartes resucées 2 ans et demi plus tard pour un prix relativement élevé compte tenu de leurs performances...
par lunehurlante34, le Jeudi 14 Mars 2019 à 15h40  
par TwoFace, le Jeudi 14 Mars 2019 à 15h34
Entre 230 et 350 euros (310 euros avec la revente d'un jeu)
ça fait 52% d'écart de prix entre une 1660 et une 2060, et le jeu fourni tu ne pourras jamais le vendre 40€ (ils valent neuf 30-40€ maxi)

Bref, les deux cartes visent deux publics différents, ceux ayant 200-250€ de budget et l'autre 300-400€.
par TwoFace, le Jeudi 14 Mars 2019 à 15h34  
par lunehurlante34, le Jeudi 14 Mars 2019 à 15h24
C'est sûr qu'avec ce raisonnement, on fini par acheter une 2080ti!
Parce que à mettre 220€ (1660) autant mettre 280€ (1660ti)
Et puis à mettre 280€ (1660ti), autant mettre 350€ (2060)
Et puis à mettre 350€ (2060), autant mettre .... et puis on se retrouve à acheter une 2080ti!
Entre 230 et 350 euros (310 euros avec la revente d'un jeu)

Il y a 3 cartes dans une enveloppe de 80 euros, autant partir pour la plus perfs et s'assurer d'avoir assez de patate pour du FHD .

La 2080 à un prix correcte et c'est la seule qui peut gérer le RT en 1440p, et sa déclinaison Ti c'est pour ceux qui ont des moyens
par lunehurlante34, le Jeudi 14 Mars 2019 à 15h24  
par TwoFace, le Jeudi 14 Mars 2019 à 14h28
Justement c'est pour ça que je trouve qu'à 200 euros gros maxx pourquoi pas, au moins pour avoir une différence intéressante VS une 1660 Ti à 285 euros .
Mais bon à ce niveau d'investissement "1660Ti" autant partir sur une 2060 qui aura le RT / DLSS + 1 jeu gratos
C'est sûr qu'avec ce raisonnement, on fini par acheter une 2080ti!
Parce que à mettre 220€ (1660) autant mettre 280€ (1660ti)
Et puis à mettre 280€ (1660ti), autant mettre 350€ (2060)
Et puis à mettre 350€ (2060), autant mettre .... et puis on se retrouve à acheter une 2080ti!