COMPTOIR
  
register

×

Exécution concomitante flottants et entiers

Test • NVIDIA GeFORCE GTX 1650
Exécution concomitante flottants et entiers
Turing en chiffres
diagram tu117
GPU Boost 3.0
GPU Boost 4.0

• Turing

Pour ceux intéressés par l'architecture Turing, nous vous invitons à lire ou relire le dossier que nous lui avons consacré il y a quelque temps. Résumée en quelques lignes, cette dernière ressemble beaucoup à Volta avec quelques ajouts. Par rapport à Pascal (gaming) : des caches plus gros et plus rapides, des SM "plus petits" mais plus nombreux et capables de traiter en parallèle les calculs sur entiers ou en virgule flottante (y compris en demi-précision (FP16) à double vitesse).

 

Exécution concomitante flottants et entiers [cliquer pour agrandir]

 

Voilà pour la partie "classique" de l'architecture, NVIDIA a complété cette dernière par des Tensor Cores, accélérant significativement les calculs liés à l'intelligence artificielle, en particulier l'inférence, ainsi que les RT Cores, dédiés à l'accélération matérielle (des calculs d'intersection rayons / triangles) du Ray Tracing, utilisable en temps réel dans les jeux via un rendu hybride, mixant cette technique à une base rastérisation.  

 

Turing en chiffres [cliquer pour agrandir]

Turing en chiffres dans sa déclinaison dédiée à la RTX 2080 Ti

 

Mais ces nouvelles fonctionnalités sont loin d'être gratuites en termes de "coût transistors", avec pour conséquence des dies pour le moins imposants et donc onéreux à produire, du fait d'un nombre réduit de ces derniers par Wafer (disques en silicium sur lesquels sont gravés les puces). Mais ça, c'était avant, puisque les deux plus petits GPU Turing s'affranchissent des RT et Tensors Cores, afin d'atteindre un coût de production plus adapté au marché visé.

 

 

• TU117

NVIDIA a donc conçu à partir de sa dernière architecture, un cinquième GPU nommé TU117, qui se retrouve au sein des GTX 1650, le préfixe rappellant l'absence des nouvelles fonctionnalités. Le die de TU117 mesure 200 mm², à mettre en perspective des 132 mm² de GP107 équipant les GTX 1050 (Ti). Cette augmentation sensible l'amène au niveau de la précédente série 6, GP106 prenant peu ou prou la même surface. Le procédé de fabrication évolue toutefois, le 12 nm FFN à nouveau utilisé pour une puce Turing, est personnalisé pour les verts (FFN = FinFET NVIDIA) par TSMC : il s'agit en fait d'une optimisation du "16 nm FinFET Plus" existant. Les gains ne sont pas à chercher du côté de la densité de gravure (qui régresse même par rapport au 14 nm LPP de Samsung utilisé pour GP107), mais de la performance des transistors, afin de rester dans une enveloppe thermique "gérable", malgré l'explosion de leur nombre. Vous retrouverez ci-dessous un résumé des différents GPU utilisés sur les GeForce série 10, 16 et 20.

 

Cartes
GPUNombre de transistorsSuperficie Die

Densité (Millions de transistors / mm²)

Procédé de fabrication
GeForce RTX 2080 Ti TU102 18,6 Milliards 754 mm² 24,7 TSMC 12 nm FFN
GeForce RTX 2080 TU104 13,6 Milliards 545 mm² 24,9 TSMC 12 nm FFN
GeForce RTX 2070/60 TU106 10,8 Milliards 445 mm² 24,3 TSMC 12 nm FFN
GeForce GTX 1660 (Ti) TU116 6,6 Milliards 286 mm² 23,1 TSMC 12 nm FFN
GeForce GTX 1650 TU117 4,7 Milliards 200 mm² 23,5 TSMC 12 nm FFN
GeForce GTX 1080 Ti GP102 12 Milliards 471 mm² 25,5 TSMC 16 nm FF+
GeForce GTX 1080/70 (Ti) GP104 7,2 Milliards 314 mm² 22,9 TSMC 16 nm FF+ 
GeForce GTX 1060 GP106 4,4 Milliards 200 mm² 22 TSMC 16 nm FF+
GeForce GTX 1050 (Ti) GP107 3,3 Milliards 132 mm² 25 Samsung  14 nm LPP

 

TU117 s'appuie sur 2 GPC, réduisant d'autant les unités de rastérisation. Il reprend la configuration de ceux utilisés par TU102/116, c'est à dire incluant 4 TPC / 8 SM. L'interface mémoire est réduite d'un tiers par rapport à son grand frère, puisque le caméléon utilise un bus mémoire 128-bit via 4 contrôleurs 32-bit, qui prennent place au sein du die. Enfin, la réduction est du même ordre pour les éléments liés, c'est-à-dire les ROP (par partition de 8) et le cache L2, pour des valeurs respectives de 32 et 2 Mo. Le caméléon ne nous ayant pas fourni de diagramme pour TU117, nous avons modifié celui de TU116, les parties blanches correspondant aux "coupes" effectuées pour créer ce nouveau GPU par rapport au modèle supérieur.

 

diagram tu117 [cliquer pour agrandir]

 

Le GPU utilisé sur les GeForce GTX 1650 desktop est par contre incomplet, ce qui signifie que le caméléon désactive certains blocs/unités pour faciliter la production. Cela laisse donc la place à une hypothétique version Ti, si d'aventure le caméléon jugeait cette option pertinente. Voici résumées les principales caractéristiques de son GPU dans le tableau ci-dessous et les désactivations opérées.

 

GeForce GTX 1660Quantité activéeQuantité Présente
GPC 2 2
TPC / SM 7 / 14 8 / 16
CUDA Cores 896 1024
TMU 56 64
Tensor Cores - -
RT Cores - -
ROP 32 32
L2 (Mo) 2 2
Bus mémoire (bits) 128 128

 

A noter également que si le moteur d’affichage vidéo est inchangé par rapport aux précédentes puces Turing, il n'en est pas de même pour les encodeurs intégrés, puisque ils se "contentent" des fonctionnalités et performances de la génération VOLTA, avec pour principale différence, la non prise en charge du HEVC B Frame. Vous retrouverez résumées ici les différentes capacités selon les GPU. Finissons cette page par un dernier rappel, celui concernant le grand ordonnanceur des fréquences GPU des GeForce, à savoir GPU Boost dans sa quatrième itération, étrennée avec ces nouvelles générations de cartes, du moins les RTX.

 

 

• GPU Boost

Ce mécanisme a pour objectif de pousser chaque puce au plus près de ses limites, en s'affranchissant de tests trop sélectifs en sortie de production. C'est en effet GPU Boost qui est chargé par la suite, de s'assurer que les conditions environnementales permettent au GPU de fonctionner de manière stable et sans risque. Pour ce faire, il impose un double carcan constitué d'une limite de consommation et de température selon l'itération. Avec la version 3 introduite lors du lancement de Pascal, à partir de 37°C et tous les 5°C supplémentaires, le GPU perd 1 bin (~13 MHz) et ce jusqu'à la consigne de température maximale. Il perd alors autant de bins que nécessaire pour rester sous celle-ci.

 

La fréquence progressant de concert avec la tension d'alimentation du GPU, c'est un moyen très efficace pour contrôler la consommation (qui évolue au carré de la tension et dispose aussi de sa propre limite), évitant ainsi une envolée des nuisances sonores, avec un refroidisseur pas forcément dimensionné pour la dissiper discrètement à fréquence maximale durant une charge soutenue, ce qui est le cas des Founders Edition à turbine. Le souci d'une telle approche, est la pénalisation de toutes les cartes Pascal, y compris les customs des constructeurs tiers, avec des refroidisseurs surdimensionnés. En effet, NVIDIA autorise la modification du TDP max. des cartes, mais en aucun cas des paliers de température par défaut de GPU Boost 3.0. Ci-dessous une représentation graphique de ce fonctionnement.

 

GPU Boost 3.0 [cliquer pour agrandir]

 

Avec Turing version RTX, NVIDIA a annoncé GPU Boost 4.0. En gros, ce dernier fonctionnerait de manière similaire, mais avec un ajustement qui fait toute la différence. En effet, les valeurs de températures sont à présent exposées, il est donc possible de les modifier. Bien sûr, il est nécessaire de rester dans la plage autorisée par le caméléon, mais le seuil à 37°C qui marquait le "début de la baisse" des fréquences, n'est plus imposé. Cela coïncide avec l’utilisation d'un refroidisseur plus performant sur les Founders Edition, qui ne perdent donc plus de fréquence du fait de la température. Toujours est-il, qu'il était très difficile de s'approcher du TDP max sur ces dernières en version Pascal, à part lors des premiers instants de forte sollicitation. Ce ne sera plus le cas avec les versions Turing RTX, qui seront davantage limitées par leur enveloppe thermique. Ci-dessous, la représentation schématique de GPU Boost 4.0. Notons également qu'un bin, prend à présent la valeur de 15 MHz, contre 13 MHz auparavant.

 

GPU Boost 4.0 [cliquer pour agrandir]

 

Nous avons précisé RTX car il semble bien que la série 16 ne soit pas gouvernée par la dernière itération de GPU Boost, mais bien la précédente ou plutôt un mix des deux, plus de détails à ce sujet page 14. Voilà pour les rappels, passons page suivante à la description de la carte de test que nous avons reçue.



Un poil avant ?

Dans la série à ne pas faire : le SSD RGB ft. HyperX

Un peu plus tard ...

Un système de mise à jour plus léger à venir sur Windows

Les 15 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Eric B., le Samedi 11 Mai 2019 à 14h33  
Mais je te crois sans avoir à relever l'historique de tes messages, les personnes dont je parle lors de ma réponse à mordain, ne se comportent pas comme tu l'as fait au second message, preuve d'une simple incompréhension inhérente à l'utilisation de l'écrit. Encore désolé de t'avoir prêté de mauvaises intentions qui n'étaient pas les tiennes.

Pour la GTX 1650, son intérêt (au tarif pratiqué actuellement) est effectivement très limité, mais pour des PC portables, TU117 est loin d'être inintéressant.
par Le Comptable, le Samedi 11 Mai 2019 à 09h36  
En effet superbe travail de test, encore une fois.

Loin de moi l'idée d'avoir voulu polémiquer sur la qualité du test. Vous pouvez reprendre mes commentaires depuis le début, j'ai toujours été bienveillant envers les rédacteurs même si je n'ai pas toujours adhéré au "ton" du site. Mais ça, c'est son identité.

Pour en revenir à la 1650, je ne trouve pas cette dernière pertinente. La plupart des jeux où elle se démarque de la concurrence sont des vieux jeux, et comme signalé la 570 connaît des promos qui rendent cette 1650 un poil trop cher.

Enfin, elle se prend un vent magistral face à la 1060FE, ce qui fait se demander quel est le réel intérêt d'une montée en génération si ce n'est même pas pour atteindre le modèle supérieur de la génération suivante.
par Eric B., le Samedi 11 Mai 2019 à 07h06  
par mordain le Mercredi 08 Mai 2019 à 16h54
Détendez vous les tenanciers du comptoir
De toute façon, vous ne pourrez malheureusement pas toujours empêcher les gens, s'ils ont envie de contredire, d'être chiant etc, etc....de mettre leur petit grain de sel sur les commentaires. Internet n'est que le reflet de la société et des opinions de chacun (pour le meilleur comme pour le pire). Continuez votre super travail, les vrais amateurs de hardware et de news sur le monde de l'informatique savent apprécier votre travail!
Désolé pour le délai de réponse, quelques soucis de transports aériens ces derniers jours. Je ne pense pas que nous soyons tendus à l'extrême . Nous n'empêchons pas non plus la contradiction, au contraire si elle est objective et permet de progresser, n'étant que des hommes, nous sommes forcément faillibles.

Toutefois, certains ne sont pas ici (contrairement à l'immense majorité ) dans un esprit de connaissance et entre-aide, mais juste dans le but de cracher leur venin, frustration, amertume ou autres sentiments détestables sur les lecteurs, rédacteurs, sociétés et produits. Cela n'est pas acceptable et ne ne laisserons jamais faire dans ces cas là.

Merci en tout cas pour les encouragements (également à toi Superubu) .
par Superubu, le Mercredi 08 Mai 2019 à 18h24  
par mordain le Mercredi 08 Mai 2019 à 16h54
Continuez votre super travail, les vrais amateurs de hardware et de news sur le monde de l'informatique savent apprécier votre travail!
Ouaip, on est conscient de la part de travail que demande la gestion des Ragots...Et c'est aussi pour ça qu'on l'aime le Comptoir. Lâchez pas les gars!
par mordain, le Mercredi 08 Mai 2019 à 16h54  
par Eric B. le Mercredi 08 Mai 2019 à 15h52
Ok désolé de l'avoir interprété négativement mais l'écriture laisse toujours une grande place à l'interprétation. J'avais toutefois été prudent sur le sujet, en n'écartant pas la possibilité d'une incompréhension que tu confirmes, tu me vois donc ravi que ce ne fusse pas ton intention. A force de se faire reprocher tout et n'importe quoi par certains, on finit par devenir suspicieux à chaque tournure laissant place à une interprétation.
Détendez vous les tenanciers du comptoir
De toute façon, vous ne pourrez malheureusement pas toujours empêcher les gens, s'ils ont envie de contredire, d'être chiant etc, etc....de mettre leur petit grain de sel sur les commentaires. Internet n'est que le reflet de la société et des opinions de chacun (pour le meilleur comme pour le pire). Continuez votre super travail, les vrais amateurs de hardware et de news sur le monde de l'informatique savent apprécier votre travail!
par Eric B., le Mercredi 08 Mai 2019 à 15h52  
Ok désolé de l'avoir interprété négativement mais l'écriture laisse toujours une grande place à l'interprétation. J'avais toutefois été prudent sur le sujet, en n'écartant pas la possibilité d'une incompréhension que tu confirmes, tu me vois donc ravi que ce ne fusse pas ton intention. A force de se faire reprocher tout et n'importe quoi par certains, on finit par devenir suspicieux à chaque tournure laissant place à une interprétation.
par Le Comptable, le Mercredi 08 Mai 2019 à 14h02  
par Eric B. le Mardi 07 Mai 2019 à 11h21
Il ne t'aura pas échappé que ce dossier traite de la GTX 1650 et non de la GTX 1060 ou RX 580, donc les conclusions et analyses sont destinées à la première citée et ce en toute logique. Du coup ton passage "on en parle ou c'est tabou ?" est particulièrement mal venu sans compter qu'il laisserait à penser que l'on souhaite sciemment dissimuler un fait. Si c'était vraiment le cas, n'aurait-il pas été plus simple de modifier tout bonnement les résultats afin d'être réellement malhonnêtes ? Bref je suis très moyennement fan de la forme et du sous-entendu (si c'en était bien un et pas une mauvaise interprétation / compréhension due à l'écrit).
Désolé si tu l'as pris comme ça. Je ne parlais ni du test ni du testeur, j'invitais simplement à la discussion dans les commentaires
par Guillaume L., le Mercredi 08 Mai 2019 à 08h09  
Le problème d'ASUS est d'appliquer trop souvent du haut de gamme quand il n'y en a pas besoin. Il en résulte sur certaines RTX un surcoût peu logique ou mal équilibré, quand d'autres profitent pleinement de ce "boost" sur le haut de gamme Turing.
Par contre ils ont une valeur ajoutée qui est leurs loupiottes couplées à un environnement logiciel qui marche bien. Plus des BIOS efficaces.
Mais il est vrai que sur un GPU d'entrée de gamme l'intérêt est quasi nul...
par Un rat goth à l'heure de Bretagne, le Mardi 07 Mai 2019 à 22h56  
par mordain le Mardi 07 Mai 2019 à 18h33
Ça permet de justifier une marge très importante auprès d'un public très sensible au design "gamer" et à l'aura de la marque je pense....
apparemment le gros des ventes " gaming " se fait plus sur la gamme au dessus maintenant ( 1060 & co ) du coup ils ferait mieux de réduire les couts en faisant des modèles plus simple sur cette gamme
après ça les empêche pas de mettre 2 ou 3 loupiotes pour faire plaisir aux kikoo afin de justifier des prix élevés
mais maintenant qu'on a des gpus si peu gourmand tout en étant relativement perf, c'est un peu con de les mettre sur des pcb de 24 cm surmonté d'un rad dual slot alors qu'on pourrait avoir des cartes bien plus compactes voir passive
par mordain, le Mardi 07 Mai 2019 à 18h33  
par Un rat goth à l'heure de Bretagne le Mardi 07 Mai 2019 à 15h32
je comprends pas l'obstination d'Asus avec leurs cartes de kéké
l'intérêt de cette carte c'est sa conso et ses perfs/watt
parfait pour un HTPC itx polyvalent orienté cinéma et jeu occasionnel
alors pourquoi faire des cartes aussi énormes
Ça permet de justifier une marge très importante auprès d'un public très sensible au design "gamer" et à l'aura de la marque je pense....
par Un rat goth à l'heure de Bretagne, le Mardi 07 Mai 2019 à 15h32  
je comprends pas l'obstination d'Asus avec leurs cartes de kéké
l'intérêt de cette carte c'est sa conso et ses perfs/watt
parfait pour un HTPC itx polyvalent orienté cinéma et jeu occasionnel
alors pourquoi faire des cartes aussi énormes

par Eric B., le Mardi 07 Mai 2019 à 11h21  
par Le Comptable le Mardi 07 Mai 2019 à 11h00
La 1060 à mi-chemin entre la 570 et la 580, on en parle ou c'est tabou ?

En API bas niveau, elle est même descendue au niveau de la 570.
Il ne t'aura pas échappé que ce dossier traite de la GTX 1650 et non de la GTX 1060 ou RX 580, donc les conclusions et analyses sont destinées à la première citée et ce en toute logique. Du coup ton passage "on en parle ou c'est tabou ?" est particulièrement mal venu sans compter qu'il laisserait à penser que l'on souhaite sciemment dissimuler un fait. Si c'était vraiment le cas, n'aurait-il pas été plus simple de modifier tout bonnement les résultats afin d'être réellement malhonnêtes ? Bref je suis très moyennement fan de la forme et du sous-entendu (si c'en était bien un et pas une mauvaise interprétation / compréhension due à l'écrit).

Maintenant sur le fond, il s'agit dans ce test d'une GTX 1060 FE qui joue dans la cour de la RX 480 (+/-5%) puisque sortie en même temps. La 580 a été commercialisée après coup pour prendre justement l'ascendant, c'est le cas ici de 9% sur le panel global (réduit de 20 à 14 jeux par rapport à nos précédents tests faute de temps, avec la publication des pilotes à la levée du NDA seulement), ce qui situe la 580 grosso modo au niveau d'une GTX 1060 custom, je ne vois donc pas bien matière à le relever. Enfin, je le répète souvent, mais du fait de l'évolution du panel de jeux, les rapports de force sont eux-aussi amenés à évoluer suivant les entrées/sorties de différents titres, les derniers étant effectivement plutôt favorables à AMD.