COMPTOIR
register

×

Precision X1

Test • NVIDIA GeFORCE RTX 2080 / 2080 Ti
Precision X1
Overclocking RTX 2080 & 2080 Ti FE

• Évolution des fréquences

Pour jauger l'ampleur des éventuelles baisses de fréquences induites par les limites de température et consommation imposées aux cartes Turing via GPU Boost 4.0, nous avons mesuré la fréquence de leurs GPU en tâche de fond sous forte charge (The Witcher III en QHD) soutenue durant 30 min. Commençons par la RTX 2080 FE, nous avons ajouté sa devancière à titre de comparaison :

 Evolution des fréquences de la RTX 2080 FE

L'évolution de la fréquence GPU de la RTX 2080 Founders Edition sous forte charge

 

En début de test, la GTX 1080 FE est clairement limitée par son TDP (cf. % TDP), puis la température devient le facteur limitant jusqu'à stabiliser sa fréquence presque 300 MHz plus bas que son point haut (1898 MHz). La RTX 2080 FE étant régie de son côté par GPU Boost 4.0, la température n'entre en jeu qu'à partir d'une valeur jamais atteinte par la carte avec son refroidisseur. Cela ne veut pas dire pour autant qu'elle ne soit pas sous contrainte, puisque son enveloppe thermique la bride (officiellement 225 W) durant tout le test. Les conséquences sont toutefois moindres que pour sa devancière, puisque la fréquence chute de 1965 MHz maximum aux environs de 1830 MHz, soit une chute de 135 MHz. Passons à sa grande sœur à présent :

 

Evolution des fréquences de la RTX 2080 Ti FE

L'évolution de la fréquence GPU de la  RTX 2080 Ti Founders Edition sous forte charge

 

Bis repetita ? Oui, mais avec quelques variantes. Ce qui ne change pas, c'est que la carte est systématiquement limité par son TDP max. Par contre, les conséquences s'avèrent bien plus importantes ici, puisque la fréquence chute cette fois de près du double à 270 MHz. Pourquoi donc ? Eh bien tout simplement parce que l'enveloppe thermique autorisée pour le GPU, certes plus importante que celle de sa petite sœur, s'avère toutefois beaucoup plus limitante sur une puce si complexe, et donc potentiellement bien plus gourmande sans contrôle. GPU Boost 4.0 remplit donc son office pour restreindre l'appétit de cette dernière, qui peut vite devenir gloutonne.  

 

 

• Overclocking

Nous venons de le voir, les RTX 2080 et 2080 Ti sont des cartes totalement limitées par leur enveloppe thermique autorisée. Cette valeur est bien évidemment modifiable, dans une certaine limite toutefois. Si vous avez par contre lu notre dossier sur l'architecture (ou des dossiers récents de cartes NVIDIA), vous devez vous rappeler que l'overclocking consiste du côté vert à appliquer un offset (décalage) au niveau de la courbe (tension / fréquences) régissant l'attribution de ces dernières. Cela permet donc d'overclocker, même en cas de forte limitation du TDP, car la consommation progresse plus vite au niveau de la tension (² de cette dernière) que de la fréquence.

 

Cette opération autrefois longue et fastidieuse, prend un tour beaucoup moins pénible avec NV Scanner. Ce dernier intègre un algorithme de contrôle d'exactitude des calculs soumis au GPU (= stabilité) et permet de tester l'ensemble de la courbe automatiquement en une vingtaine de minutes. De quoi trouver aisément l'offset maximum réellement stable. Precision X1 est le premier logiciel à utiliser cette fonctionnalité, pour quel résultat pratique ?

  

Precision X1 [cliquer pour agrandir]

Precision X1 et son intégration de NV Scanner

 

Du côté de la 2080, l'overclocking ci-dessous (à gauche) nous a permis de gagner 6% sous The Witcher III pour une consommation en hausse de 48 W, conduisant à des nuisances sonores augmentant de 3,8 dBA. La GDDR6 de cette dernière a accepté une augmentation de 11% de sa fréquence, l'instabilité arrivant relativement vite à ce niveau avec plantage à la clef. Côté GPU, c'est un gain de 105 MHz, soit + 5,7% d'après NV Scanner. On peut toutefois pousser davantage et même jouer sans problème, mais la stabilité ne sera pas totalement garantie dans ce cas et pourra conduire à des plantages aléatoires. 

 

Overclocking RTX 2080 & 2080 Ti FE [cliquer pour agrandir]

RTX 2080 & 2080 Ti FE overclockées

 

C'est pas franchement mieux côté 2080 Ti, puisque la mémoire s'est avérée très peu coopérative. Au final, avec un offset GPU plus important trouvé par NV Scanner (11,5 %), nous avons mesuré 8,5% de gains sous The Witcher III, pour une consommation en hausse de 52 Watts. les nuisances sonores progressent dans le même temps de 4 dBA. Page suivante, passons justement aux mesures de bruit et températures.



Un poil avant ?

Live Twitch • Une quête avec des trolls poilus dedans !

Un peu plus tard ...

Le chipset Z390 (ré)officialisé le 8 octobre ?

Les 126 ragots
Les ragots sont actuellement
ragots réservés aux QI élevésouverts aux ragoteurs logués
par Eric B., le Mercredi 27 Février 2019 à 07h03  
Moi ce que je trouve étrange c'est ton commentaire : tu compares une carte graphique au design de référence (et donc avec une fréquence GPU sensiblement impactée) à la tienne fortement overclockée et couplée avec un CPU plus rapide pour ce genre de tâches (sachant que le score CPU est pris en compte dans le calcul du score global reporté dans le graphique et que la désactivation de l'HT sur le notre réduit encore davantage les performances dans le test CPU) et tu t'étonnes (faussement ?) de valeurs différentes... Autant comparer des choux et des carottes. Ce qui compte dans ce test spécifique (qui n'est d'ailleurs présent qu'à titre informatif, le verdict n'est établi que vis-à-vis des résultats in game), c'est la hiérarchie mesurée entre cartes sachant que les conditions d'exécution sont identiques (ce n'est pas ton cas), pas le score global dans l'absolu.
par Mika2012, le Mardi 26 Février 2019 à 13h36  
Je trouve les résultats du test bizarre.
J'ai un I7 8700K et une GTX 1080 Ti et j'ai un score 3D MarK de 10536...en QHD 1440*2560. Soit l'équivalent de la 2080...
Bon Ok le processeur est à 5.2Ghz et la Carte graphique à 2.2Ghz...
Mais quand même.
par Eric B., le Mardi 15 Janvier 2019 à 18h58  
Nous voulons bien t'aider à comprendre d'où provient le différentiel de performance, mais pour cela il faut être plus factuel :
* Préciser la configuration (CPU OC ? / fréquence et qté DDR4)
* Préciser davantage les réglages
* Comment sont mesurées les performances ? (durant un séance de jeu via fraps ou équivalent ? En solo ou en multi ? Avec le benchmark intégré ? Sur un replay perso ?
* L'idéal c'est de réaliser un log des fréquences de la carte graphique (via GPU-Z par exemple) durant ta session de jeu (et également l'usage CPU / fréquence si rien d'anormal côté GPU)
par DeathofWarQc, le Mardi 15 Janvier 2019 à 18h26  
J'ai l'impression d'avoir parler dans le vent mais bon mdr si tu veux x3
par Thibaut G., le Lundi 14 Janvier 2019 à 22h27  
par DeathofWarQc le Lundi 14 Janvier 2019 à 22h12
Si si je lis tres bien mdr
Je joue pareil que sur les test tout au max sauf txaa et x4 1440p, avec g-sync et un i7 8700k
Meme si je serai un casual jouant sur du 1080p je devrais taper dans du 150fps au moins, la c'est tout le contraire.
Je me plaindrais pas si c'etais que 10 fps alors que la je parle de pratiquement 50% de perf en moins.
On est pas tous des jean billy tu sais xP
donc des conditions de test différentes, une machine différente, des réglages différents. On ne peut pas comparer directement, c'était le sens de mon message et tu le confirmes. Rien que ça ne te permettra pas de savoir d'où viennent tes contre performances. jean Billy ou pas, c'est assez simple de le comprendre, on ne peut comparer qu'à iso réglages et iso machine.
par DeathofWarQc, le Lundi 14 Janvier 2019 à 22h12  
par Thibaut G. le Samedi 12 Janvier 2019 à 15h03
et si tu lisais les conditions des tests avant ? Il y a 500% de chances qu'on ne teste pas de la même manière, la comparaison de chiffres directe est inutile, tu ne précises même pas la définition de test ni le niveau de détails que tu utilises.
Si si je lis tres bien mdr
Je joue pareil que sur les test tout au max sauf txaa et x4 1440p, avec g-sync et un i7 8700k
Meme si je serai un casual jouant sur du 1080p je devrais taper dans du 150fps au moins, la c'est tout le contraire.
Je me plaindrais pas si c'etais que 10 fps alors que la je parle de pratiquement 50% de perf en moins.
On est pas tous des jean billy tu sais xP
par Thibaut G., le Samedi 12 Janvier 2019 à 15h03  
par DeathofWarQc le Samedi 12 Janvier 2019 à 14h35
100fps sur GTA V xD avec ma 2080 MSI trio X OC je depasse pas les 40fps avec des pics a 70
et si tu lisais les conditions des tests avant ? Il y a 500% de chances qu'on ne teste pas de la même manière, la comparaison de chiffres directe est inutile, tu ne précises même pas la définition de test ni le niveau de détails que tu utilises.
par DeathofWarQc, le Samedi 12 Janvier 2019 à 14h35  
100fps sur GTA V xD avec ma 2080 MSI trio X OC je depasse pas les 40fps avec des pics a 70
par Eric B., le Mardi 13 Novembre 2018 à 07h30  
Nous avons fait un dossier architecture distinct, les réponses s'y trouvent. Pour information, des ordonnanceurs hardware il y en a dans les architectures NVIDIA depuis belle lurette au niveau des blocs de traitement au sein des SM.

Comme tu évoque les async compute, j'imagine que tu veux parler du Multi Engine tel qu'implémenté au sein de DX12 (ou Vulkan), c'est à dire le traitement des files d'attente de rendu, si possible de manière concomitante. Pour cela il faut des processeurs de commande suffisamment évolués, sinon c'est aux développeurs ou au pilote de faire les tâches de synchronisation.

Turing marque effectivement un gros progrès à ce niveau du fait du rendu hybride, toutefois cela ne se traduira pas forcément par des gains similaires à ceux visibles sur les Radeon pour une raison simple : ce fonctionnement permet d'améliorer le taux de charge des unités de calcul, toutefois, si ce dernier est élevé par défaut, le gain potentiel est fortement réduit.

Les GPU NVIDIA depuis Maxwell ont un taux d'occupation par défaut supérieur à ce que l'on trouve chez AMD, c'est pour ça qu'en général il faut aux cartes d'AMD une puissance de calcul brute supérieure pour égaler leurs concurrentes sous DX11, du fait de ce différentiel. C'est pour ça aussi que les cartes d'AMD profitent plus de DX12 qui leur permet (si implémenté et possible) d'améliorer le taux d'occupation de leurs unités.

L'avantage pour Turing face aux précédentes archi vertes, c'est que si le développeur ne fait pas le travail d'optimisation spécifique au GPU, ses processeurs de commande évitent les pénalités de synchronisation et peuvent profiter de gains potentiels.
par TwoFace, le Lundi 12 Novembre 2018 à 10h55  
Au fait ce serait bien de rajouter dans le test des cartes, si les turing ont un ordonnanceur hardware et s'il y a l'async compute bien intégré ??? une lacune des Pascal VS AMD...
Message de wahidovic123 supprimé par un modérateur : HS
par Sarge, le Mardi 16 Octobre 2018 à 17h29  
Eh bien, le RTX (le vrai) a 60 FPS...ce n'est pas pour demain la vieille ! Heureusement qu'Nvidia a pigeonné trouvé des investisseurs clients pour développer les prochaines cartes qui elles, pourront faire tourner du RTX, du vrai !
Merci pour cette maj.