COMPTOIR
register

×

Images IR RTX 2080

Test • NVIDIA GeFORCE RTX 2080 / 2080 Ti
Images IR RTX 2080
IR RTX 2080 Ti

• Nuisances sonores

Nous laissons le boîtier ouvert et positionnons le sonomètre à 20 cm de la carte graphique, à la même hauteur. Afin de limiter au maximum les nuisances externes aux cartes, nous coupons temporairement pendant la mesure, les ventilateurs du boîtier, du CPU et de l'alimentation (via l'intégration d'un interrupteur sur cette dernière). Nous utilisons un sonomètre Casella Tech CEL-620A1, certifié et calibré pour une plage de mesures comprises entre 20 et 140 dBA.

 

Sonomètre

 

Au repos, les nouvelles venues dénotent clairement avec un niveau sonore bien plus élevé que les modèles de référence de la concurrence et des générations précédentes. C'est clairement une déception. Contacté à ce sujet pour lever l'éventualité d'un bug, NVIDIA nous précise que la vitesse de rotation élevée des ventilateurs dans ce mode est "normale" pour limiter l'échauffement de l'étage d'alimentation en particulier, ils travaillent à corriger un souci de consommation au repos de leur GPU, ce qui devrait faire l'objet d'une correction via un pilote dans quelque temps (comprendre indéterminé).

Les pilotes 411.70 corrigent effectivement le problème de surconsommation au repos, toutefois aucun changement du côté de la ventilation des cartes dans ces conditions. La dernière version de Precision X1 (0.28 Beta au moment de ces tests) ne permet pas de changer cela.

En l'état, nous avons toutefois beaucoup de mal à comprendre pourquoi une ventilation moindre n'est pas  appliquée, la surconsommation (que nous avons mesurée) ne justifiant pas selon nous de dégrader le confort de l'utilisateur au repos, quitte à laisser la température filer quelque peu (il y a de la marge dans ces conditions y compris au niveau des VRM). À noter que nous avons essayé de forcer une baisse de la ventilation via Precision X1, impossible toutefois de réduire la ventilation dans ce mode (les valeurs moindres sont acceptées, mais non appliquées). NVIDIA indique que Precision X1 n'est pas encore finalisé et certaines fonctions ne sont pas actives (celle-ci ?).

 

En charge, c'est fort heureusement beaucoup mieux, tout du moins pour la 2080 FE, qui est légèrement moins bruyante que la génération précédente. C'est l'inverse pour la 2080 Ti FE. Pas de quoi crier au au scandale ni au miracle à ce niveau, les cartes sont dans les eaux des précédentes, restant du coup largement audibles dans un boitier, en particulier la Ti. Certains modèles customs feront probablement bien mieux dans ce domaine.

 

 

 

• Températures

Nous utilisons les sondes internes monitorées via GPU-Z en tâche de fond, durant 20 min de charge GPU sévère, pour mesurer la température des processeurs graphiques. Nous laissons ensuite les cartes au repos durant 20 min, avant de relever à nouveau la température des GPU. Les cartes sont installées dans notre boîtier Cooler Master Cosmos II, spacieux et disposant d'une ventilation efficace. Nous reportons systématiquement la température du GPU le plus chaud, s'il y en a plusieurs.

 

Au repos, tous les GPU sont parfaitement refroidis, cela vaut aussi pour les Turing, comme quoi il existe une marge de progrès au niveau des nuisances sonores, sans attendre. En charge, les températures atteintes sont là aussi de bon niveau pour le duo Turing, et dans tous les cas à bonne marge de la limite de température par défaut, impliquant une baisse des fréquences. Le refroidisseur remplit donc très correctement son office.

 

 

 

• Imagerie thermique

Pour préciser notre avis quant à l'efficacité thermique des refroidisseurs des RTX 2080 et 2080 Ti, rien de mieux qu'une petite séance d'imagerie infrarouge à l'aide de notre caméra thermique Fluke Ti110.

Caméra thermique

 

Débutons par la RTX 2080 FE. Au repos, la carte est parfaitement refroidie, en toute logique. En charge la température monte notablement, mais reste à des valeurs correctes pour une carte haut de gamme. La plaque arrière retirée (qui participe au refroidissement via des pads thermiques), on constate que le point chaud se trouve au dos de l'étage d'alimentation, avec près de 84°C, une valeur à priori très correcte pour ces éléments. 

 

Images IR RTX 2080 [cliquer pour agrandir]

Images thermiques de la RTX 2080 (au repos et en charge avec et sans backplate)

 

Passons à sa grande sœur. Au repos, la carte est parfaitement refroidie, là aussi en toute logique. En charge la température monte notablement, on relève un peu moins de 80°C à certains endroits visibles du PCB. La plaque arrière retirée, le point chaud ne se trouve pas comme nous l'attendions au niveau de l'étage d’alimentation, mais au dos d'une puce mémoire. L'utilisation d'un nombre plus important de phases sur le gros modèle, expliquant certainement un échauffement moindre malgré une consommation en hausse.

 

IR RTX 2080 Ti [cliquer pour agrandir]

Images thermiques de la RTX 2080 Ti FE (au repos et en charge, avec ou sans backplate)

 

Finissons nos mesures par la consommation des cartes testées.



Un poil avant ?

Live Twitch • Une quête avec des trolls poilus dedans !

Un peu plus tard ...

Le chipset Z390 (ré)officialisé le 8 octobre ?

Les 126 ragots
Les ragots sont actuellement
ragots réservés aux QI élevésouverts aux ragoteurs logués
par Eric B., le Mercredi 27 Février 2019 à 07h03  
Moi ce que je trouve étrange c'est ton commentaire : tu compares une carte graphique au design de référence (et donc avec une fréquence GPU sensiblement impactée) à la tienne fortement overclockée et couplée avec un CPU plus rapide pour ce genre de tâches (sachant que le score CPU est pris en compte dans le calcul du score global reporté dans le graphique et que la désactivation de l'HT sur le notre réduit encore davantage les performances dans le test CPU) et tu t'étonnes (faussement ?) de valeurs différentes... Autant comparer des choux et des carottes. Ce qui compte dans ce test spécifique (qui n'est d'ailleurs présent qu'à titre informatif, le verdict n'est établi que vis-à-vis des résultats in game), c'est la hiérarchie mesurée entre cartes sachant que les conditions d'exécution sont identiques (ce n'est pas ton cas), pas le score global dans l'absolu.
par Mika2012, le Mardi 26 Février 2019 à 13h36  
Je trouve les résultats du test bizarre.
J'ai un I7 8700K et une GTX 1080 Ti et j'ai un score 3D MarK de 10536...en QHD 1440*2560. Soit l'équivalent de la 2080...
Bon Ok le processeur est à 5.2Ghz et la Carte graphique à 2.2Ghz...
Mais quand même.
par Eric B., le Mardi 15 Janvier 2019 à 18h58  
Nous voulons bien t'aider à comprendre d'où provient le différentiel de performance, mais pour cela il faut être plus factuel :
* Préciser la configuration (CPU OC ? / fréquence et qté DDR4)
* Préciser davantage les réglages
* Comment sont mesurées les performances ? (durant un séance de jeu via fraps ou équivalent ? En solo ou en multi ? Avec le benchmark intégré ? Sur un replay perso ?
* L'idéal c'est de réaliser un log des fréquences de la carte graphique (via GPU-Z par exemple) durant ta session de jeu (et également l'usage CPU / fréquence si rien d'anormal côté GPU)
par DeathofWarQc, le Mardi 15 Janvier 2019 à 18h26  
J'ai l'impression d'avoir parler dans le vent mais bon mdr si tu veux x3
par Thibaut G., le Lundi 14 Janvier 2019 à 22h27  
par DeathofWarQc le Lundi 14 Janvier 2019 à 22h12
Si si je lis tres bien mdr
Je joue pareil que sur les test tout au max sauf txaa et x4 1440p, avec g-sync et un i7 8700k
Meme si je serai un casual jouant sur du 1080p je devrais taper dans du 150fps au moins, la c'est tout le contraire.
Je me plaindrais pas si c'etais que 10 fps alors que la je parle de pratiquement 50% de perf en moins.
On est pas tous des jean billy tu sais xP
donc des conditions de test différentes, une machine différente, des réglages différents. On ne peut pas comparer directement, c'était le sens de mon message et tu le confirmes. Rien que ça ne te permettra pas de savoir d'où viennent tes contre performances. jean Billy ou pas, c'est assez simple de le comprendre, on ne peut comparer qu'à iso réglages et iso machine.
par DeathofWarQc, le Lundi 14 Janvier 2019 à 22h12  
par Thibaut G. le Samedi 12 Janvier 2019 à 15h03
et si tu lisais les conditions des tests avant ? Il y a 500% de chances qu'on ne teste pas de la même manière, la comparaison de chiffres directe est inutile, tu ne précises même pas la définition de test ni le niveau de détails que tu utilises.
Si si je lis tres bien mdr
Je joue pareil que sur les test tout au max sauf txaa et x4 1440p, avec g-sync et un i7 8700k
Meme si je serai un casual jouant sur du 1080p je devrais taper dans du 150fps au moins, la c'est tout le contraire.
Je me plaindrais pas si c'etais que 10 fps alors que la je parle de pratiquement 50% de perf en moins.
On est pas tous des jean billy tu sais xP
par Thibaut G., le Samedi 12 Janvier 2019 à 15h03  
par DeathofWarQc le Samedi 12 Janvier 2019 à 14h35
100fps sur GTA V xD avec ma 2080 MSI trio X OC je depasse pas les 40fps avec des pics a 70
et si tu lisais les conditions des tests avant ? Il y a 500% de chances qu'on ne teste pas de la même manière, la comparaison de chiffres directe est inutile, tu ne précises même pas la définition de test ni le niveau de détails que tu utilises.
par DeathofWarQc, le Samedi 12 Janvier 2019 à 14h35  
100fps sur GTA V xD avec ma 2080 MSI trio X OC je depasse pas les 40fps avec des pics a 70
par Eric B., le Mardi 13 Novembre 2018 à 07h30  
Nous avons fait un dossier architecture distinct, les réponses s'y trouvent. Pour information, des ordonnanceurs hardware il y en a dans les architectures NVIDIA depuis belle lurette au niveau des blocs de traitement au sein des SM.

Comme tu évoque les async compute, j'imagine que tu veux parler du Multi Engine tel qu'implémenté au sein de DX12 (ou Vulkan), c'est à dire le traitement des files d'attente de rendu, si possible de manière concomitante. Pour cela il faut des processeurs de commande suffisamment évolués, sinon c'est aux développeurs ou au pilote de faire les tâches de synchronisation.

Turing marque effectivement un gros progrès à ce niveau du fait du rendu hybride, toutefois cela ne se traduira pas forcément par des gains similaires à ceux visibles sur les Radeon pour une raison simple : ce fonctionnement permet d'améliorer le taux de charge des unités de calcul, toutefois, si ce dernier est élevé par défaut, le gain potentiel est fortement réduit.

Les GPU NVIDIA depuis Maxwell ont un taux d'occupation par défaut supérieur à ce que l'on trouve chez AMD, c'est pour ça qu'en général il faut aux cartes d'AMD une puissance de calcul brute supérieure pour égaler leurs concurrentes sous DX11, du fait de ce différentiel. C'est pour ça aussi que les cartes d'AMD profitent plus de DX12 qui leur permet (si implémenté et possible) d'améliorer le taux d'occupation de leurs unités.

L'avantage pour Turing face aux précédentes archi vertes, c'est que si le développeur ne fait pas le travail d'optimisation spécifique au GPU, ses processeurs de commande évitent les pénalités de synchronisation et peuvent profiter de gains potentiels.
par TwoFace, le Lundi 12 Novembre 2018 à 10h55  
Au fait ce serait bien de rajouter dans le test des cartes, si les turing ont un ordonnanceur hardware et s'il y a l'async compute bien intégré ??? une lacune des Pascal VS AMD...
Message de wahidovic123 supprimé par un modérateur : HS
par Sarge, le Mardi 16 Octobre 2018 à 17h29  
Eh bien, le RTX (le vrai) a 60 FPS...ce n'est pas pour demain la vieille ! Heureusement qu'Nvidia a pigeonné trouvé des investisseurs clients pour développer les prochaines cartes qui elles, pourront faire tourner du RTX, du vrai !
Merci pour cette maj.