COMPTOIR
  
register

×

Image ithermique de la RTX 3080 Founder

Test • AMD Radeon RX 6800 & RX 6800 XT
Image ithermique de la RTX 3080 Founder
Image ithermique de la RTX 3080 Founder

pcat

• Consommation des cartes seules

Pour déterminer la consommation des cartes graphiques seules, nous avions introduit fin 2015 un protocole s'appuyant sur un Riser PCIe x16 à partir duquel nous "extrayons" les différentes alimentations 12 V et 3.3 V fournies par ce port. Nous mesurons ensuite les tensions et intensités sur ces alimentations, ainsi que celles externes (connecteurs PCIe à 6 ou 8 pins), à l'aide de 3 pinces ampèremétriques Fluke 325 et d'un multimètre Fluke 179. Cela nous permet de calculer la consommation réelle des cartes. Nous utilisons à présent PCAT, tout en contrôlant certaines mesures de manière aléatoire, via notre précédent kit.

 

• Consommation au repos

La consommation des cartes au repos n'évolue plus beaucoup au travers des dernières générations, toutefois, les RX 6800 s'avèrent plutôt réussies dans ce domaine, se montrant légèrement plus économes que les RTX 3070 et 3080 FE. Ce n'est malheureusement vrai qu'avec un seul moniteur raccordé, puisqu'avec un second, les 40 W sont de rigueur, à l'instar des RX 5000 et dans une moindre mesure de la RTX 3090 FE.

 

 

• Consommation en charge

En charge cette fois, la RX 6800 XT consomme l'intégralité de son enveloppe thermique allouée, et même un peu plus durant les sessions de mesures en jeu, ne durant qu'un temps limité. Cela conduit toutefois à un gain d'une vingtaine de watts (- 6%) par rapport à la RTX 3080 FE. De son côté, sa petite sœur se montre plus économe, puisqu'elle n'utilise pas l'intégralité de ce qui lui est octroyé. En conséquence, elle se retrouve plutôt proche de la RTX 3070 FE disposant pourtant d'un TGP inférieur de 30 W. Nous n'affichons ici que les 2 jeux que nous avions l'habitude d'utiliser précédemment lors de nos précédentes mesures, mais en pratique nous relevons à présent les consommations des séquences de test dans tous les jeux via PCAT.

 

 

Pour avoir une vue plus exhaustive, voici dans le tableau suivant les consommations moyennes relevées (la plus haute parmi les 3 passes de chaque jeu) en UHD, et ce pour chacune des deux cartes testées.

 

Jeux
RX 6800 : Consommation (W)RX 6800 XT : consommation (W)
Anno 1800 231 300
Assassin's Creed Valhalla 192 284
Battlefield V 234 306
Borderlands 3 235 306
Call of Duty Modern Warfare 218 304
Control 233 305
Detroit Become Human 197 286
DiRT 5 234 308
DiRT Rally 2.0 235 304
Doom Eternal 231 304
Flight Simulator 216 303
Ghostrunner 227 307
Hitman 2 234 306
Horizon Zero Dawn 223 306
Metro Exodus 236 306
Minecraft 219 299
Project Cars 3 236 305
Red Dead Redemption 2 234 288
Shadow of the Tomb Raider 232 306
The Division 2 236 306
The Riftbreaker 223 305
The Witcher III 234 307
Troy 213 304
Watch Dogs: Legion 223 303

 

Et lorsque tout ceci dure un peu plus longtemps qu'un simple bench ? Pour répondre à cette interrogation, finissons par le suivi de consommation sous The Witcher III durant une trentaine de minutes à l'aide de PCAT. Cela permet de vérifier le niveau moyen durant une période soutenue, mais aussi d'afficher les différents pics qui pourraient survenir durant cette période. L'intervalle entre chaque mesure est de 100 ms. Les mini, maxi et moyenne sont initialisés dès le lancement du jeu. On constate des pics atteignant les 380 W (soit davantage que sur la RTX 3080) avec la 6800 XT, il ne faudra donc pas mégoter non plus sur la qualité de l'alimentation utilisée avec une telle carte, AMD préconisant lui aussi 750 W par sécurité. La moyenne sur une période suffisamment longue pour être représentative, respecte quant à elle bien le TGP indiqué. Il en est de même pour sa petite soeur, son TGP étant bien plus réduit, une alimentation de 650 W est cette fois conseillée, à l'instar de la RTX 3070.

 

Image ithermique de la RTX 3080 Founder [cliquer pour agrandir]Image ithermique de la RTX 3080 Founder [cliquer pour agrandir]

  Variations de la puissance absorbée (The Witcher III), par les RX 6800 (gauche) et RX 6800 XT (droite)

 

• Efficacité énergétique

Afin d'évaluer l'efficacité énergétique des cartes, nous réalisons un indice basé sur les performances et consommations respectives de ces dernières, lors des sessions de mesure. Bien entendu, cet indice ne représente que la situation au travers des jeux mesurés, avec ces scènes et niveaux de détails (on note d'ailleurs une variation significative du ratio selon le jeu, comme en attestent les relevés précédents). Nous avons une nouvelle championne avec la RX 6800, qui devance la RTX 3070 précédente lauréate à ce niveau. AMD a réalisé de très gros progrès en quelques années, il conserve toutefois l'avantage d'un node de gravure plus performant, et il est probable que le rapport de force se renverse à procédé de gravure identique. Mais c'est le jeu ma pauvre Lucette, à Nvidia d'opter pour des process plus performants ! Si on s'intéresse aux cartes plus rapides cette fois, les RX 6800 XT et RTX 3080 FE alternent leur position selon le jeu retenu, il n'y a pas à dire, ces deux-là ne se quittent pas d'une semelle.

 

 

Il est temps de passer, page suivante, à notre verdict.



Un poil avant ?

RX 6800 XT et boîtiers mini-ITX, l'impossible mariage ?

Un peu plus tard ...

8 coeurs / 16 threads à 4 GHz, tout Ryzen vs Comet Lake


Sur le comptoir, au ~même sujet

 
 
 
 
 
 
 
 
 
 
 
 

Les 168 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
Message de Un #ragoteur connecté en Île-de-France supprimé par un modérateur : C'est sûr qu'avec ce genre de message on va prendre le temps de te satisfaire...
par Ping, le Mercredi 30 Décembre 2020 à 12h47  
Merci pour la màj
par Sarge, le Dimanche 20 Décembre 2020 à 22h41  
par Eric B. le Dimanche 20 Décembre 2020 à 15h33
En fait bien avant, c'est déjà possible sur des architectures comme GCN 1 ou Maxwell. Par contre il faut que la partie logicielle suive tant côté pilotes que de l'API. C'est pourquoi le Multi Engine qu'AMD a nommé commercialement Async Compute, n'a vraiment été utilisé qu'à partir de DX12 / Vulkan. Ensuite, le processeur de commande (assisté des ACE) s'est avéré beaucoup plus efficace sur les architectures AMD que son équivalent chez Nvidia jusqu'à Turing, nécessitant plus de travail des développeurs pour tirer parti de cette fonctionnalité sous peine de perte de performance. On peut ajouter aussi que les gains dépendent des ressources disponibles pour exécuter en parallèle d'autres tâches, donc plus une architecture est efficace (plus elle parvient à solliciter ses ressources en parallélisant l'exécution des instructions demandées) et moins elle aura de gains potentiels à en attendre. Enfin, les API bas niveau étant fortement inspirées par Mantle, elles étaient naturellement enclines à privilégier l'architecture des rouges (GCN) ayant servi de base à ce dernier.
Merci infiniment, pour toutes ces précisions !!!
par Eric B., le Dimanche 20 Décembre 2020 à 15h33  
En fait bien avant, c'est déjà possible sur des architectures comme GCN 1 ou Maxwell. Par contre il faut que la partie logicielle suive tant côté pilotes que de l'API. C'est pourquoi le Multi Engine qu'AMD a nommé commercialement Async Compute, n'a vraiment été utilisé qu'à partir de DX12 / Vulkan. Ensuite, le processeur de commande (assisté des ACE) s'est avéré beaucoup plus efficace sur les architectures AMD que son équivalent chez Nvidia jusqu'à Turing, nécessitant plus de travail des développeurs pour tirer parti de cette fonctionnalité sous peine de perte de performance. On peut ajouter aussi que les gains dépendent des ressources disponibles pour exécuter en parallèle d'autres tâches, donc plus une architecture est efficace (plus elle parvient à solliciter ses ressources en parallélisant l'exécution des instructions demandées) et moins elle aura de gains potentiels à en attendre. Enfin, les API bas niveau étant fortement inspirées par Mantle, elles étaient naturellement enclines à privilégier l'architecture des rouges (GCN) ayant servi de base à ce dernier.
par Sarge, le Dimanche 20 Décembre 2020 à 13h08  
par Eric B. le Dimanche 20 Décembre 2020 à 10h13
Désolé si ça a été un peu long à venir, mais l'accumulation de lancements a dépassé ma capacité de travail pour CDH.
Aucuns soucis, cela me dérange en rien.. de plus, tout le travail que tu fais est juste nickel !!
Cela dit, j'avais juste une question purement informative.. (j'en profite) ) le calcul asynchrone est possible depuis "Pascal" chez Nvidia et "Polaris" chez AMD (je parle des GPUs "tout public" ) ?! Ou j'me trompe ??
par Eric B., le Dimanche 20 Décembre 2020 à 10h13  
par Sarge le Jeudi 17 Décembre 2020 à 23h01
C'est toujours ce que j'attends le plus ds les dossiers, merci !!
Désolé si ça a été un peu long à venir, mais l'accumulation de lancements a dépassé ma capacité de travail pour CDH.
par Sarge, le Jeudi 17 Décembre 2020 à 23h01  
par Eric B. le Jeudi 17 Décembre 2020 à 17h06
Mise à jour du dossier avec la description de l'architecture.
C'est toujours ce que j'attends le plus ds les dossiers, merci !!
par Eric B., le Jeudi 17 Décembre 2020 à 17h06  
Mise à jour du dossier avec la description de l'architecture.
par Eric B., le Jeudi 10 Décembre 2020 à 09h37  
Infineon XDPE132G5D
par Un #ragoteur sigma delta d'Occitanie, le Mardi 08 Décembre 2020 à 23h19  
Bonjour, est-ce que quelqu'un connaitrait la reference du composant qui fait la gestion des phases d'alimentation sur ces cartes ?
D'avance merci.
par cabou83, le Samedi 28 Novembre 2020 à 20h39  
par Eric B. le Samedi 28 Novembre 2020 à 18h57
Ca n'a pas de sens de comparer des consommations à la prise de configurations différentes. Selon la consommation et la charge induite sur le CPU, tu vas générer un delta plus ou moins important qui t'empêchera toute lecture sérieuse de la consommation GPU.
Sur ses vieille génération effectivement il n'y a pas de capteur de la puissance consommer. Donc on peut juste éventuellement déduire la consommation de la plateforme hors GPU (surtout qu'avec la Vega j'avais la valeur) et environs la plateforme consomme ryzen consomme 100/120w en jeux (ça du à la utilisation de la v64, forcement avec une 280x la charge du 3600 est moindre). Donc c'est pour ça que j'en déduit un tdp de 175w(pour la 280X) pour arrivé au 250w total (prise).
Mais je me souviens très bien qu'a l'époque effectivement à la prise j'arrivais vers les 400w quand les jeux chargeaient bien sur la carte et sur mon vieux FX.
C'est juste un constat, les pilotes ont du faire une opti depuis 2011 vu qu'on a bouffé du GCN pendant presque 8 ans.

Edit: après c'est peut être du justement au faite qu'aujourd'hui les 3Go de VRAM sont saturé donc certaines unités serait "en attente" et donc la carte n'exploite pas son tdp maximum malgré une charge à100%, ça pourrait peut être jouer.
par Eric B., le Samedi 28 Novembre 2020 à 18h57  
Ca n'a pas de sens de comparer des consommations à la prise de configurations différentes. Selon la consommation et la charge induite sur le CPU, tu vas générer un delta plus ou moins important qui t'empêchera toute lecture sérieuse de la consommation GPU.