COMPTOIR
  
register

×

Image thermique de la RX 6800 au repos

Test • AMD Radeon RX 6800 & RX 6800 XT
Image thermique de la RX 6800 au repos
Image thermique de la RX 6800 en charge
Image thermique de la RX 6800 en charge sans plaque arrière
Image thermique de la RX 6800 XT au repos
Image thermique de la RX 6800 XT en charge
Image thermique de la RX 6800 XT en charge sans plaque arrière

Sonomètre

• Nuisances sonores

Nous laissons le boîtier ouvert et positionnons le sonomètre à 15 cm de la carte graphique, à la même hauteur. Afin de limiter au maximum les nuisances externes aux cartes, nous coupons temporairement pendant la mesure, les ventilateurs du boîtier, du CPU et de l'alimentation (via l'intégration d'un interrupteur sur cette dernière). Nous utilisons un sonomètre Casella Tech CEL-620A1, certifié et calibré pour une plage de mesures comprises entre 20 et 140 dBA.

 

Au repos, AMD a décidé, à l'instar de son concurrent, d'utiliser un mode passif. C'est un très bon point, permettant de rendre les cartes totalement silencieuses. En charge, le résultat de la RX 6800 XT est tout bonnement exceptionnel, les rouges visiblement vexés par les reproches (justifiés) adressés à la Radeon VII, ont cherché à faire de la 6800 XT une carte très discrète. C'est une réussite indéniable, puisque malgré un TGP de 300 W, elle parvient à se faire légèrement plus discrète que la 3070 FE. Sa petite soeur dispose d'un radiateur similaire (un peu moins épais), mais se montre plus audible (du niveau de la RTX 3080). Rien de dramatique en soi, mais AMD a clairement choisi une courbe de ventilation différente, privilégiant la température au bruit pour cette dernière.

 

 

 

• Températures

Nous utilisons les sondes internes monitorées via GPU-Z en tâche de fond, durant 20 min de charge GPU sévère, pour mesurer la température des processeurs graphiques. Nous laissons ensuite les cartes au repos durant 20 min, avant de relever à nouveau la température des GPU. Les cartes sont installées dans notre boîtier Cooler Master Cosmos II, spacieux et disposant d'une ventilation efficace. Nous reportons systématiquement la température du GPU le plus chaud, s'il y en a plusieurs. Au repos, les cartes coupant leur ventilation atteignent logiquement des valeurs plus élevées, c'est le cas des dernières cartes testées. En charge, la température GPU de la RX 6800 se limite à 70°C, là où sa grande soeur en prend 10 de plus. Bien sûr, la consommation plus importante explique cela, mais aussi le profil de ventilation différent, comme nous l'évoquions précédemment. Attention par contre, du fait de leur conception, les refroidisseurs des 6800 expulsent l'intégralité de l'air chaud à l'intérieur du boitier. Malgré une consommation moindre, l'échauffement des composants au sein de notre boitier pourtant bien ventilé, s'est avéré supérieur avec la 6800 XT que la RTX 3090 FE. La 6800 du fait d'un TGP bien moindre, pose moins de soucis de cet ordre. Bref, si vous désirez acquérir une 6800 XT de référence, il faudra soigner le refroidissement du boitier.

 

 

Caméra thermique

• Imagerie thermique

Pour préciser notre avis quant à l'efficacité thermique des refroidisseurs des RX 6800 et 6800 XT, rien de mieux qu'une petite séance d'imagerie infrarouge à l'aide de notre caméra thermique Fluke Ti110. Commençons par la plus petite des deux.

 

Au repos, la carte conserve une température très contenue, et ce malgré la ventilation coupée. En charge à présent, le carénage oscille selon les endroits entre 40 et 50 °C, ce qui est plutôt faible, mais s'explique par l'absence de contact avec le PCB. Une fois la plaque arrière retirée, le dos des composants de puissance atteint 72°C, soit une valeur très correcte. Le reste du PCB oscille entre 50 et 70°C, selon la présence ou non de composants.

 

Image thermique de la RX 6800 au repos [cliquer pour agrandir]Image thermique de la RX 6800 en charge [cliquer pour agrandir]Image thermique de la RX 6800 en charge sans plaque arrière [cliquer pour agrandir]

Images thermiques de la Radeon RX 6800 (au repos et en charge avec et sans backplate)

 

Au tour de sa grande soeur à présent. Rien à signaler au repos, en charge la plaque arrière prend quelques degrés même si l'absence de contact ne permet une transmission de la chaleur que par convection thermique. En retirant cette dernière, le point chaud se situe à nouveau au dos des composants de puissance avec 85°C. De manière générale, la zone entourant le GPU se situe au-delà des 80°C, le TGP de 300 W étant passé par là.

 

Image thermique de la RX 6800 XT au repos [cliquer pour agrandir]Image thermique de la RX 6800 XT en charge [cliquer pour agrandir]Image thermique de la RX 6800 XT en charge sans plaque arrière [cliquer pour agrandir]

Images thermiques de la Radeon RX 6800 XT (au repos et en charge avec et sans backplate)

 

Finissons nos mesures par la consommation des cartes testées.



Un poil avant ?

RX 6800 XT et boîtiers mini-ITX, l'impossible mariage ?

Un peu plus tard ...

8 coeurs / 16 threads à 4 GHz, tout Ryzen vs Comet Lake


Sur le comptoir, au ~même sujet

 
 
 
 
 
 
 
 
 
 
 
 

Les 168 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
Message de Un #ragoteur connecté en Île-de-France supprimé par un modérateur : C'est sûr qu'avec ce genre de message on va prendre le temps de te satisfaire...
par Ping, le Mercredi 30 Décembre 2020 à 12h47  
Merci pour la màj
par Sarge, le Dimanche 20 Décembre 2020 à 22h41  
par Eric B. le Dimanche 20 Décembre 2020 à 15h33
En fait bien avant, c'est déjà possible sur des architectures comme GCN 1 ou Maxwell. Par contre il faut que la partie logicielle suive tant côté pilotes que de l'API. C'est pourquoi le Multi Engine qu'AMD a nommé commercialement Async Compute, n'a vraiment été utilisé qu'à partir de DX12 / Vulkan. Ensuite, le processeur de commande (assisté des ACE) s'est avéré beaucoup plus efficace sur les architectures AMD que son équivalent chez Nvidia jusqu'à Turing, nécessitant plus de travail des développeurs pour tirer parti de cette fonctionnalité sous peine de perte de performance. On peut ajouter aussi que les gains dépendent des ressources disponibles pour exécuter en parallèle d'autres tâches, donc plus une architecture est efficace (plus elle parvient à solliciter ses ressources en parallélisant l'exécution des instructions demandées) et moins elle aura de gains potentiels à en attendre. Enfin, les API bas niveau étant fortement inspirées par Mantle, elles étaient naturellement enclines à privilégier l'architecture des rouges (GCN) ayant servi de base à ce dernier.
Merci infiniment, pour toutes ces précisions !!!
par Eric B., le Dimanche 20 Décembre 2020 à 15h33  
En fait bien avant, c'est déjà possible sur des architectures comme GCN 1 ou Maxwell. Par contre il faut que la partie logicielle suive tant côté pilotes que de l'API. C'est pourquoi le Multi Engine qu'AMD a nommé commercialement Async Compute, n'a vraiment été utilisé qu'à partir de DX12 / Vulkan. Ensuite, le processeur de commande (assisté des ACE) s'est avéré beaucoup plus efficace sur les architectures AMD que son équivalent chez Nvidia jusqu'à Turing, nécessitant plus de travail des développeurs pour tirer parti de cette fonctionnalité sous peine de perte de performance. On peut ajouter aussi que les gains dépendent des ressources disponibles pour exécuter en parallèle d'autres tâches, donc plus une architecture est efficace (plus elle parvient à solliciter ses ressources en parallélisant l'exécution des instructions demandées) et moins elle aura de gains potentiels à en attendre. Enfin, les API bas niveau étant fortement inspirées par Mantle, elles étaient naturellement enclines à privilégier l'architecture des rouges (GCN) ayant servi de base à ce dernier.
par Sarge, le Dimanche 20 Décembre 2020 à 13h08  
par Eric B. le Dimanche 20 Décembre 2020 à 10h13
Désolé si ça a été un peu long à venir, mais l'accumulation de lancements a dépassé ma capacité de travail pour CDH.
Aucuns soucis, cela me dérange en rien.. de plus, tout le travail que tu fais est juste nickel !!
Cela dit, j'avais juste une question purement informative.. (j'en profite) ) le calcul asynchrone est possible depuis "Pascal" chez Nvidia et "Polaris" chez AMD (je parle des GPUs "tout public" ) ?! Ou j'me trompe ??
par Eric B., le Dimanche 20 Décembre 2020 à 10h13  
par Sarge le Jeudi 17 Décembre 2020 à 23h01
C'est toujours ce que j'attends le plus ds les dossiers, merci !!
Désolé si ça a été un peu long à venir, mais l'accumulation de lancements a dépassé ma capacité de travail pour CDH.
par Sarge, le Jeudi 17 Décembre 2020 à 23h01  
par Eric B. le Jeudi 17 Décembre 2020 à 17h06
Mise à jour du dossier avec la description de l'architecture.
C'est toujours ce que j'attends le plus ds les dossiers, merci !!
par Eric B., le Jeudi 17 Décembre 2020 à 17h06  
Mise à jour du dossier avec la description de l'architecture.
par Eric B., le Jeudi 10 Décembre 2020 à 09h37  
Infineon XDPE132G5D
par Un #ragoteur sigma delta d'Occitanie, le Mardi 08 Décembre 2020 à 23h19  
Bonjour, est-ce que quelqu'un connaitrait la reference du composant qui fait la gestion des phases d'alimentation sur ces cartes ?
D'avance merci.
par cabou83, le Samedi 28 Novembre 2020 à 20h39  
par Eric B. le Samedi 28 Novembre 2020 à 18h57
Ca n'a pas de sens de comparer des consommations à la prise de configurations différentes. Selon la consommation et la charge induite sur le CPU, tu vas générer un delta plus ou moins important qui t'empêchera toute lecture sérieuse de la consommation GPU.
Sur ses vieille génération effectivement il n'y a pas de capteur de la puissance consommer. Donc on peut juste éventuellement déduire la consommation de la plateforme hors GPU (surtout qu'avec la Vega j'avais la valeur) et environs la plateforme consomme ryzen consomme 100/120w en jeux (ça du à la utilisation de la v64, forcement avec une 280x la charge du 3600 est moindre). Donc c'est pour ça que j'en déduit un tdp de 175w(pour la 280X) pour arrivé au 250w total (prise).
Mais je me souviens très bien qu'a l'époque effectivement à la prise j'arrivais vers les 400w quand les jeux chargeaient bien sur la carte et sur mon vieux FX.
C'est juste un constat, les pilotes ont du faire une opti depuis 2011 vu qu'on a bouffé du GCN pendant presque 8 ans.

Edit: après c'est peut être du justement au faite qu'aujourd'hui les 3Go de VRAM sont saturé donc certaines unités serait "en attente" et donc la carte n'exploite pas son tdp maximum malgré une charge à100%, ça pourrait peut être jouer.
par Eric B., le Samedi 28 Novembre 2020 à 18h57  
Ca n'a pas de sens de comparer des consommations à la prise de configurations différentes. Selon la consommation et la charge induite sur le CPU, tu vas générer un delta plus ou moins important qui t'empêchera toute lecture sérieuse de la consommation GPU.