COMPTOIR
  
register

×

Screen Time Spy

Test • AMD Radeon RX 6800 & RX 6800 XT
Screen Time Spy
Superposition
Screen VRMark

• Indices comparatifs

Même si le résultat de chaque test est plus important et judicieux qu'un indice global, qui par essence ne traduit que le comportement moyen des solutions évaluées ici avec ce panel de jeux (et les scènes retenues parmi ces derniers) masquant ainsi des résultats bien différents selon les situations de test, ce dernier permet toutefois en un coup d’œil d'établir une hiérarchie. Voyons donc comment se comporte la nouvelle venue en rastérisation uniquement, pour commencer : nous avons réalisé pour cela un indice comparatif en appliquant une pondération identique pour chaque jeu et exprimé les résultats en attribuant la valeur 100 à la Radeon VII, le précédent flagship des rouges.

 

Pour rappel la RTX 2080 Ti FE est overclockée par défaut par rapport aux spécifications de référence. Sur cet indice, la RX 6800 XT prend un ascendant de presque 71% en QHD et 76 % en UHD, par rapport à la Radeon VII. C'est tout simplement énorme, d'autant plus que le process de gravure utilisé est similaire. Le point fort d'AMD a été d'augmenter considérablement le nombre d'unités de calcul par rapport à Navi 10 (bien plus efficientes que celles de Vega 20), sans changer le bus mémoire. Alors que cela aurait du conduire à un déséquilibre entre bande passante mémoire et puissance de calcul, Infinity Cache permet d'éviter cela, conduisant à ces gains épatants.

 

En conséquence, la RX 6800 XT parvient à talonner sérieusement la RTX 3080 FE en QHD sur plateforme Intel, et même à la devancer (+2,8%) sur plateforme X570 avec l'appoint du SAM. En UHD par contre, malgré l'apport de ce dernier, la RTX 3080 FE conserve un avantage de 3,8 % (5,6 % sur plateforme Intel). Plus bas dans la gamme, la RX 6800 dispose d'un avantage compris entre 7 et 10 % sur la RTX 3070 FE tant en QHD qu'en UHD. C'est donc une victoire de la plus petite des RX 6800, qui profite d'une puce haut de gamme castrée, contre un GPU de gamme inférieure, mais presque intégral. Face à sa grande soeur, elle doit lui concéder une quinzaine de pourcents d'avance.

 

 

Poursuivons avec les performances en Ray tracing cette fois. Nous isolons les 10 jeux retenus pour ce test qui disposent d'un tel rendu, et ce par définition bien-sûr, en attribuant la valeur 100 à la RTX 2080 Ti. Nous avons également ajouté l'indice avec DLSS actif, puisque ce dernier est une option à ne pas négliger pour améliorer les performances dans cette situation, uniquement du côté vert pour le moment, en l'absence d'équivalent chez AMD. 7 jeux proposent une telle option, à noter toutefois qu'il n'est pas possible d'activer le DLSS sous BF 5 en QHD avec les cartes testées. Le bilan est cette fois bien moins glorieux pour les nouvelles venues sans être désastreux pour autant, puisque la moyenne masque la disparité entre tests. Ainsi, en QHD, la RX 6800 XT parvient à égaler la RTX 3070 FE dans ce domaine et même la devancer en UHD, du fait de sa limitation mémoire sous Watch Dogs: Legion. Toutefois, le comportement des Radeon dans ce jeu (reflets incomplets, voire absents pour certains) incite à la prudence quant à la fiabilité des résultats dans ce jeu. Sa petite sœur finit à une quinzaine de pourcents derrière.

 

 

Voyons à présent ce que pensent les Benchmarks vedettes de notre carte.

 

 

• 3DMark Time Spy, Unigine Superposition & Port Royal

Nous utilisons ici le test Time Spy dédié à DX12 dans 3DMark et nous reportons le score graphique du test. Nous exécutons également le test Superposition en 4K optimized, qui sert de promotion au moteur 3D Unigine 2. 

 

Screen Time Spy [cliquer pour agrandir]

Superposition [cliquer pour agrandir]

 

Même si les résultats en jeu restent bien plus pertinents que de simples benchmarks pour évaluer les différentes cartes, voici les résultats obtenus avec certains d'entre eux pour les amateurs (dont nous ne sommes pas).

 

 

 

• VRMark

VRMark de son côté, dispose de 3 tests : Orange Room plutôt light, Cyan Room moyennement lourd, mais compatible DX12, enfin Blue Room le plus exigeant au niveau de la charge 3D, mais toujours DX11. Nous utilisons les 2 derniers au travers du benchmark en version 1.3.2020.

 

Screen VRMark [cliquer pour agrandir]

 

Si l'on se fie à VR Mark, les nouvelles Radeon s'avèrent redoutables en VR, en particulier sous DX12. C'est moins vrai avec une charge plus lourde sous DX11(Blue Room).

 

 

Passons à l'évolution des fréquences en charge et l'overclocking page suivante.



Un poil avant ?

RX 6800 XT et boîtiers mini-ITX, l'impossible mariage ?

Un peu plus tard ...

8 coeurs / 16 threads à 4 GHz, tout Ryzen vs Comet Lake


Sur le comptoir, au ~même sujet

 
 
 
 
 
 
 
 
 
 
 
 

Les 168 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
Message de Un #ragoteur connecté en Île-de-France supprimé par un modérateur : C'est sûr qu'avec ce genre de message on va prendre le temps de te satisfaire...
par Ping, le Mercredi 30 Décembre 2020 à 12h47  
Merci pour la màj
par Sarge, le Dimanche 20 Décembre 2020 à 22h41  
par Eric B., le Dimanche 20 Décembre 2020 à 15h33
En fait bien avant, c'est déjà possible sur des architectures comme GCN 1 ou Maxwell. Par contre il faut que la partie logicielle suive tant côté pilotes que de l'API. C'est pourquoi le Multi Engine qu'AMD a nommé commercialement Async Compute, n'a vraiment été utilisé qu'à partir de DX12 / Vulkan. Ensuite, le processeur de commande (assisté des ACE) s'est avéré beaucoup plus efficace sur les architectures AMD que son équivalent chez Nvidia jusqu'à Turing, nécessitant plus de travail des développeurs pour tirer parti de cette fonctionnalité sous peine de perte de performance. On peut ajouter aussi que les gains dépendent des ressources disponibles pour exécuter en parallèle d'autres tâches, donc plus une architecture est efficace (plus elle parvient à solliciter ses ressources en parallélisant l'exécution des instructions demandées) et moins elle aura de gains potentiels à en attendre. Enfin, les API bas niveau étant fortement inspirées par Mantle, elles étaient naturellement enclines à privilégier l'architecture des rouges (GCN) ayant servi de base à ce dernier.
Merci infiniment, pour toutes ces précisions !!!
par Eric B., le Dimanche 20 Décembre 2020 à 15h33  
En fait bien avant, c'est déjà possible sur des architectures comme GCN 1 ou Maxwell. Par contre il faut que la partie logicielle suive tant côté pilotes que de l'API. C'est pourquoi le Multi Engine qu'AMD a nommé commercialement Async Compute, n'a vraiment été utilisé qu'à partir de DX12 / Vulkan. Ensuite, le processeur de commande (assisté des ACE) s'est avéré beaucoup plus efficace sur les architectures AMD que son équivalent chez Nvidia jusqu'à Turing, nécessitant plus de travail des développeurs pour tirer parti de cette fonctionnalité sous peine de perte de performance. On peut ajouter aussi que les gains dépendent des ressources disponibles pour exécuter en parallèle d'autres tâches, donc plus une architecture est efficace (plus elle parvient à solliciter ses ressources en parallélisant l'exécution des instructions demandées) et moins elle aura de gains potentiels à en attendre. Enfin, les API bas niveau étant fortement inspirées par Mantle, elles étaient naturellement enclines à privilégier l'architecture des rouges (GCN) ayant servi de base à ce dernier.
par Sarge, le Dimanche 20 Décembre 2020 à 13h08  
par Eric B., le Dimanche 20 Décembre 2020 à 10h13
Désolé si ça a été un peu long à venir, mais l'accumulation de lancements a dépassé ma capacité de travail pour CDH.
Aucuns soucis, cela me dérange en rien.. de plus, tout le travail que tu fais est juste nickel !!
Cela dit, j'avais juste une question purement informative.. (j'en profite) ) le calcul asynchrone est possible depuis "Pascal" chez Nvidia et "Polaris" chez AMD (je parle des GPUs "tout public" ) ?! Ou j'me trompe ??
par Eric B., le Dimanche 20 Décembre 2020 à 10h13  
par Sarge, le Jeudi 17 Décembre 2020 à 23h01
C'est toujours ce que j'attends le plus ds les dossiers, merci !!
Désolé si ça a été un peu long à venir, mais l'accumulation de lancements a dépassé ma capacité de travail pour CDH.
par Sarge, le Jeudi 17 Décembre 2020 à 23h01  
par Eric B., le Jeudi 17 Décembre 2020 à 17h06
Mise à jour du dossier avec la description de l'architecture.
C'est toujours ce que j'attends le plus ds les dossiers, merci !!
par Eric B., le Jeudi 17 Décembre 2020 à 17h06  
Mise à jour du dossier avec la description de l'architecture.
par Eric B., le Jeudi 10 Décembre 2020 à 09h37  
Infineon XDPE132G5D
par Un #ragoteur sigma delta d'Occitanie, le Mardi 08 Décembre 2020 à 23h19  
Bonjour, est-ce que quelqu'un connaitrait la reference du composant qui fait la gestion des phases d'alimentation sur ces cartes ?
D'avance merci.
par cabou83, le Samedi 28 Novembre 2020 à 20h39  
par Eric B., le Samedi 28 Novembre 2020 à 18h57
Ca n'a pas de sens de comparer des consommations à la prise de configurations différentes. Selon la consommation et la charge induite sur le CPU, tu vas générer un delta plus ou moins important qui t'empêchera toute lecture sérieuse de la consommation GPU.
Sur ses vieille génération effectivement il n'y a pas de capteur de la puissance consommer. Donc on peut juste éventuellement déduire la consommation de la plateforme hors GPU (surtout qu'avec la Vega j'avais la valeur) et environs la plateforme consomme ryzen consomme 100/120w en jeux (ça du à la utilisation de la v64, forcement avec une 280x la charge du 3600 est moindre). Donc c'est pour ça que j'en déduit un tdp de 175w(pour la 280X) pour arrivé au 250w total (prise).
Mais je me souviens très bien qu'a l'époque effectivement à la prise j'arrivais vers les 400w quand les jeux chargeaient bien sur la carte et sur mon vieux FX.
C'est juste un constat, les pilotes ont du faire une opti depuis 2011 vu qu'on a bouffé du GCN pendant presque 8 ans.

Edit: après c'est peut être du justement au faite qu'aujourd'hui les 3Go de VRAM sont saturé donc certaines unités serait "en attente" et donc la carte n'exploite pas son tdp maximum malgré une charge à100%, ça pourrait peut être jouer.
par Eric B., le Samedi 28 Novembre 2020 à 18h57  
Ca n'a pas de sens de comparer des consommations à la prise de configurations différentes. Selon la consommation et la charge induite sur le CPU, tu vas générer un delta plus ou moins important qui t'empêchera toute lecture sérieuse de la consommation GPU.