COMPTOIR
  
register

×

Screen Time Spy

Test • AMD Radeon RX 6600 XT
Screen Time Spy
Superposition

• Indices de performances

Même si le résultat de chaque test est plus important et judicieux qu'un indice global, qui par essence ne traduit que le comportement moyen des solutions évaluées ici avec ce panel de jeux (et les scènes retenues parmi ces derniers) masquant ainsi des résultats bien différents selon les situations de test, ce dernier permet toutefois en un coup d’œil d'établir une hiérarchie. Voyons donc comment se comporte la nouvelle venue en rastérisation uniquement pour commencer: nous avons réalisé pour cela un indice comparatif en appliquant une pondération identique pour chaque jeu et exprimé les résultats en attribuant la valeur 100 à la RX 5600 XT de Sapphire.

 

La RX 6600 XT Gaming OC Pro prend un ascendant de presque 32 % sur la 5600 XT de Sapphire, cet écart se réduisant quelque peu en QHD. Pour rappel, il s'agit dans les 2 cas de cartes overclockées. En comparaison d'un Navi 10 complet (5700 XT), l'écart est moins impressionnant à 7 % (5 % en QHD), mais ce dernier est d'une gamme supérieure, ceci démontrant les progrès de RDNA 2 par rapport à la première itération. Face à la RX 6700 XT, le combat est cette fois plus difficile, puisque cette dernière s'impose avec plus de 22 % d'avance (28 % en QHD) . Malgré tout, le but est atteint, puisque la RTX 3060 est devancée d'une douzaine de pourcents en FHD et 8 % en QHD.

 

Notez toutefois qu'il ne s'agit pas ici d'un modèle overclocké (contrairement à la 6600 XT testée) pour cette dernière, ce qui pourrait réduire de 2/3 % l'avantage de la dernière-née des rouges à conditions équivalentes. Difficile aussi de passer sous silence la comparaison face à la RTX 3060 Ti, dont le tarif officiel conseillé n'est que 20 $ plus élevé et qui propose des prestations un bon ton au-dessus cette fois. Un dernier mot pour vous indiquer également que nous avons testé les jeux en réduisant à la norme 3.0 les 8 lignes PCIe, afin de nous assurer que cela n'était pas limitant dans ces conditions. La perte mesurée est marginale (~1-2 % en moyenne), une bonne nouvelle pour ceux ne disposant pas de plateforme PCIe 4.0.

 

 

Côté Ray Tracing alors ? Et bien changement complet puisque la RX 6700 XT se montre cette fois 71 % plus rapide, cet écart s'expliquant principalement par l'effondrement de la RX 6600 XT en manque de mémoire avec les réglages retenues. Si on diminue la charge mémoire (en réduisant la taille des textures par exemple), les performances entre les 2 cartes sont séparés alors d'une grosse trentaine de pourcents en moyenne. Inutile de dire que face à la RTX 3060 il n'y a pas photo, cette dernière devançant légèrement la RX 6700 XT dans ces conditions.

 

 

• Fidelityfx Super Resolution

Un mot rapide sur FSR pour voir si ce dernier est en mesure d'aider la RX 6600 XT dans ces conditions. 2 jeux du panel RT permettent de se faire une petite idée, à savoir Godfall et Resident Evil Village. Si dans le premier des deux, les gains sont bien présents (mais peu utiles en l'espèce), c'est au détriment de la perte de très nombreux détails et d'un flou très désagréable. Pour le second, le bénéfice en terme de performance est bien moindre, mais surtout le visuel est lui aussi altéré, certes de manière un peu moins marquée (toujours ce flou par contre), mais assez pour ne pas l'oublier même en mouvement.

 

Vous l'aurez compris, avec une telle définition, l'intérêt est pour le moment plus que limité, d'autant que le FSR ne dispose pas d'algorithme à base d'IA pour aider "à reconstruire" les pixels manquants. Le DLSS en disposant fait un peu mieux dans cette définition, mais il est difficile de considérer le résultat comme satisfaisant pour autant. Ces techniques sont efficaces pour augmenter drastiquement les performances, mais pour que l'impact sur la qualité visuelle soit acceptable, il faut partir d'une base suffisamment définie, ce qui cantonne l'usage selon nous à l'UHD, voir parfois au QHD.

 

 

 

• Benchmark

Nous utilisons ici le test Time Spy dédié à DX12 dans 3DMark et nous reportons le score graphique du test. Nous exécutons également le test Superposition en 1080P Extreme, qui sert de promotion au moteur 3D Unigine 2. Nous avons également inclus Port Royal du fait du support du Ray Tracing sur les dernières Radeon et deux tests dédiés à la réalité virtuelle par le biais de VR Mark.

 

Screen Time Spy [cliquer pour agrandir]

Superposition [cliquer pour agrandir]

 

Les résultats au sein des benchmarks confirment peu ou prou les résultats obtenus lors de nos tests personnalisés.

 

 

Passons à l'évolution des fréquences en charge et l'overclocking page suivante.



Un poil avant ?

Test • be quiet! Dark Rock TF 2

Un peu plus tard ...

Forza Horizon 5 offre du gameplay, du fun et des graphismes de haut niveau !

Les 58 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Eric B., le Vendredi 22 Avril 2022 à 15h11  
par Un ragoteur qui aime les BX du Grand Est, le Mercredi 02 Mars 2022 à 16h11
Salut, pour la personne qui fait les schémas des Navi 21/22/23.
Les puces mémoires sont normalement link à un contrôleur mémoire en 32 bit.
Pourquoi mettre les contrôleurs mémoires en 16 bit (et donc doubler leurs nombres) sur tous les schémas des Radeon ?
Désolé, pas vu la question avant. Pour info ces schémas sont issus de ceux fournis par AMD, il n'y a donc techniquement personne chez CDH qui ait fait ces derniers, nous avons juste adapté le nombre de blocks aux "castrations" effectuées, lorsqu'AMD ne fournissait pas de diagramme pour une puce donnée. Idéalement, il faudrait donc poser la question à AMD car c'est leur représentation, pas la notre. On peut supputer que comme la GDDR6 utilise 2 canaux 16-bit en parallèle, c'est ce qu'ils ont voulu représenter, comme nous l'expliquions ici.
par Un ragoteur qui aime les BX du Grand Est, le Mercredi 02 Mars 2022 à 16h11  
Salut, pour la personne qui fait les schémas des Navi 21/22/23.
Les puces mémoires sont normalement link à un contrôleur mémoire en 32 bit.
Pourquoi mettre les contrôleurs mémoires en 16 bit (et donc doubler leurs nombres) sur tous les schémas des Radeon ?
par Kernuun, le Mercredi 25 Août 2021 à 08h59  
par YulFi, le Mercredi 25 Août 2021 à 08h18
AMD vend des cartes AMD sur sont site à prix MSRP, il faut juste être très très rapide pour en avoir une
J'ai réussi à avoir une 6900XT.
Je voulais spécifiquement parler des 6600xt, vu leurs prix annoncés, bien supérieurs au msrp des 6700xt. Et sinon je suis au courant pour AMD, cf mon message (une 6700xt et.une 6800 xt midnight black)
par YulFi, le Mercredi 25 Août 2021 à 08h18  
par Kernuun, le Mardi 10 Août 2021 à 19h25
C'est vraiment dommage qu'AMD ne vende pas des cartes constructeurs aux MSRP. Vu que la 6700XT est vendue en dessous de 500€, ça aurait pu donner un tarif attractif. Quand je vois les prix en bas de l'article, je me dis que le scalping, ce n'est pas que des individus sur eBay ou lbc, c'est aussi et surtout des constructeurs qui s'en mettent plein les fouilles de façon éhontée.
AMD vend des cartes AMD sur sont site à prix MSRP, il faut juste être très très rapide pour en avoir une
J'ai réussi à avoir une 6900XT.
par Eric B., le Lundi 23 Août 2021 à 09h45  
Il faut bien comprendre que les concepteurs ne vont jamais admettre publiquement une faiblesse de leur produit, tout ce que l'on peut faire c'est d'essayer d'analyser les différents résultats (jeux, benchs synthétiques) pour en déduire les forces et faiblesses relatives de chaque architectures. Concernant le RT, j'ai déjà en grande partie répondu au sein des différents dossiers et en commentaire de certaines news, voici mon interprétation de la situation actuelle au vu de mes expériences avec les différents produits :

* Nvidia puis AMD ont basé leur approche sur une accélération matérielle du BVH (j'y reviens plus bas).

* Cette accélération est réalisée de part et d'autre par des unités spécifiques appelées RT Core côté vert et Ray Accelerator coté rouge incluses respectivement au sein des SM et CU.

* Concernant les capacités intrinsèques des unités accélératrices, elles différent selon leur prise en charge du BVH.

* Le BVH se subdivise en 3 opérations distinctes : le calcul des intersections entre les boites et rayons, la traversée de l'arbre du BVH (passage d'une boite touchée à des boites plus petites en son sein) et enfin le calcul de l'intersection entre triangle et rayon. Là où ces 3 opérations sont gérées par les RT Cores sur Turing/Ampere, les Ray Accelerators de RDNA 2 ne réalisent que la première et la dernière. La traversée du BVH est effectuée par un shader (programme) s'exécutant sur les unités de calculs traditionnelles, ce qui n'est pas sans conséquence, et cela au-delà de la simple occupation de ces unités. En effet, ces dernières sont organisées en unités SIMD (Single Instruction on Multiple Data), appréciant très modérément les sauts d'une zone mémoire à une autre sans ordre logique dans un programme (Pointer chasing). Or, ces opérations sont très fréquentes lors de la traversée du BVH, d'où l'organisation MIMD (Multiple Instructions on Multiple Data) des RT Cores concurrents. C'est ce qui explique pour moi la différence de performance entre les unités respectives.

* Maintenant, le rendu étant hybride (rastérisation + RT), l'impact sur les performances dépendra donc du niveau de charge RT de la scène, et des performances en rastérisation de la dite scène. Ainsi, si les développeurs utilisent le RT uniquement pour certaines ombres ou pour gérer l'intégralité de l'éclairage et tous les effets associés (réflexion, réfraction, etc.) les performances pourront être amputées de 20 à 80 %. Prenons par exemple une scène ou une Radeon RDNA2 obtiendrait 100 i/s en rastérisation mais avec un impact de 40% lors de l'activation du RT. Au final les performances seront de 60 i/s. Sur la même scène, une GeForce Ampere obtiendrait 70 i/s en rastérisation mais avec un impact RT de seulement 20%. Ses performances seraient donc au final de 56 i/s soit inférieures à celles de la Radeon malgré un impact lié à l'usage du RT deux fois moindre. Si par contre l'impact est cette fois de respectivement 60% et 30%, les performances basculent en faveur de la GeForce (40 vs 49 i/s). On le voit donc, selon l'usage fait du RT, mais aussi les performances intrinsèques des cartes avant application, le rapport de force peut varier.

* Pour parler plus spécifiquement de la 6600 XT, elle souffre davantage que sa grande soeur dans ce test, mais en grande partie du fait d'un manque de mémoire avec ces réglages. En réduisant notablement la taille des textures, les écarts entre les 2 cartes se rapprochent des écarts mesurées entre ces dernières en rastérisation pure. Il semble toutefois que RDNA 2 nécessite une empreinte mémoire plus élevée qu'Ampere ou Turing, pour gérer les mêmes scènes en RT. Je ne sais toujours pas dire pour l'heure si cela vient d'un manque d'optimisation des pilotes ou un effet secondaire de l'organisation des tâches RT. Quoi qu'il en soit, AMD ayant été de manière générale plus généreux que Nvidia au niveau de la quantité mémoire sur cette génération (hormis pour les 6600 XT ou c'est l'inverse), cette situation ne touchera pas toute les cartes, en particulier celles les plus aptes à utiliser le RT car les plus performantes dans l'absolu. Sinon il suffit de régler un niveau de détail moindre pour les textures, ce n'est pas la mort pour autant.
par Un ragoteur qui aime les BX du Grand Est, le Lundi 23 Août 2021 à 09h00  
Salut, est ce que depuis le test, on en sait plus sur la sous performance en RT de la Radeon 6600 XT ?
Problème de driver ? ou problème dans l'architecture ?
par Eric B., le Samedi 14 Août 2021 à 14h48  
par Un ragoteur qui aime les BX en Provence-Alpes-Côte d'Azur, le Samedi 14 Août 2021 à 10h41
Sony et Microsoft n'ont rien avoir la dedans, leurs consoles ont un prix de vente que l'on retrouve dans le commerce.
Si on regarde le prix des processeurs aujourd'hui, on les trouve au MSRP et même un peu en dessous pour certain (zen3) avec les même techno de gravure que les CG AMD, eux aussi été plus cher au début de la pénurie..
Les consoles ont le prix de vente conseillé mais ne sont pas plus disponibles que les modèles de référence (à l'exception de drops ponctuels) qui eux aussi conservent leur prix de vente conseillé. L'inflation tarifaire ne concerne que les modèles AIB qui sont majoritaires depuis des années dans la stratégie de distribution d'AMD et NVIDIA, ce n'est pas nouveau. Les CPU sont à l'instar des cartes de référence dépendants uniquement d'AMD ou Intel, ceci expliquant cela.

Au final, tes remarques ne font qu'étayer le fait qu'il n'y aurait pas d'entente délictueuse entre les concepteurs, mais bien une tension de disponibilité dont profitent d'autres acteurs (tu le soulignes d'ailleurs pour certains) pour gonfler leurs propres marges. Enfin, les wafers étant identiques entre prod CPU et GPU du côté d'AMD, il est légitime pour le concepteur qui doit composer avec les allocations de production que lui permet TSMC, de privilégier les CPU bien plus rentables (die bien plus petit).

Ce n'est pas pour rien qu'AMD a avancé la 6600 XT avant la 6700 à mon avis, question de taille du die et donc de ventes possibles sur un nombre de wafers limité. Mais tout ceci à mon sens, ne fait que confirmer, une fois de plus, une capacité de production insuffisante pour le niveau de demande du marché.
par Un ragoteur qui aime les BX en Provence-Alpes-Côte d'Azur, le Samedi 14 Août 2021 à 10h41  
Sony et Microsoft n'ont rien avoir la dedans, leurs consoles ont un prix de vente que l'on retrouve dans le commerce.
Si on regarde le prix des processeurs aujourd'hui, on les trouve au MSRP et même un peu en dessous pour certain (zen3) avec les même techno de gravure que les CG AMD, eux aussi été plus cher au début de la pénurie.
En France on a aussi un problème de distributeur. la Gigabit RX6600XT eagle se trouve à 379$ au US (321,32€ HT, 385,584TTC) elle est à 519€ chez LDLC.
A noter qu'en Espagne la powercolor est à 393€ ttc.
par Eric B., le Samedi 14 Août 2021 à 10h02  
par Un ragoteur qui aime les BX en Provence-Alpes-Côte d'Azur, le Samedi 14 Août 2021 à 09h52
Désolé Eric mais c'est bien en volume qu'ils ont battu des records, une pénurie de composant ne leurs aurait pas permis de produire tout ce qui a été vendu.Quand on dit haut et fort pénurie à tout le monde les gens se précipitent par peur du manque.Si j'étais prêt à mettre 1500-2000€ dans une CG j'aurais déjà une 3080TI, y'a du stock.
C'est ton opinion, tu as le droit de l'exprimer et je la respecte, mais j'en ai une bien différente. Là-aussi tout le monde est en droit de ne pas y souscrire et d'en avoir une différente, cela ne me pose pas de souci (pour peu que les règles d'un débat courtois soient respectées).

Personnellement, je ne pense pas à l'entente sur les prix, au lancement des RTX 3000, tout le monde (nous aussi) s'est moqué du patron de Nvidia qui disait que la production n'était pas famélique, juste que la demande était exceptionnellement haute et que c'était un phénomène à observer. Pas une news sans xx commentaires pour parler de paper launch etc. Puis sont arrivées ensuite les RX 6000 et même chose. Puis les nouvelles consoles et rebelotte.

Donc si je suis bien ton raisonnement, AMD, Nvidia, Microsoft et Sony se sont tous entendus pour faire croire à une pénurie pour augmenter les prix ? Ca parait gros d'autant que certaines instances gouvernementales veillent au grain (et je ne parle pas de la France là ). En regardant les résultats financiers de ces sociétés, on a la preuve qu'ils vendent par palettes entières leurs produits, c'est donc bien un approvisionnement insuffisant qui explique la pénurie.

Maintenant est-ce que tout est fait pour résorber ce dernier, je n'en sais rien. Y-a-t-il volonté de conserver en l'état le marché, une latence dans l'augmentation des capacités de production, le refus d'une prise de risque si le marché venait à se retourner ? J'en oublie certainement, mais il y a beaucoup de raisons qui peuvent expliquer la situation sans aller au complot, sachant que ceux qui y joueraient risqueraient très gros...

Et oui, à un prix indécent tu peux trouver une carte à l'achat, c'est la loi de l'offre et de la demande. Tout acquéreur a d'une part une limite de moyens mais aussi de consentement à l'achat, ce qui fait qu'en haut de la pyramide où tu auras "écrémé" ceux ayant passé ces limites, tu trouveras toujours à acheter sans que cela ne prouve en rien un quelconque complot.
par Un ragoteur qui aime les BX en Provence-Alpes-Côte d'Azur, le Samedi 14 Août 2021 à 09h52  
par Eric B., le Samedi 14 Août 2021 à 09h33
Une pénurie ne veut pas dire que l'on ne produit rien, mais que les ressources produites ne sont pas suffisantes pour approvisionner le marché. Du coup il n'y a rien d'anormal à voir des résultats records pour les concepteurs de puces s'ils vendent sans souci tout ce qu'ils peuvent faire produire et ce sans avoir besoin de dépenser des sommes importantes en marketing ou ristournes, totalement inutiles vu la demande...
Désolé Eric mais c'est bien en volume qu'ils ont battu des records, une pénurie de composant ne leurs aurait pas permis de produire tout ce qui a été vendu.
Quand on dit haut et fort pénurie à tout le monde les gens se précipitent par peur du manque.
Si j'étais prêt à mettre 1500-2000€ dans une CG j'aurais déjà une 3080TI, y'a du stock.
par Eric B., le Samedi 14 Août 2021 à 09h33  
par Un ragoteur qui aime les BX en Provence-Alpes-Côte d'Azur, le Samedi 14 Août 2021 à 09h06
Je ne crois pas du tout à la pénurie, les résultat publiés par AMD et Nvidia montre qu'ils ont battu tous les records de vente en volume depuis le début de cette "pénurie" et à des prix largement supérieurs aux MSRP.

Ca ressemble plus à une entente sur les prix.
Une pénurie ne veut pas dire que l'on ne produit rien, mais que les ressources produites ne sont pas suffisantes pour approvisionner le marché. Du coup il n'y a rien d'anormal à voir des résultats records pour les concepteurs de puces s'ils vendent sans souci tout ce qu'ils peuvent faire produire et ce sans avoir besoin de dépenser des sommes importantes en marketing ou ristournes, totalement inutiles vu la demande...
par Eric B., le Samedi 14 Août 2021 à 09h20  
par Un ragoteur sans nom des Pays de la Loire, le Vendredi 13 Août 2021 à 16h46
Et encore le gpu de la Séries X est techniquement supérieur a une 6700XT...On a l'équivalent d'un Ryzen 3700 16go de gddr6 et grosso- modo une 6800 pour moins cher que cette carte...
Je ne pense pas que l'on puisse dire que le GPU de la XBox series X soit du niveau d'une 6800 plutôt qu'une 6700 XT. Les puces graphiques respectives, malgré l'architecture RDNA 2 commune, ont quand même de grosses différences de conception:

XBox serie X: 12 TFlops / 10 Go @ 14 Gbps sur bus mémoire 320-bit (+ 6 Go @ 192-bit pour le CPU) soit 560 Go/s / 64 ROP

RX 6800 : 13,9 TFlops / 16 Go @ 16 Gbps sur bus mémoire 256-bit soit 509 Go/s mais 128 Mo de L3 avec une bande passante ~ 1,6 To/s / 96 ROP

RX 6700 XT : 12,4 TFlops / 12 Go @ 16 Gbps sur bus mémoire 192-bit soit 382 Go/s mais 96 Mo de L3 (~1,6 To/s) / 64 ROP.

Il ne faut surtout pas sous-estimer l'impact du L3 (Infinity Cache), c'est ce qui a permis à AMD de revenir sur Nvidia au niveau rastérisation et ce dernier n'est pas présent sur les SOC des consoles à ma connaissance. Donc personnellement, je dirais que le GPU d'une XBox serie X est plus proche et même probablement légèrement moins performant dans l'absolu qu'une 6700 XT, hormis en très haute définition où le cache L3 va s'avérer moins efficace, faute de place pour conserver suffisamment de données spatiales et/ou temporelles.

Maintenant, on sait très bien que le matériel est souvent mieux exploité sur console car figé, alors que les développeurs doivent composer avec des tas de configurations différentes sur PC, mais il ne faut pas non plus surestimer le hardware de ces dernières. Cela reste des bonnes machines et un choix tout à fait respectable, mais je n'ai pas l'impression qu'elles soient actuellement plus aisées à trouver au prix conseillé, et il est fort probable que lorsqu'elles le seront, le prix des cartes graphiques le sera aussi.