COMPTOIR
register

Test • AMD Radeon RX 6600 XT

• Évolution des fréquences

Pour jauger l'ampleur des éventuelles baisses de fréquences induites par les limites de température et consommation imposées à la RX 6600 XT Gaming Pro de Gigabyte, nous avons mesuré la fréquence de son GPU en tâche de fond sous forte charge (Cyberpunk 2077) durant 30 min. Nous affichons ensuite les résultats dans le graphique suivant. La carte ne semble pas particulièrement bridée, que ce soit par la température ou la limite de consommation, la courbe est donc plutôt linéaire et l'amplitude des oscillations réduites. La fréquence moyenne mesurée au bout de ces 30 mn s'établie à 2650,5 MHz, soit davantage que la fréquence de crête annoncée. Nous souhaitions tester une carte non overclockée pour ce test, ce ne fut malheureusement pas possible, mais du coup il est difficile en l'état de confirmer que ce comportement sera généralisé sur l'ensemble des cartes commercialisées.

 

log freq

Évolution de la fréquence GPU de la Gigabyte RX 6600 XT Gaming Pro OC sous forte charge

 

Nous avons également mesuré la fréquence moyenne du GPU durant l'exécution des séquences de test en QHD, sachant que ces dernières durent entre une à quatre minutes, soit un temps plus bref. Les résultats sont reportés dans le tableau suivant.

 

JeuxRX 6600 XT Gaming Pro OC : Frequences GPU (Mhz)
Anno 1800 2618
Call of Duty Black Ops : Cold War 2660
Control 2549
Cyberpunk 2077

2649

Days Gone 2586
DiRT Rally 2.0 2598
Doom Eternal 2641
F1 2021

2553

Flight Simulator 2614
Ghostrunner 2605
Godfall 2563
Hitman 3 2530
Horizon Zero Dawn 2647
Immortals Fenyx Rising 2640
Metro Exodus 2607
Minecraft 2678
Quake II RTX 2650
Red Dead Redemption 2 2632
Resident Evil Village 2641
Watch Dogs: Legion 2657

 

 

• Overclocking

Nous relevons la limite de puissance au maximum, puis nous recherchons la valeur maximale stable. Et là surprise, nous avons beau jouer sur les slides, la fréquence du GPU fini toujours par se stabiliser à un niveau similaire à celui par défaut ! Tout la marge disponible semble donc avoir déjà été consommée par Gigabyte et les mécanismes de boost modernes. Côté mémoire, cette dernière a accepté 300 MHz supplémentaires sans broncher, soit + 15 %. Les gains mesurés sous Cyberpunk 2077 se montent à 6,4 %, la carte profite donc bel et bien d'un surcroît de bande passante mémoire. La consommation progresse de 8 W (+ 4,5 %), la température du GPU diminue de son côté du fait d'une augmentation de la ventilation (+ 2,1 dBA).

 

gpuz 6600xt oc

La Gigabyte RX 6600 XT Gaming Pro OC après surcadençage

 

Page suivante, passons aux mesures de bruit et températures.



Un poil avant ?

Test • be quiet! Dark Rock TF 2

Un peu plus tard ...

Forza Horizon 5 offre du gameplay, du fun et des graphismes de haut niveau !

Les 58 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Eric B., le Vendredi 22 Avril 2022 à 15h11  
par Un ragoteur qui aime les BX du Grand Est, le Mercredi 02 Mars 2022 à 16h11
Salut, pour la personne qui fait les schémas des Navi 21/22/23.
Les puces mémoires sont normalement link à un contrôleur mémoire en 32 bit.
Pourquoi mettre les contrôleurs mémoires en 16 bit (et donc doubler leurs nombres) sur tous les schémas des Radeon ?
Désolé, pas vu la question avant. Pour info ces schémas sont issus de ceux fournis par AMD, il n'y a donc techniquement personne chez CDH qui ait fait ces derniers, nous avons juste adapté le nombre de blocks aux "castrations" effectuées, lorsqu'AMD ne fournissait pas de diagramme pour une puce donnée. Idéalement, il faudrait donc poser la question à AMD car c'est leur représentation, pas la notre. On peut supputer que comme la GDDR6 utilise 2 canaux 16-bit en parallèle, c'est ce qu'ils ont voulu représenter, comme nous l'expliquions ici.
par Un ragoteur qui aime les BX du Grand Est, le Mercredi 02 Mars 2022 à 16h11  
Salut, pour la personne qui fait les schémas des Navi 21/22/23.
Les puces mémoires sont normalement link à un contrôleur mémoire en 32 bit.
Pourquoi mettre les contrôleurs mémoires en 16 bit (et donc doubler leurs nombres) sur tous les schémas des Radeon ?
par Kernuun, le Mercredi 25 Août 2021 à 08h59  
par YulFi, le Mercredi 25 Août 2021 à 08h18
AMD vend des cartes AMD sur sont site à prix MSRP, il faut juste être très très rapide pour en avoir une
J'ai réussi à avoir une 6900XT.
Je voulais spécifiquement parler des 6600xt, vu leurs prix annoncés, bien supérieurs au msrp des 6700xt. Et sinon je suis au courant pour AMD, cf mon message (une 6700xt et.une 6800 xt midnight black)
par YulFi, le Mercredi 25 Août 2021 à 08h18  
par Kernuun, le Mardi 10 Août 2021 à 19h25
C'est vraiment dommage qu'AMD ne vende pas des cartes constructeurs aux MSRP. Vu que la 6700XT est vendue en dessous de 500€, ça aurait pu donner un tarif attractif. Quand je vois les prix en bas de l'article, je me dis que le scalping, ce n'est pas que des individus sur eBay ou lbc, c'est aussi et surtout des constructeurs qui s'en mettent plein les fouilles de façon éhontée.
AMD vend des cartes AMD sur sont site à prix MSRP, il faut juste être très très rapide pour en avoir une
J'ai réussi à avoir une 6900XT.
par Eric B., le Lundi 23 Août 2021 à 09h45  
Il faut bien comprendre que les concepteurs ne vont jamais admettre publiquement une faiblesse de leur produit, tout ce que l'on peut faire c'est d'essayer d'analyser les différents résultats (jeux, benchs synthétiques) pour en déduire les forces et faiblesses relatives de chaque architectures. Concernant le RT, j'ai déjà en grande partie répondu au sein des différents dossiers et en commentaire de certaines news, voici mon interprétation de la situation actuelle au vu de mes expériences avec les différents produits :

* Nvidia puis AMD ont basé leur approche sur une accélération matérielle du BVH (j'y reviens plus bas).

* Cette accélération est réalisée de part et d'autre par des unités spécifiques appelées RT Core côté vert et Ray Accelerator coté rouge incluses respectivement au sein des SM et CU.

* Concernant les capacités intrinsèques des unités accélératrices, elles différent selon leur prise en charge du BVH.

* Le BVH se subdivise en 3 opérations distinctes : le calcul des intersections entre les boites et rayons, la traversée de l'arbre du BVH (passage d'une boite touchée à des boites plus petites en son sein) et enfin le calcul de l'intersection entre triangle et rayon. Là où ces 3 opérations sont gérées par les RT Cores sur Turing/Ampere, les Ray Accelerators de RDNA 2 ne réalisent que la première et la dernière. La traversée du BVH est effectuée par un shader (programme) s'exécutant sur les unités de calculs traditionnelles, ce qui n'est pas sans conséquence, et cela au-delà de la simple occupation de ces unités. En effet, ces dernières sont organisées en unités SIMD (Single Instruction on Multiple Data), appréciant très modérément les sauts d'une zone mémoire à une autre sans ordre logique dans un programme (Pointer chasing). Or, ces opérations sont très fréquentes lors de la traversée du BVH, d'où l'organisation MIMD (Multiple Instructions on Multiple Data) des RT Cores concurrents. C'est ce qui explique pour moi la différence de performance entre les unités respectives.

* Maintenant, le rendu étant hybride (rastérisation + RT), l'impact sur les performances dépendra donc du niveau de charge RT de la scène, et des performances en rastérisation de la dite scène. Ainsi, si les développeurs utilisent le RT uniquement pour certaines ombres ou pour gérer l'intégralité de l'éclairage et tous les effets associés (réflexion, réfraction, etc.) les performances pourront être amputées de 20 à 80 %. Prenons par exemple une scène ou une Radeon RDNA2 obtiendrait 100 i/s en rastérisation mais avec un impact de 40% lors de l'activation du RT. Au final les performances seront de 60 i/s. Sur la même scène, une GeForce Ampere obtiendrait 70 i/s en rastérisation mais avec un impact RT de seulement 20%. Ses performances seraient donc au final de 56 i/s soit inférieures à celles de la Radeon malgré un impact lié à l'usage du RT deux fois moindre. Si par contre l'impact est cette fois de respectivement 60% et 30%, les performances basculent en faveur de la GeForce (40 vs 49 i/s). On le voit donc, selon l'usage fait du RT, mais aussi les performances intrinsèques des cartes avant application, le rapport de force peut varier.

* Pour parler plus spécifiquement de la 6600 XT, elle souffre davantage que sa grande soeur dans ce test, mais en grande partie du fait d'un manque de mémoire avec ces réglages. En réduisant notablement la taille des textures, les écarts entre les 2 cartes se rapprochent des écarts mesurées entre ces dernières en rastérisation pure. Il semble toutefois que RDNA 2 nécessite une empreinte mémoire plus élevée qu'Ampere ou Turing, pour gérer les mêmes scènes en RT. Je ne sais toujours pas dire pour l'heure si cela vient d'un manque d'optimisation des pilotes ou un effet secondaire de l'organisation des tâches RT. Quoi qu'il en soit, AMD ayant été de manière générale plus généreux que Nvidia au niveau de la quantité mémoire sur cette génération (hormis pour les 6600 XT ou c'est l'inverse), cette situation ne touchera pas toute les cartes, en particulier celles les plus aptes à utiliser le RT car les plus performantes dans l'absolu. Sinon il suffit de régler un niveau de détail moindre pour les textures, ce n'est pas la mort pour autant.
par Un ragoteur qui aime les BX du Grand Est, le Lundi 23 Août 2021 à 09h00  
Salut, est ce que depuis le test, on en sait plus sur la sous performance en RT de la Radeon 6600 XT ?
Problème de driver ? ou problème dans l'architecture ?
par Eric B., le Samedi 14 Août 2021 à 14h48  
par Un ragoteur qui aime les BX en Provence-Alpes-Côte d'Azur, le Samedi 14 Août 2021 à 10h41
Sony et Microsoft n'ont rien avoir la dedans, leurs consoles ont un prix de vente que l'on retrouve dans le commerce.
Si on regarde le prix des processeurs aujourd'hui, on les trouve au MSRP et même un peu en dessous pour certain (zen3) avec les même techno de gravure que les CG AMD, eux aussi été plus cher au début de la pénurie..
Les consoles ont le prix de vente conseillé mais ne sont pas plus disponibles que les modèles de référence (à l'exception de drops ponctuels) qui eux aussi conservent leur prix de vente conseillé. L'inflation tarifaire ne concerne que les modèles AIB qui sont majoritaires depuis des années dans la stratégie de distribution d'AMD et NVIDIA, ce n'est pas nouveau. Les CPU sont à l'instar des cartes de référence dépendants uniquement d'AMD ou Intel, ceci expliquant cela.

Au final, tes remarques ne font qu'étayer le fait qu'il n'y aurait pas d'entente délictueuse entre les concepteurs, mais bien une tension de disponibilité dont profitent d'autres acteurs (tu le soulignes d'ailleurs pour certains) pour gonfler leurs propres marges. Enfin, les wafers étant identiques entre prod CPU et GPU du côté d'AMD, il est légitime pour le concepteur qui doit composer avec les allocations de production que lui permet TSMC, de privilégier les CPU bien plus rentables (die bien plus petit).

Ce n'est pas pour rien qu'AMD a avancé la 6600 XT avant la 6700 à mon avis, question de taille du die et donc de ventes possibles sur un nombre de wafers limité. Mais tout ceci à mon sens, ne fait que confirmer, une fois de plus, une capacité de production insuffisante pour le niveau de demande du marché.
par Un ragoteur qui aime les BX en Provence-Alpes-Côte d'Azur, le Samedi 14 Août 2021 à 10h41  
Sony et Microsoft n'ont rien avoir la dedans, leurs consoles ont un prix de vente que l'on retrouve dans le commerce.
Si on regarde le prix des processeurs aujourd'hui, on les trouve au MSRP et même un peu en dessous pour certain (zen3) avec les même techno de gravure que les CG AMD, eux aussi été plus cher au début de la pénurie.
En France on a aussi un problème de distributeur. la Gigabit RX6600XT eagle se trouve à 379$ au US (321,32€ HT, 385,584TTC) elle est à 519€ chez LDLC.
A noter qu'en Espagne la powercolor est à 393€ ttc.
par Eric B., le Samedi 14 Août 2021 à 10h02  
par Un ragoteur qui aime les BX en Provence-Alpes-Côte d'Azur, le Samedi 14 Août 2021 à 09h52
Désolé Eric mais c'est bien en volume qu'ils ont battu des records, une pénurie de composant ne leurs aurait pas permis de produire tout ce qui a été vendu.Quand on dit haut et fort pénurie à tout le monde les gens se précipitent par peur du manque.Si j'étais prêt à mettre 1500-2000€ dans une CG j'aurais déjà une 3080TI, y'a du stock.
C'est ton opinion, tu as le droit de l'exprimer et je la respecte, mais j'en ai une bien différente. Là-aussi tout le monde est en droit de ne pas y souscrire et d'en avoir une différente, cela ne me pose pas de souci (pour peu que les règles d'un débat courtois soient respectées).

Personnellement, je ne pense pas à l'entente sur les prix, au lancement des RTX 3000, tout le monde (nous aussi) s'est moqué du patron de Nvidia qui disait que la production n'était pas famélique, juste que la demande était exceptionnellement haute et que c'était un phénomène à observer. Pas une news sans xx commentaires pour parler de paper launch etc. Puis sont arrivées ensuite les RX 6000 et même chose. Puis les nouvelles consoles et rebelotte.

Donc si je suis bien ton raisonnement, AMD, Nvidia, Microsoft et Sony se sont tous entendus pour faire croire à une pénurie pour augmenter les prix ? Ca parait gros d'autant que certaines instances gouvernementales veillent au grain (et je ne parle pas de la France là ). En regardant les résultats financiers de ces sociétés, on a la preuve qu'ils vendent par palettes entières leurs produits, c'est donc bien un approvisionnement insuffisant qui explique la pénurie.

Maintenant est-ce que tout est fait pour résorber ce dernier, je n'en sais rien. Y-a-t-il volonté de conserver en l'état le marché, une latence dans l'augmentation des capacités de production, le refus d'une prise de risque si le marché venait à se retourner ? J'en oublie certainement, mais il y a beaucoup de raisons qui peuvent expliquer la situation sans aller au complot, sachant que ceux qui y joueraient risqueraient très gros...

Et oui, à un prix indécent tu peux trouver une carte à l'achat, c'est la loi de l'offre et de la demande. Tout acquéreur a d'une part une limite de moyens mais aussi de consentement à l'achat, ce qui fait qu'en haut de la pyramide où tu auras "écrémé" ceux ayant passé ces limites, tu trouveras toujours à acheter sans que cela ne prouve en rien un quelconque complot.
par Un ragoteur qui aime les BX en Provence-Alpes-Côte d'Azur, le Samedi 14 Août 2021 à 09h52  
par Eric B., le Samedi 14 Août 2021 à 09h33
Une pénurie ne veut pas dire que l'on ne produit rien, mais que les ressources produites ne sont pas suffisantes pour approvisionner le marché. Du coup il n'y a rien d'anormal à voir des résultats records pour les concepteurs de puces s'ils vendent sans souci tout ce qu'ils peuvent faire produire et ce sans avoir besoin de dépenser des sommes importantes en marketing ou ristournes, totalement inutiles vu la demande...
Désolé Eric mais c'est bien en volume qu'ils ont battu des records, une pénurie de composant ne leurs aurait pas permis de produire tout ce qui a été vendu.
Quand on dit haut et fort pénurie à tout le monde les gens se précipitent par peur du manque.
Si j'étais prêt à mettre 1500-2000€ dans une CG j'aurais déjà une 3080TI, y'a du stock.
par Eric B., le Samedi 14 Août 2021 à 09h33  
par Un ragoteur qui aime les BX en Provence-Alpes-Côte d'Azur, le Samedi 14 Août 2021 à 09h06
Je ne crois pas du tout à la pénurie, les résultat publiés par AMD et Nvidia montre qu'ils ont battu tous les records de vente en volume depuis le début de cette "pénurie" et à des prix largement supérieurs aux MSRP.

Ca ressemble plus à une entente sur les prix.
Une pénurie ne veut pas dire que l'on ne produit rien, mais que les ressources produites ne sont pas suffisantes pour approvisionner le marché. Du coup il n'y a rien d'anormal à voir des résultats records pour les concepteurs de puces s'ils vendent sans souci tout ce qu'ils peuvent faire produire et ce sans avoir besoin de dépenser des sommes importantes en marketing ou ristournes, totalement inutiles vu la demande...
par Eric B., le Samedi 14 Août 2021 à 09h20  
par Un ragoteur sans nom des Pays de la Loire, le Vendredi 13 Août 2021 à 16h46
Et encore le gpu de la Séries X est techniquement supérieur a une 6700XT...On a l'équivalent d'un Ryzen 3700 16go de gddr6 et grosso- modo une 6800 pour moins cher que cette carte...
Je ne pense pas que l'on puisse dire que le GPU de la XBox series X soit du niveau d'une 6800 plutôt qu'une 6700 XT. Les puces graphiques respectives, malgré l'architecture RDNA 2 commune, ont quand même de grosses différences de conception:

XBox serie X: 12 TFlops / 10 Go @ 14 Gbps sur bus mémoire 320-bit (+ 6 Go @ 192-bit pour le CPU) soit 560 Go/s / 64 ROP

RX 6800 : 13,9 TFlops / 16 Go @ 16 Gbps sur bus mémoire 256-bit soit 509 Go/s mais 128 Mo de L3 avec une bande passante ~ 1,6 To/s / 96 ROP

RX 6700 XT : 12,4 TFlops / 12 Go @ 16 Gbps sur bus mémoire 192-bit soit 382 Go/s mais 96 Mo de L3 (~1,6 To/s) / 64 ROP.

Il ne faut surtout pas sous-estimer l'impact du L3 (Infinity Cache), c'est ce qui a permis à AMD de revenir sur Nvidia au niveau rastérisation et ce dernier n'est pas présent sur les SOC des consoles à ma connaissance. Donc personnellement, je dirais que le GPU d'une XBox serie X est plus proche et même probablement légèrement moins performant dans l'absolu qu'une 6700 XT, hormis en très haute définition où le cache L3 va s'avérer moins efficace, faute de place pour conserver suffisamment de données spatiales et/ou temporelles.

Maintenant, on sait très bien que le matériel est souvent mieux exploité sur console car figé, alors que les développeurs doivent composer avec des tas de configurations différentes sur PC, mais il ne faut pas non plus surestimer le hardware de ces dernières. Cela reste des bonnes machines et un choix tout à fait respectable, mais je n'ai pas l'impression qu'elles soient actuellement plus aisées à trouver au prix conseillé, et il est fort probable que lorsqu'elles le seront, le prix des cartes graphiques le sera aussi.