COMPTOIR
  
register

×

Diagramme logique Navi 23

Test • AMD Radeon RX 6600 XT
Diagramme logique Navi 23
Gigabyte RX 6600 XT Gaming OC Pro : face avant
Gigabyte RX 6600 XT Gaming OC Pro : face arrière
Gigabyte RX 6600 XT Gaming OC Pro : alimentation
Gigabyte RX 6600 XT Gaming OC Pro : connectique
Le radiateur de la Gigabyte RX 6600 XT Gaming OC Pro
Le PCB de la Gigabyte RX 6600 XT Gaming OC Pro
Navi 23 et sa GDDR5
giga vrm t
GPU-Z Gigabyte RX 6600 XT Gaming Pro OC

• NAvi 23

Si vous êtes intéressés par les détails de l'architecture RDNA2, nous vous invitons naturellement à consulter la partie correspondante dans le dossier consacré aux RX 6800. Comme nous l'indiquions en débutant cet article, la nouvelle venue est la première à faire usage du GPU Navi 23. Ce dernier vise à occuper le segment équivalent à son concurrent GA106. Voyons donc les caractéristiques dont l'a dotées son concepteur.

 

Navi 23RX 6600 XT
Shader Engine 2
CU 32
SP 2048
TMU 128
RT Accelerator 32
ROP 64
L2 (Mo) 2
L3 (Mo) 32
Bus mémoire (bits) 128

 

Par rapport à son grand frère Navi 22, le nouveau venu voit une réduction de 20 % du nombre de Compute Unit intégrés. Ils sont toutefois toujours répartis au sein de 2 Shader Engine, seul le nombre en leur sein diffère (16 vs 20). Le bus mémoire est de son côté amputé d'un tiers, le cache L2 suivant le mouvement, par contre AMD a choisi de conserver le même nombre de ROP, à 64. Enfin, AMD a carrément divisé par 3 la taille de l'Infinity Cache (L3), à 32 Mo. Ce choix découle du besoin de réduire drastiquement la taille de la puce, on constate toutefois que la puissance de calcul est bien moins impactée en comparaison de Navi 22 que ne peut l'être le sous-système mémoire. A noter également qu'AMD a décidé de réduire le bus PCIe à seulement 8 lignes à la norme 4.0, jugeant cela suffisant pour un tel GPU. Les rouges ne fournissant pas de diagramme pour ce GPU, nous avons modifié celui de Navi 21, pour tenter de représenter tant bien que mal le nouveau venu. 

 

Diagramme logique Navi 23 [cliquer pour agrandir]Le diagramme de Navi 23 (depuis celui de Navi 21 modifié par nos soins)

 

A noter que l'usage d'un bus mémoire 128-bit, conduit AMD à opter pour 8 ou 16 Go de GDDR6, sans bricolage exotique façon GTX 970. Compte-tenu de la gamme visée, c'est la première option qui a été logiquement retenue, mais cela conduit à une quantité inférieure à celle embarquée sur la RTX 3060 (12 Go) du fait de son bus 192-bit. Les rouges vont donc devoir justifier côté marketing, un tarif officiel plus élevé tout en ayant une quantité de mémoire moindre. En bref, ils se retrouvent dans la situation des verts pour le reste de la gamme (hormis la RTX 3090 sans équivalent tarifaire). Au niveau des fonctionnalités, Navi 23 reprend tout ce qu'a apporté son grand frère, à commencer par l'HDMI 2.1 ainsi que le nouveau décodeur vidéo prenant en charge l'AV1.

 

Voilà pour le nouveau GPU d'AMD, qui réclame 11,1 Milliards de transistors, soit bien moins que Navi 22 ou même le concurrent GA106. Le procédé de gravure utilisé est toujours le 7 nm de TSMC, par contre la densité est en berne. Cela s'explique par le fait que le cache L3 est très dense en transistors, et c'est la partie qui a été la plus sacrifiée en proportion. AMD obtient malgré tout une puce 14 % plus petite que celle du caméléon, un bon point à priori, même s'il est par contre difficile d'extrapoler les coûts de production respectifs, puisque les rendements et tarification par Wafer restent confidentiels. 

 

Gravure
GPUNombre de transistorsSuperficie Die

Densité (Millions de transistors / mm²)

7 nm TSMC GA100 54.2 Milliards 826 mm² 65,6
7 nm TSMC Navi 21 26,8 Milliards 520 mm² 51,6
7 nm TSMC Navi 22 17,2 Milliards 335 mm² 51,3
7 nm TSMC Navi 23 11,1 Milliards 237 mm² 46,8
8 nm Samsung GA102 28,3 Milliards 628 mm² 45
8 nm Samsung GA104 17,4 Milliards 392 mm² 44,4
8 nm Samsung GA106 12 Milliards 276 mm² 43,5
7 nm TSMC Navi 10 10,3 Milliards 251 mm² 41
7 nm TSMC Vega 20 13.2 Milliards 331 mm² 39,9
16 nm TSMC GP102 12 Milliards 471 mm² 25,5
14 nm GF Vega 10 12.5 Milliards 495 mm² 25,3
16 nm TSMC GP100 15,3 Milliards 610 mm² 25,1
12 nm TSMC TU104 13,6 Milliards 545 mm² 25
12 nm TSMC TU102 18,6 Milliards 754 mm² 24,7
12 nm TSMC TU106 10,8 Milliards 445 mm² 24,3

 

Voilà ce que nous pouvions vous dire sur ce nouveau GPU, intéressons-nous à présent à la carte que nous avons reçu pour ce test.

 

 

• Gigabyte RX 6600 XT Gaming OC Pro

A l'instar de son concurrent, il n'y aura pas de modèle de référence pour ce segment, hormis sur de jolis rendus 3D. Les cartes ne seront donc "disponibles" qu'auprès des AIB, ce qui en période de pénurie faire disparaitre la possibilité (certes faible) d'obtenir une carte de référence au prix officiel lors d'un drop. Pour ce test, AMD nous a fait parvenir par de le biais de Gigabyte une RX 6600 XT Gaming OC Pro qui sera commercialisée sous peu. La carte utilise un gabarit davantage prisé par les modèles haut de gamme, avec une longeur de 28,3 cm et une occupation de 2,5 slots. Elle emploie trois ventilateurs axiaux de 80 mm et accuse 904 grammes sur la balance.

 

Gigabyte RX 6600 XT Gaming OC Pro : face avant [cliquer pour agrandir]

La face avant de la Gigabyte RX 6600 XT Gaming OC Pro

 

La face arrière dispose d'une plaque de finition en aluminium, assurant également un rôle de dissipateur. En effet, le dos du GPU et des puces mémoire se voit recouvert de pads thermiques assurant la liaison avec cette backplate.  A noter que la partie arrière de la carte est ajourée, pour laisser passer le flux d'air, le PCB étant plus court que la carte.

 

Gigabyte RX 6600 XT Gaming OC Pro : face arrière [cliquer pour agrandir]

Et la face arrière

 

La carte vue de côté laisse apparaître le carénage en plastique recouvrant une partie du dissipateur et l'occupation supérieure à 2 slots. Pas de rétroéclairage du logo ici, la carte étant dénuée de toute LED décorative. L'alimentation électrique est assurée par un unique connecteur à 8 broches, de quoi délivrer jusqu'à 225 W avec l'apport du slot PCIe, il reste donc de la marge par rapport au TGP de la carte qui semble fixé aux alentours de 170 W pour ce modèle (160 W pour les spécifications de référence).

 

Gigabyte RX 6600 XT Gaming OC Pro : alimentation [cliquer pour agrandir]

Le connecteur d'alimentation à 8 broches  

 

Côté connectique, pas de jaloux puisque l'on retrouve 2 connecteurs Display port 1.4a, accompagnés du même nombre d'HDMI 2.1. Les équerres de fixation sont presque totalement ajourées, de quoi laisser passer théoriquement un flux d'air important éjecté du boitier.

 

Gigabyte RX 6600 XT Gaming OC Pro : connectique [cliquer pour agrandir]

La connectique vidéo

 

Le dissipateur est constitué de 3 radiateurs en aluminium raccordés entre eux par 5 caloducs en cuivre. Ces derniers servent également de surface de contact avec le GPU ainsi que 2 puces mémoires, les 2 autres étant en contact avec la base en aluminium solidarisant le tout. Les composants de puissance profitent eux aussi de points d'appui au niveau du radiateur principal.

 

Le radiateur de la Gigabyte RX 6600 XT Gaming OC Pro [cliquer pour agrandir]

Le radiateur de la RX 6600 XT Gaming OC Pro de Gigabyte

 

Le PCB se contente de 19,6 cm, il est relativement chargé même si bon nombre d'emplacements pour les CMS ne sont pas peuplés. La disposition est là-aussi davantage axée vers les cartes de gamme supérieure, avec le GPU au centre entouré de sa mémoire, et l'étage d'alimentation à l'arrière du PCB, près du connecteur d'alimentation PCIe à 8 broches.

 

Le PCB de la Gigabyte RX 6600 XT Gaming OC Pro [cliquer pour agrandir]

Et son PCB

 

Le GPU utilise une orientation à 45° au sein de son packaging, ce positionnement pouvant faciliter le câblage. Les 4 puces mémoire GDDR6 qui accompagnent le GPU sont des modèles Samsung de 2 Go certifiées pour 16 Gbps, soit les mêmes que pour le reste de la gamme RDNA 2. Ce choix d'uniformité (du moyen au haut de gamme), permet certainement à AMD de commander en masse et négocier de meilleurs tarifs. Pour finir, 8 VRM composent l'étage d'alimentation du GPU sur cette carte, il est complété de 2 phases pour la mémoire. Clairement, cette carte est bien équipée de ce côté là vu son TGP. 

 

Navi 23 et sa GDDR5 [cliquer pour agrandir]giga vrm t [cliquer pour agrandir]

Le GPU, la mémoire et les VRM

 

Le pilotage des 8 phases dédiées à l'alimentation du GPU est assuré par un controleur IR35217 d'International Rectifier.

 

giga control vrm

Le contrôleur d'alimentation

  

Poursuivons la description de notre carte au travers de GPU-Z, qui dans sa version 2.41, reconnait parfaitement la dernière RX 6600 XT. On retrouve donc les 2048 unités de calculs FP32 et 128 TMU attendues. Les 8 Go de GDDR6 adressés par un bus 128-bit, sont là aussi correctement reportés. On ne peut passer à côté du bus PCIe réduit à 8 lignes. Côté fréquence , la mémoire est cadencée à 2 GHz, ce qui correspondant à un débit par broche de 16 Gbps, comme sur les autres cartes RDNA 2. Côté GPU, le boost annoncé sur ce modèle overclocké est fixé officiellement à 2607 MHz au lieu des 2589 MHz officiels, mais quid en pratique ?

 

gpuz 6600xt

GPU-Z de la RX 6600 XT Gaming Pro OC de  Gigabyte

 

Au repos, le GPU affiche à nouveau 0 MHz habituellement reporté par GPU-Z pour les cartes RDNA 2 dans ces conditions, la mémoire quant à elle oscille entre 1988/1990 MHz. En charge, nous avons réussi à capturer un maximum à 2684 MHz, mais le maximum enregistré dans nos fichiers log est de 2687 MHz. Lorsque la charge se veut plus intense et soutenue, la fréquence va baisser très légèrement, oscillant entre 2633 et 2654 MHz dans un premier temps, puis s'approcher de plus en plus des 2650 MHz avec une amplitude d'oscillation réduite. Sous Cyberpunk 2077 durant 30 mn, la moyenne s'établit à 2651 MHz, soit 2,4 % de mieux que le boost de crête officiel et plus de 12% de mieux que le Game Boost annoncé. Plus de détails à ce sujet en page 7.

 

GPU-Z Gigabyte RX 6600 XT Gaming Pro OC [cliquer pour agrandir]

Les fréquences de la Gigabyte RX 6600 XT Gaming Pro OC

 

C'est tout pour la Gigabyte RX 6600 XT Gaming OC Pro, passons page suivante aux spécifications.



Un poil avant ?

Test • be quiet! Dark Rock TF 2

Un peu plus tard ...

Forza Horizon 5 offre du gameplay, du fun et des graphismes de haut niveau !

Les 58 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Eric B., le Vendredi 22 Avril 2022 à 15h11  
par Un ragoteur qui aime les BX du Grand Est le Mercredi 02 Mars 2022 à 16h11
Salut, pour la personne qui fait les schémas des Navi 21/22/23.
Les puces mémoires sont normalement link à un contrôleur mémoire en 32 bit.
Pourquoi mettre les contrôleurs mémoires en 16 bit (et donc doubler leurs nombres) sur tous les schémas des Radeon ?
Désolé, pas vu la question avant. Pour info ces schémas sont issus de ceux fournis par AMD, il n'y a donc techniquement personne chez CDH qui ait fait ces derniers, nous avons juste adapté le nombre de blocks aux "castrations" effectuées, lorsqu'AMD ne fournissait pas de diagramme pour une puce donnée. Idéalement, il faudrait donc poser la question à AMD car c'est leur représentation, pas la notre. On peut supputer que comme la GDDR6 utilise 2 canaux 16-bit en parallèle, c'est ce qu'ils ont voulu représenter, comme nous l'expliquions ici.
par Un ragoteur qui aime les BX du Grand Est, le Mercredi 02 Mars 2022 à 16h11  
Salut, pour la personne qui fait les schémas des Navi 21/22/23.
Les puces mémoires sont normalement link à un contrôleur mémoire en 32 bit.
Pourquoi mettre les contrôleurs mémoires en 16 bit (et donc doubler leurs nombres) sur tous les schémas des Radeon ?
par Kernuun, le Mercredi 25 Août 2021 à 08h59  
par YulFi le Mercredi 25 Août 2021 à 08h18
AMD vend des cartes AMD sur sont site à prix MSRP, il faut juste être très très rapide pour en avoir une
J'ai réussi à avoir une 6900XT.
Je voulais spécifiquement parler des 6600xt, vu leurs prix annoncés, bien supérieurs au msrp des 6700xt. Et sinon je suis au courant pour AMD, cf mon message (une 6700xt et.une 6800 xt midnight black)
par YulFi, le Mercredi 25 Août 2021 à 08h18  
par Kernuun le Mardi 10 Août 2021 à 19h25
C'est vraiment dommage qu'AMD ne vende pas des cartes constructeurs aux MSRP. Vu que la 6700XT est vendue en dessous de 500€, ça aurait pu donner un tarif attractif. Quand je vois les prix en bas de l'article, je me dis que le scalping, ce n'est pas que des individus sur eBay ou lbc, c'est aussi et surtout des constructeurs qui s'en mettent plein les fouilles de façon éhontée.
AMD vend des cartes AMD sur sont site à prix MSRP, il faut juste être très très rapide pour en avoir une
J'ai réussi à avoir une 6900XT.
par Eric B., le Lundi 23 Août 2021 à 09h45  
Il faut bien comprendre que les concepteurs ne vont jamais admettre publiquement une faiblesse de leur produit, tout ce que l'on peut faire c'est d'essayer d'analyser les différents résultats (jeux, benchs synthétiques) pour en déduire les forces et faiblesses relatives de chaque architectures. Concernant le RT, j'ai déjà en grande partie répondu au sein des différents dossiers et en commentaire de certaines news, voici mon interprétation de la situation actuelle au vu de mes expériences avec les différents produits :

* Nvidia puis AMD ont basé leur approche sur une accélération matérielle du BVH (j'y reviens plus bas).

* Cette accélération est réalisée de part et d'autre par des unités spécifiques appelées RT Core côté vert et Ray Accelerator coté rouge incluses respectivement au sein des SM et CU.

* Concernant les capacités intrinsèques des unités accélératrices, elles différent selon leur prise en charge du BVH.

* Le BVH se subdivise en 3 opérations distinctes : le calcul des intersections entre les boites et rayons, la traversée de l'arbre du BVH (passage d'une boite touchée à des boites plus petites en son sein) et enfin le calcul de l'intersection entre triangle et rayon. Là où ces 3 opérations sont gérées par les RT Cores sur Turing/Ampere, les Ray Accelerators de RDNA 2 ne réalisent que la première et la dernière. La traversée du BVH est effectuée par un shader (programme) s'exécutant sur les unités de calculs traditionnelles, ce qui n'est pas sans conséquence, et cela au-delà de la simple occupation de ces unités. En effet, ces dernières sont organisées en unités SIMD (Single Instruction on Multiple Data), appréciant très modérément les sauts d'une zone mémoire à une autre sans ordre logique dans un programme (Pointer chasing). Or, ces opérations sont très fréquentes lors de la traversée du BVH, d'où l'organisation MIMD (Multiple Instructions on Multiple Data) des RT Cores concurrents. C'est ce qui explique pour moi la différence de performance entre les unités respectives.

* Maintenant, le rendu étant hybride (rastérisation + RT), l'impact sur les performances dépendra donc du niveau de charge RT de la scène, et des performances en rastérisation de la dite scène. Ainsi, si les développeurs utilisent le RT uniquement pour certaines ombres ou pour gérer l'intégralité de l'éclairage et tous les effets associés (réflexion, réfraction, etc.) les performances pourront être amputées de 20 à 80 %. Prenons par exemple une scène ou une Radeon RDNA2 obtiendrait 100 i/s en rastérisation mais avec un impact de 40% lors de l'activation du RT. Au final les performances seront de 60 i/s. Sur la même scène, une GeForce Ampere obtiendrait 70 i/s en rastérisation mais avec un impact RT de seulement 20%. Ses performances seraient donc au final de 56 i/s soit inférieures à celles de la Radeon malgré un impact lié à l'usage du RT deux fois moindre. Si par contre l'impact est cette fois de respectivement 60% et 30%, les performances basculent en faveur de la GeForce (40 vs 49 i/s). On le voit donc, selon l'usage fait du RT, mais aussi les performances intrinsèques des cartes avant application, le rapport de force peut varier.

* Pour parler plus spécifiquement de la 6600 XT, elle souffre davantage que sa grande soeur dans ce test, mais en grande partie du fait d'un manque de mémoire avec ces réglages. En réduisant notablement la taille des textures, les écarts entre les 2 cartes se rapprochent des écarts mesurées entre ces dernières en rastérisation pure. Il semble toutefois que RDNA 2 nécessite une empreinte mémoire plus élevée qu'Ampere ou Turing, pour gérer les mêmes scènes en RT. Je ne sais toujours pas dire pour l'heure si cela vient d'un manque d'optimisation des pilotes ou un effet secondaire de l'organisation des tâches RT. Quoi qu'il en soit, AMD ayant été de manière générale plus généreux que Nvidia au niveau de la quantité mémoire sur cette génération (hormis pour les 6600 XT ou c'est l'inverse), cette situation ne touchera pas toute les cartes, en particulier celles les plus aptes à utiliser le RT car les plus performantes dans l'absolu. Sinon il suffit de régler un niveau de détail moindre pour les textures, ce n'est pas la mort pour autant.
par Un ragoteur qui aime les BX du Grand Est, le Lundi 23 Août 2021 à 09h00  
Salut, est ce que depuis le test, on en sait plus sur la sous performance en RT de la Radeon 6600 XT ?
Problème de driver ? ou problème dans l'architecture ?
par Eric B., le Samedi 14 Août 2021 à 14h48  
par Un ragoteur qui aime les BX en Provence-Alpes-Côte d'Azur le Samedi 14 Août 2021 à 10h41
Sony et Microsoft n'ont rien avoir la dedans, leurs consoles ont un prix de vente que l'on retrouve dans le commerce.
Si on regarde le prix des processeurs aujourd'hui, on les trouve au MSRP et même un peu en dessous pour certain (zen3) avec les même techno de gravure que les CG AMD, eux aussi été plus cher au début de la pénurie..
Les consoles ont le prix de vente conseillé mais ne sont pas plus disponibles que les modèles de référence (à l'exception de drops ponctuels) qui eux aussi conservent leur prix de vente conseillé. L'inflation tarifaire ne concerne que les modèles AIB qui sont majoritaires depuis des années dans la stratégie de distribution d'AMD et NVIDIA, ce n'est pas nouveau. Les CPU sont à l'instar des cartes de référence dépendants uniquement d'AMD ou Intel, ceci expliquant cela.

Au final, tes remarques ne font qu'étayer le fait qu'il n'y aurait pas d'entente délictueuse entre les concepteurs, mais bien une tension de disponibilité dont profitent d'autres acteurs (tu le soulignes d'ailleurs pour certains) pour gonfler leurs propres marges. Enfin, les wafers étant identiques entre prod CPU et GPU du côté d'AMD, il est légitime pour le concepteur qui doit composer avec les allocations de production que lui permet TSMC, de privilégier les CPU bien plus rentables (die bien plus petit).

Ce n'est pas pour rien qu'AMD a avancé la 6600 XT avant la 6700 à mon avis, question de taille du die et donc de ventes possibles sur un nombre de wafers limité. Mais tout ceci à mon sens, ne fait que confirmer, une fois de plus, une capacité de production insuffisante pour le niveau de demande du marché.
par Un ragoteur qui aime les BX en Provence-Alpes-Côte d'Azur, le Samedi 14 Août 2021 à 10h41  
Sony et Microsoft n'ont rien avoir la dedans, leurs consoles ont un prix de vente que l'on retrouve dans le commerce.
Si on regarde le prix des processeurs aujourd'hui, on les trouve au MSRP et même un peu en dessous pour certain (zen3) avec les même techno de gravure que les CG AMD, eux aussi été plus cher au début de la pénurie.
En France on a aussi un problème de distributeur. la Gigabit RX6600XT eagle se trouve à 379$ au US (321,32€ HT, 385,584TTC) elle est à 519€ chez LDLC.
A noter qu'en Espagne la powercolor est à 393€ ttc.
par Eric B., le Samedi 14 Août 2021 à 10h02  
par Un ragoteur qui aime les BX en Provence-Alpes-Côte d'Azur le Samedi 14 Août 2021 à 09h52
Désolé Eric mais c'est bien en volume qu'ils ont battu des records, une pénurie de composant ne leurs aurait pas permis de produire tout ce qui a été vendu.Quand on dit haut et fort pénurie à tout le monde les gens se précipitent par peur du manque.Si j'étais prêt à mettre 1500-2000€ dans une CG j'aurais déjà une 3080TI, y'a du stock.
C'est ton opinion, tu as le droit de l'exprimer et je la respecte, mais j'en ai une bien différente. Là-aussi tout le monde est en droit de ne pas y souscrire et d'en avoir une différente, cela ne me pose pas de souci (pour peu que les règles d'un débat courtois soient respectées).

Personnellement, je ne pense pas à l'entente sur les prix, au lancement des RTX 3000, tout le monde (nous aussi) s'est moqué du patron de Nvidia qui disait que la production n'était pas famélique, juste que la demande était exceptionnellement haute et que c'était un phénomène à observer. Pas une news sans xx commentaires pour parler de paper launch etc. Puis sont arrivées ensuite les RX 6000 et même chose. Puis les nouvelles consoles et rebelotte.

Donc si je suis bien ton raisonnement, AMD, Nvidia, Microsoft et Sony se sont tous entendus pour faire croire à une pénurie pour augmenter les prix ? Ca parait gros d'autant que certaines instances gouvernementales veillent au grain (et je ne parle pas de la France là ). En regardant les résultats financiers de ces sociétés, on a la preuve qu'ils vendent par palettes entières leurs produits, c'est donc bien un approvisionnement insuffisant qui explique la pénurie.

Maintenant est-ce que tout est fait pour résorber ce dernier, je n'en sais rien. Y-a-t-il volonté de conserver en l'état le marché, une latence dans l'augmentation des capacités de production, le refus d'une prise de risque si le marché venait à se retourner ? J'en oublie certainement, mais il y a beaucoup de raisons qui peuvent expliquer la situation sans aller au complot, sachant que ceux qui y joueraient risqueraient très gros...

Et oui, à un prix indécent tu peux trouver une carte à l'achat, c'est la loi de l'offre et de la demande. Tout acquéreur a d'une part une limite de moyens mais aussi de consentement à l'achat, ce qui fait qu'en haut de la pyramide où tu auras "écrémé" ceux ayant passé ces limites, tu trouveras toujours à acheter sans que cela ne prouve en rien un quelconque complot.
par Un ragoteur qui aime les BX en Provence-Alpes-Côte d'Azur, le Samedi 14 Août 2021 à 09h52  
par Eric B. le Samedi 14 Août 2021 à 09h33
Une pénurie ne veut pas dire que l'on ne produit rien, mais que les ressources produites ne sont pas suffisantes pour approvisionner le marché. Du coup il n'y a rien d'anormal à voir des résultats records pour les concepteurs de puces s'ils vendent sans souci tout ce qu'ils peuvent faire produire et ce sans avoir besoin de dépenser des sommes importantes en marketing ou ristournes, totalement inutiles vu la demande...
Désolé Eric mais c'est bien en volume qu'ils ont battu des records, une pénurie de composant ne leurs aurait pas permis de produire tout ce qui a été vendu.
Quand on dit haut et fort pénurie à tout le monde les gens se précipitent par peur du manque.
Si j'étais prêt à mettre 1500-2000€ dans une CG j'aurais déjà une 3080TI, y'a du stock.
par Eric B., le Samedi 14 Août 2021 à 09h33  
par Un ragoteur qui aime les BX en Provence-Alpes-Côte d'Azur le Samedi 14 Août 2021 à 09h06
Je ne crois pas du tout à la pénurie, les résultat publiés par AMD et Nvidia montre qu'ils ont battu tous les records de vente en volume depuis le début de cette "pénurie" et à des prix largement supérieurs aux MSRP.

Ca ressemble plus à une entente sur les prix.
Une pénurie ne veut pas dire que l'on ne produit rien, mais que les ressources produites ne sont pas suffisantes pour approvisionner le marché. Du coup il n'y a rien d'anormal à voir des résultats records pour les concepteurs de puces s'ils vendent sans souci tout ce qu'ils peuvent faire produire et ce sans avoir besoin de dépenser des sommes importantes en marketing ou ristournes, totalement inutiles vu la demande...
par Eric B., le Samedi 14 Août 2021 à 09h20  
par Un ragoteur sans nom des Pays de la Loire le Vendredi 13 Août 2021 à 16h46
Et encore le gpu de la Séries X est techniquement supérieur a une 6700XT...On a l'équivalent d'un Ryzen 3700 16go de gddr6 et grosso- modo une 6800 pour moins cher que cette carte...
Je ne pense pas que l'on puisse dire que le GPU de la XBox series X soit du niveau d'une 6800 plutôt qu'une 6700 XT. Les puces graphiques respectives, malgré l'architecture RDNA 2 commune, ont quand même de grosses différences de conception:

XBox serie X: 12 TFlops / 10 Go @ 14 Gbps sur bus mémoire 320-bit (+ 6 Go @ 192-bit pour le CPU) soit 560 Go/s / 64 ROP

RX 6800 : 13,9 TFlops / 16 Go @ 16 Gbps sur bus mémoire 256-bit soit 509 Go/s mais 128 Mo de L3 avec une bande passante ~ 1,6 To/s / 96 ROP

RX 6700 XT : 12,4 TFlops / 12 Go @ 16 Gbps sur bus mémoire 192-bit soit 382 Go/s mais 96 Mo de L3 (~1,6 To/s) / 64 ROP.

Il ne faut surtout pas sous-estimer l'impact du L3 (Infinity Cache), c'est ce qui a permis à AMD de revenir sur Nvidia au niveau rastérisation et ce dernier n'est pas présent sur les SOC des consoles à ma connaissance. Donc personnellement, je dirais que le GPU d'une XBox serie X est plus proche et même probablement légèrement moins performant dans l'absolu qu'une 6700 XT, hormis en très haute définition où le cache L3 va s'avérer moins efficace, faute de place pour conserver suffisamment de données spatiales et/ou temporelles.

Maintenant, on sait très bien que le matériel est souvent mieux exploité sur console car figé, alors que les développeurs doivent composer avec des tas de configurations différentes sur PC, mais il ne faut pas non plus surestimer le hardware de ces dernières. Cela reste des bonnes machines et un choix tout à fait respectable, mais je n'ai pas l'impression qu'elles soient actuellement plus aisées à trouver au prix conseillé, et il est fort probable que lorsqu'elles le seront, le prix des cartes graphiques le sera aussi.