COMPTOIR
register

×

radeon 7800xt MBA

Les RX 7800 XT & RX 7700 XT sortent du bois : des performances (presque) à la hauteur
radeon 7800xt MBA
La RX 7800 XT à oilp (c)Igor Labs
La RX 7800 XT à oilp mais de derrière (c)Igor Labs

Elles sont arrivées... Sans se presser. Seulement quelques jours après leur annonce lors du Gamescom 2023, les éditeurs samplés pour le moins tardivement sont autorisés à publier les résultats des séances de torture ayant subit ces pauvres GPUs nouveaux nés. Il faut dire qu'ils sont attendu de pieds fermes, d'une part parce qu'elles sont très en retard, d'autre part parce que la génération suivante risque bien d'être en demie teinte sur RDNA4 ou en tout cas castrée de ses références les plus pêchues, et surtout parce que leur arrivée signifie enfin un peu de concurrence, toujours seine pour ce qui touche à la guerre des prix.

 

radeon 7800xt MBA [cliquer pour agrandir]

RX 7800 XT au design de référence : 2 x 83mm axiaux, 26,5 cm de long pour 2,5 slots

 

dans mon rad'RX 7800 XTRX 6800 XTRX 7700 XTRX 6700 XT
GPU Navi 32 XT
RDNA 3
chiplet 1x GCD 4x MCD
TSMC N5 (GCD) + N6 (MCD)
Navi 21 XT
RNDA 2
monolithique
TSMC N7P
Navi 32 XL
RDNA 3
chiplet 1x GCD 3x MCD
TSMC N5 (GCD) + N6 (MCD)
Navi 22 XT
RDNA 2
monolithique
TSMC N7P
ALUs 7680 / 60 CUs / 120 AIs 4680 / 72 CUs 6912 / 54 CUs / 108 AIs 2560 / 40 CUs
ROPs 96 128 96 64
Fréquences
GPU base / boost
gDDR6 + bus
2124 / 2430 MHz
19.5 Gbps / 256-bit
2015 / 2250 MHz
16 Gbps / 192-bit
2171 / 2544 MHz
18 Gbps / 192-bit
2424 / 2581 MHz
16 Gbps / 192-bit
Mémoire
+ bande passante
16 Go
624 Go/s
16 Go
512 Go/s
12 Go
432 Go/s
12 Go
384 Go/s
Infinity Cache 64 Mo 128 Mo 48 Mo 96 Mo
Patate FP32 37.3 TFLOPS 18,6 TFLOPS 35 TFLOPS 12,4 TFLOPS
TBP 263 W 300 W 245 W 230 W
lancement
+ douille
06/09/2023
559 €
11/2020
649 €
06/09/2023
499 €
03/2021
479 €

 

Bon, ce n'est pas tout ça, mais ce qui nous intéresse ici ce sont les performances de ces GPUs. La promesse des rouges c'était une RX 7800 XT flanquant une raclée bien méritée à la RTX 4070 & son AD104, tandis que la mission de la RX 7700 XT était de dévorer toute crue la 4060 Ti & son AD106, figure de proue de l'offre chez les verts, même si la variante 16 Go peine à convaincre.

 

Pour cela, les nouvelles venues s'appuient sur le GPU Navi32, petit frère du Navi 31 de conception chiplet similaire, mais moins complexe aboutissant à un GCD 100 mm² moins gros que son pas trop bien aimé ainé, soit 200 mm² pour la puce. Vous pouvez toujours retrouver les détails architecturaux propres à RDNA 3 et au Navi 31 dans notre papier consacré. Pas de surprises du côté fréquences qui ne progressent pas ou peu, il semble donc qu'un die shrink ne soit pas au rendez-vous sur Navi 32.

 

La RX 7800 XT à oilp (c)Igor Labs [cliquer pour agrandir]La RX 7800 XT à oilp mais de derrière (c)Igor Labs [cliquer pour agrandir]

Le PCB de la 7800 XT de référence commenté par Igor's Labs

 

La bonne tenue de la carte de référence reste de mise sur la 7800 XT, avec des fréquences moyennes enregistrées sur banc d'environ 2370 MHz conformes aux specs données en amont, mais qui restent sages compte tenu de la limite de puissance de la carte fixée à 263 W ; le tout dans un silence assez appréciable — moins bon que sur les 7900 — et un GPU qui ne dépasse pas les 78 °C en charge dans une tour normalement ventilée, sachant que le hotspot est fixé à 90 °C et le throttling à 110 °C.

La 7700 XT, sur un modèle de carte custom, en revanche s'exprime nettement plus avec une moyenne mesurée dépassant les 2500 MHz. Cela nous donne en termes d'efficacités énergétiques une bonne élève avec la 7800 XT et un moins bon avec la 7700 XT : le niveau de performance par watts reste en retrait face à la génération Ada, et recule même pour ce qui est de la 7700 XT. En l'absence de carte MBA, on s'attend à des modèles issus d'AIB exempts de reproches pour animer Navi 32 XL ; les tests répondront à cette question (en espérant bientôt le retour des nôtres !).

 

Justement, ces performances ? En rastérisation, la 7800 XT s'affiche + 4 % devant sa cible en QHD, + 5% en UHD et joue à jeu égal en FullHD. Des chiffres forcément moins flatteurs lorsqu'il s'agit d'envoyer quelques lancers de rayons, avec une 7800 XT en retrait de - 7% en QHD+RT, de - 5% en UHD+RT et - 9% en FullHD+RT. Face à son aïeule de gamme la 6800 XT, Navi 32 XT la devance de seulement + ~6 %.

La 7700 XT quant à elle, face à une 4060 Ti (8 Go), est 20 % plus rapide en QHD, et 18 % plus rapide en FullHD. Une belle tendance contrariée ray tracing activé, qui qui laisse le Navi 32 XL 10% devant en QHD+RT, et peu ou prou la même chose en FullHD+RT. Et par rapport à son ancêtre de gamme, on est + ~30 % face à une 6700 XT. En résumé et en indices simples :

 

 

Les promesses sont ainsi presque tenues, les cartes sont bien calibrées pour leurs segments dont la cible principale reste le QHD, mais la 7800 XT déçoit et aurait plutôt dû s'appeler RX 7800 pour rester logique, indiquant que peut-être une telle carte ne verra pas le jour. Cela lui fait entamer de fait plutôt mal sa carrière surtout en l'absence des fonctionnalités annoncées mais pas encore disponibles, telles que le FSR 3, sans que l'on sache là encore à quel niveau de pertinence ce super sampling se situera face au DLSS 3 / 3.5.

 

Une offre au final en cohérence de la génération RDNA 3 avec ses avantages (quantité de VRAM, performances en rastérisation) et ses inconvénients (efficacité, ray tracing, super sampling) et une 7700 XT plus intéressante que la 4060 Ti... Tant que celle-ci n'opère pas une volte-face tarifaire, ce qui va arriver dans un laps de temps assez court. AMD devra y répondre en conséquence pour garder sa RX 7700 XT sans concurrence opposable frontalement, qui est la carte la plus notable de ce lancement. (sources : AMD, Igor's LabComputerbase)

Un poil avant ?

Cinebench 2024 est dans la place : plus lourd, multi-plateformes, et mesurant les GPU

Un peu plus tard ...

La première machine High-NA EUV livrée cette année par ASML

Les 34 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Jemporte, le Vendredi 15 Septembre 2023 à 17h06  
par seb4771, le Lundi 11 Septembre 2023 à 13h30
Il n'y a pas que du "miroir", cyberpunk par exemple apporte un REEL + au niveau réalisme POUR "cyberpunk" (le jeu de plateau et son histoire originale).
...
Comme je l'avais dit contre le RT d'ailleurs à l'époque de son apparition, un jeu bien fait n'usant pas du RT n'en a pas besoin. Le problème c'est qu'on oublie de finaliser les effets d'un jeu récent, par exemple dans les effets miroir, en comptant sur le RT pour le rendre. C'était prévisible que ça aille dans cette direction. Le RT permet à priori d'alléger le développement général d'un jeu en enlevant tous les effets, parfois laborieux en raster, qu'on peut rendre par le RT.
Mais aujourd'hui les RTX 4000 ont 4x la puissance des 2000 à gamme égale, et AMD a une génération de retard sur Nvidia dans le domaine.
Et bien sûr le RT n'aura de vrai sens que lorsqu'il remplacera totalement le raster (vraiment pas tout de suite), car il diminuera considérablement le développement d'un jeu; les calculs RT étant surtout proportionnels non pas tant par rapport à la complexité de la scène mais au nombre de rayons lancés, donc de la définition finale souhaitée. Aujourd'hui, si on considère qu'il faudrait environ 100x plus de performance RT pour rendre sans raster un jeu 3D en temps réel en FHD, on doit pas être loin du compte si on le rend dans la vieille définition de naguère, de 200x320. Donc même si le RT prendra la moitié du chip à l'avenir, même les puces en 1nm de même taille qu'aujourd'hui ne feront pas l'affaire. Il faudra empiler les puces ou trouver un moyen pour considérablement augmenter leur fréquence. Donc l'évolution actuelle c'est surtout vers + de RT, mais pas 0 raster.
par Sk d'Occitanie, le Mardi 12 Septembre 2023 à 16h08  
"Control qui change complètement les pièces avec un VIDE évident sans Rtx."

N'importe quoi, j'ai fini le jeu avec le RT, mais à refaire perdre entre 35 et 50fps pour un apport si minime au jeu, c'est ridicule et surtout tout sauf réaliste, puisque même la meilleure CG actuelle est obligé d'utiliser un ray tracing grossier avec des gros points bien granuleux pour essayer de tenir le full RT sur un jeu de 2020(Cyberpunk).

Donc le raytracing oui, mais pas avant 2028 pour un rendu et une fluidité correcte.
par seb4771, le Lundi 11 Septembre 2023 à 13h30  
par Un champion du monde embusqué¶, le Lundi 11 Septembre 2023 à 12h16
Perso moi j' aimerais surtout qu on arrête de me vendre des jeux soit disant super génial avec une RTX

C est guère mieux que la chiasse physx de NVIDIA ou ça te faisait des effets de fumé monstrueux, des pseudo impact ...
Il n'y a pas que du "miroir", cyberpunk par exemple apporte un REEL + au niveau réalisme POUR "cyberpunk" (le jeu de plateau et son histoire originale).

Si pour vous, Spiderman qui a 90% d'immeubles en vitre ne DOIT rien refléter (car sans le RTx on voit un truc moche et sale pas réaliste DU TOUT)... c'est que vous avez un pb avec la réalité justement. Le RTX apporte justement le "miroir" et la lumière qu'on a NY.

The Medium par exemple change complètement le jeu avec le RTx (pourtant limité aux ombres et reflets).

Control qui change complètement les pièces avec un VIDE évident sans Rtx.

Pour le physX, c'est pas Nvidia du tout, ils ont juste racheté la boite qui vendait du vaporware en carte additionnelle pour l'intégrer SANS ajout de jeu et juste pour profiter des nombreux éléments en plus dans les jeux qui avaient un support. Et note pour Batman qui est NETTEMENT mieux avec les effets car se rapprochant de l'ambiance du film de Burton.

Et on ne parle pas des films qui l'utilisent (certes avec "que" 24 image donc - calcul nécessaire que nos 4k 360 Hz) en masse depuis + d'une décennie, là ça ne dérange pourtant les casques de SW sont clairement irréalistes (pire si on compare au 4).
par Un champion du monde embusqué, le Lundi 11 Septembre 2023 à 12h48  
Le pire dans tout ça c est que les devs continu a faire du jeu dx11 renommé dx12 juste pour activer une feature mineur à l heure actuel, le RT HYBRIDE
Et tout l intérêt de dx12 ultimate c'était le mesh shading est jeté aux chiottes
Vous etonné par que vos jeux en train de sortir sont cpu limited mm sur rtx4090, bah oui les jeux actuel utilise pas le mesh shading (ça veut dire jeter les carte en dessous de rtx2000, rx5000 et séries X, ps5.... Et faudrait pas dev sur Switch non plus)
Mais vous inquiétez pas.... Windows 12 va nous sauvez demandera sûrement dx12 ultimate pas comme win11 qui demande un pseudo dx12 non ultimate (traduction des gpu dx11 font le taff)

C est cool hein, les devs fin 2024 vont peut être enfin commencer à dev dans un vrai dx12 comprendre mesh shading

Allé rendez vous en 2028 pour 1 vrai jeu dx12
Ça fera juste depuis 2020 qu on vous l aura promis à la sorti de la ps5

Si d ici là amd/NVIDIA/Intel vendent encore des carte 3d plutôt que des carte d upscaling vu que y a plus en plus d unité "IA" que d unité "shader" dans ces soit disant carte "graphique"
par Un champion du monde embusqué, le Lundi 11 Septembre 2023 à 12h27  
Et pourtant y en aurait des choses bien à faire avec le raytracing
Les jeux type "horreur" "énigme/policier/détective" ou t es confiné dans un manoir, basé spatial ou que sais je

Des forêts ou on profiterait de l absorption, diffusion, réfraction de la lumière sur la vegétation (copain chlorophylle et bois)
Exemple un tomb raider est ridicule avec son raytracing qui traite juste les ombres

Dans des jeux de magie/sort
Bas justement les effets feu/glace/lumière/eau

Je sais pas dans un jeu type dragon quest un donjon dans un volcan, t aurait des super effets sur de la lave

Un jeu type skull and Bone, avec des voile, de la mer, ...

Mais nooooon toujours se concentrer sur l effet miroir, au moins les devs de jeux de bagnole qui savent pas coder de rétroviseurs vont être en joie (hein ubi)

Mais toujours éviter dans les jeux pro RTX NVIDIA que la lumière traverse qqchose comme de la toile/tissu/végétation

Bah oui comprenez ça c est trop gourmant en calcul, faudrait attendre les rtx12090
par Un champion du monde embusqué, le Lundi 11 Septembre 2023 à 12h16  
par Jemporte, le Dimanche 10 Septembre 2023 à 13h31
Entre RT+DLSS en 4k et 4k raster sans rien, j'ai tendance à penser que les joueurs préfèrent le RT+DLL en 4K (c'est à dire du 2K avec RT optimisé en 4K).
Perso moi j' aimerais surtout qu on arrête de me vendre des jeux soit disant super génial avec une RTX
Et comme dans 90% des cas traduction ça veut dire tout se transforme en miroir bizarrement d'un coup la pluie apparaît dans le jeu, et les route et trottoir se transforme en rivière pour faire de l effet miroir car bon vous comprenez les système de drainage dans une ville réelle ça n existe pas

On ne cesse depuis les rtx2000 de nous cassé les noix le raytracing c est génial grâce au RTX NVIDIA ça rend les jeux réaliste
D ou vous sortez que dans un monde réaliste tout se transforme en miroir

Oui je suis pour le raytracing, je vous en veux pas je fait des rendu raytracing depuis les années 90 ou fallait des heures/jours de calcul de rendu pour 1 image

Oui je veux bien qu on me mettent du raytracing
Mais du "raytracing" pas des miroir et un mode pluie

Bref dans 90% des cas les jeux "raytracing" c'est du pipo, de la flûte
C est guère mieux que la chiasse physx de NVIDIA ou ça te faisait des effets de fumé monstrueux, des pseudo impact ... mais là encore du pipo car c était des effets physique non persistant
Là ou à l époque en face du physx t avais le havok qui s appuyait sur le cpu et non un gpu et qui lui avait des phénomène physique persistant dans le jeu

En cela des "control" "watch dog 3" pour moi c est des belles flûte en terme raytracing, ou on te met un environnement irréaliste au possible
par Un ragoteur qui pipotronne au Québec, le Dimanche 10 Septembre 2023 à 23h02  
Jetons 3 décennies de jeux vidéos 3D à la poubelles pour faire plaisir à Jemporte svp !
par Jemporte, le Dimanche 10 Septembre 2023 à 13h49  
par Un ragoteur qui aime les BX au Québec, le Vendredi 08 Septembre 2023 à 16h39
J'aimerais apporter quelques précisions, car plusieurs personnes semblent être totalement perdues...
C'est toi qui mélanges les choses. On parle de ces cartes-ci RDNA3 de chez AMD face aux cartes RTX 4000. On oublie les rétrocompatibilités et les softwares qui les supportent. On est très contents que les possesseurs de cartes Véga supportent le FSR2... mais c'est pas la question.
Vendre juste les performances en raster un poil supérieures pour faire valoir la supériorité d'une carte graphique, qui par ailleurs est inférieure (parfois franchement) sur tous les autres points me parait dépassé. Cette comparaison est devenue marginale et ne touche qu'un nombre limité de joueurs et ça va s'accentuer contre eux dans ce sens à l'avenir. mais ,comme tu le dis il faut bien souligner que sur ce point AMD reste en compétition, et c'est d'ailleurs le seul et unique point qui peut justifier le prix de vente.
Pour ce qui est des pilotes pas prêts supportant pas tout le hardware, c'est aussi un des défauts particuliers à AMD. Même Intel, pourtant une bleu dans le domaine, fait mieux sur ce point. Il faut quasiment attendre la génération d'après pour avoir des pilotes qui marchent et utilisent tout le hardware de la génération qu'on a acheté. Et si dans les jeux c'est pas top, dans le domaine Pro c'est bien pire.
Et je souligne qu'AMD ne s'est pas amélioré sur les générations RDNA contrairement à ce qu'on raconte. Ils ont été dégommés sur les générations GCN à tort, et actuellement je trouve qu'on est trop bons avec eux.

par Jemporte, le Dimanche 10 Septembre 2023 à 13h31  
par Un ragoteur des lumières au Québec, le Dimanche 10 Septembre 2023 à 00h41
Pardon mais même NVidia est à la traîne dans les jeux avec RT à fond. La seule carte qui vaut réellement la peine pour jouer avec le tout au max c'est une carte à 1600$+. Sauf si tu réduis la résolution ou l'intensité du RT.
...
Pardon mais sans technologie de Supersampling, tes jeux seront médiocres avec Ray Tracing ! On n'est pas encore rendu là! Et oui les tests en Rastérisation sont toujours pertinents
Entre RT+DLSS en 4k et 4k raster sans rien, j'ai tendance à penser que les joueurs préfèrent le RT+DLL en 4K (c'est à dire du 2K avec RT optimisé en 4K). Quand l'image bouge, on remarque pas les détails du 4K comme sur une image fixe, mais l'impression d'être en 4K rendue par le DLS (supersampling optimisé ) compte (sur un écran 4k). Le DLSS optimise aussi l'intégration du RT dans le raster. Tout ça vaut sur les écran 1440p et les cartes moins puissantes.
Il y a 4 ans j'aurai dit (je disais même) l'inverse, mais le hardware et les pilotes se sont amélioré et les fabricants de jeu ont orienté tous leurs jeux dans ce sens.
Le RDNA3 n'a pas de tensor cores mais des accélérateurs pour les calculs matriciels. Ca permet de prendre en charge ce que fait le DLSS de Nvidia, mais pas les vrais calculs AI. En fait on est dans la langue de bois chez AMD et Nvidia sur ce point. Nvidia a des tensors cores qu'il détourne pour faire du supersmapling et optimiser l'image, et appelle ça à tort de l'IA. Et AMD a des accélérateurs matriciels dédiés à l'amélioration d'image, qu'ils appellent à tort des accélérateurs IA. Pour ce qui est des tensors cores dédiés aux calculs IA professionnels, et qui se chiffrent en TFlops supplémentaires, AMD n'en a pas.
par Un ragoteur des lumières au Québec, le Dimanche 10 Septembre 2023 à 00h47  
Pour faire le point, j'ai pris l'exemple de la 4060Ti et de la 4700Ti parce que ces cartes sont les plus représentatives de ce qui risque de se retrouver dans la tour de Monsieur Madame Toutlemonde.
Pas dans celle du 1% pour qui 1600$ représente du petit change !
par Un ragoteur des lumières au Québec, le Dimanche 10 Septembre 2023 à 00h41  
par Jemporte, le Samedi 09 Septembre 2023 à 21h59
Oui sauf que les Tflops sont sur CUDA vs cores sans RT chez AMD. Si on ajoute le RT, Nvidia laisse sur place AMD ?
Pardon mais même NVidia est à la traîne dans les jeux avec RT à fond. La seule carte qui vaut réellement la peine pour jouer avec le tout au max c'est une carte à 1600$+. Sauf si tu réduis la résolution ou l'intensité du RT.
par Jemporte, le Samedi 09 Septembre 2023 à 21h59
? , et alors si on y ajoute les tensor cores absents chez AMD c'est...
En as-tu d'autres affirmations fausses comme celle-ci pour que je te reprenne ??
par Jemporte, le Samedi 09 Septembre 2023 à 21h59
En fait là, dans ces Tflops on compare un demi-GPU Nvidia avec un quasi-GPU complet AMD.
Demi GPU chez NVidia?? Peux-tu préciser ? Je ne suis pas devin, je ne lis pas dans tes pensées !
par Jemporte, le Samedi 09 Septembre 2023 à 21h59
C'est pour ça qu'AMD ne s'en sort qu'en usage sans DLSS ou équivalent et uniquement dans les jeux, en raster. On peut se poser la question, si aujourd'hui, c'est le critère d'usage de référence d'une carte vidéo.
Je pense que ce n'est plus vrai.
Je rapporte à ma première intervention.
Tu trouves ça jouable 13 fps en 4k avec RT, sans DLSS sur une RTX4600 Ti ou 22 fps avec une RTX4700 Ti dans Cyberpunk?
Ou bien 27 FPS en 4k avec RT, sans DLSS. Ou 36.8 fps dans Elden Ring avec les mêmes cartes mentionnées ci-dessus ?
Pardon mais sans technologie de Supersampling, tes jeux seront médiocres avec Ray Tracing ! On n'est pas encore rendu là!Et oui les tests en Rastérisation sont toujours pertinents
par Jemporte, le Samedi 09 Septembre 2023 à 21h59  
par Un ragoteur qui aime les BX au Québec, le Vendredi 08 Septembre 2023 à 17h16
Tertio, RTX4700 Ti (40.1 TFlops en boost), TRX4700 non-ti (29.1 TFlops), RX7800XT (37.32 Tflops) toutes ces données sont en simple virgule flottante en boost. La RX7800XT vient se positionner pile entre la 4700 et la 4700Ti en 4K.
RTX4800 (48.8 Tflops), RX7900XT (51,61 Tflops), les deux cartes en boost et elles ont des performances très proches. Certes les cartes d'AMD sont un peu moins performantes si on compare leurs "puissances brutes en Tflops" et leurs FPS. Si on compare le FPS pour le Prix, c'est clairement à l'avantage d'AMD !!! source
Oui sauf que les Tflops sont sur CUDA vs cores sans RT chez AMD. Si on ajoute le RT, Nvidia laisse sur place AMD, et alors si on y ajoute les tensor cores absents chez AMD c'est...
En fait là, dans ces Tflops on compare un demi-GPU Nvidia avec un quasi-GPU complet AMD. Et comme précisé, de plus, les pilotes Nvidia semblent tirer mieux parti de cette puissance de calcul.
C'est pour ça qu'AMD ne s'en sort qu'en usage sans DLSS ou équivalent et uniquement dans les jeux, en raster. On peut se poser la question, si aujourd'hui, c'est le critère d'usage de référence d'une carte vidéo.
Je pense que ce n'est plus vrai.