COMPTOIR
  
register

Moufles o'clock : Navi sous la forme de deux Radeon RX 3000 XT ?

On a pas mal entendu parler de Navi le mois dernier, de son ajout au support de HWINFO en passant par les rumeurs d'une puce toujours articulée autour de l'architecture GCN, et sans oublier l'apparition d'une photo d'un mystérieux PCB avec GDDR6 présumé comme pouvant être celui de l’intéressé. Mais les choses seraient sérieusement en train de se concrétiser, à condition  bien sûr d'accorder de la crédibilité à la rumeur du jour, l'une des premières pour Navi en ce magnifique mois de mai (où il aura tout de même encore neigé et gelé dans certaines régions du pays. Le bonjour d'Alsace).

 

Alors, que nous susurre-t-on de beau dans les oreilles ? Eh bien, grâce à WCCftech et Tweaktown, on apprend que de Navi il y en aurait au moins deux (comme les Sith, toujours par deux ils vont), une RX 3090 XT et une RX 3080 XT, respectivement du Navi 20 et Navi 10. Mais avant plus de maux mots, voici d'abord un p'tit tableau !

 

Radeon NAVIRX 3080 XTRX 3090 XT
Navi ? 7nm Navi 10 7nm Navi 20
CUs ? 56 64
Mémoire ? 8Go GDDR6 16Go GDDR6
TDP ? 190W

>190W ?

(bawi !)

Prix ? 330$ 499$
Concurrent(s) ?

RTX 2070

(500-600€)

puis Ampere 7nm (?)

RTX 2080

(700-800€)

puis Ampere 7nm (?)

Période de Lancement ?

Présentation au Computex ?

Lancement à l'E3 2019 ?

Dispo automne 2019 ?

Présentation au Computex ?

Lancement à l'E3 2019 ?

Dispo vers 2020 ?

 

Évidemment, rien de tout ceci n'est à prendre pour argent comptant, n'oublions pas qu'il s'agit essentiellement d’informations collectées de derrières les rideaux, et on sait que ça peut parfois partir un peu dans tous les sens; après tout, NVIDIA avait bien mené son monde par le nez en laissant croire pendant un moment aux GeFORCE 11XX pour la relève des GTX 1000. Certes, les habitudes des deux firmes ne sont pas non plus exactement les mêmes à cet égard, quoi qu'il en soit on gardera tout de même nos moufles avec pincettes argentées comme Edward.

 

En tout cas, les quelques caractéristiques ainsi dévoilées nous paraissent assez crédibles, et si celles-ci pouvaient effectivement permettre à Navi de bien d'arriver au niveau des concurrents désignés, les tarifs supputés seraient alors aussi particulièrement agressifs - sans que l'on sache encore ce qu'il en serait exactement du ray tracing pour Navi, si ce n'est la rumeur du DXR pour Navi 20. Et puis ce serait ainsi aussi bien sous la barre des 699$ de la Radeon VII comme annoncé par Lisa Su le 1er mai. Certains apprécieront peut-être aussi le retour du suffixe "XT", un peu tombé en désuétude pour les dénominations commerciales des GPU depuis quelques années déjà. Oui, une RX 560 XT a bien existé en Chine, mais on repensera surtout aux X1900XT(X) et HD2900XT(X) d’antan avec un brin de nostalgie, en espérant toutefois que Navi n’honorera pas l'héritage de sèche-cheveux des 2 prédécesseurs, particulièrement la X1900XT.

 

Et finalement, le choix d'opter pour une gamme Radeon 3000 paraîtrait forcément très judicieux et cohérent, bien calculé pour du marketing croisé et pour capitaliser sur l'aura de Ryzen en général, et des Ryzen 3000 en particulier. De là à dire qu'AMD voudrait promouvoir ses Radeon RX 3000 XT Navi comme ses premières Ryzen du GPU, il n'y a qu'un pas...Ça resterait tout de même un bon point pour la cohésion de l'ensemble du catalogue AMD. Mais peu importe l'emballage, tant que la sauce est bonne. Bref, y'a plus qu'à attendre !

 

amd radeon navi montage

Un poil avant ?

Ryzen en 5 nm, ça donnerait quoi ?

Un peu plus tard ...

Du bios pour Zen 2 aussi chez ASRock, le chipset A320 finalement seulement "Picasso Ready" ?

Les 35 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par TwoFace, le Jeudi 09 Mai 2019 à 16h40  
par cabou83, le Jeudi 09 Mai 2019 à 10h44
Et c'était quoi sont prix ? 649$
Fiji est une exception du à l'attente du 16/14nm il était rentable de faire un die aussi gros simplement car le 28nm avait déjà 4 ans derrière lui. En 2011 AMD a juste sortie la HD7970 qui était 2x plus petite.
Et en Europe 710 euros mais vu la pénurie les premières cartes étaient dans les 739 euros
Mais vu les prestations franchement y avait pas de quoi sauter au plafond !!, surtout avec un AIO pour être 10% inférieur à la GTX 980 Ti de l'époque .
Et à sa sortie les GTX 980 Ti était moins cher avec des cartes sous les 680 euros..
par Thibaut G., le Jeudi 09 Mai 2019 à 13h25  
par cabou83, le Jeudi 09 Mai 2019 à 10h44
Et c'était quoi sont prix ? 649$
Fiji est une exception du à l'attente du 16/14nm il était rentable de faire un die aussi gros simplement car le 28nm avait déjà 4 ans derrière lui. En 2011 AMD a juste sortie la HD7970 qui était 2x plus petite.
649$, exactement le même MSRP que la GTX 980 Ti au passage
par Guillaume L., le Jeudi 09 Mai 2019 à 11h53  
du calme messieurs, la tension monte un peu trop là, on souffle un coup et on évite que ça vire aux attaques perso ou à la mauvaise foi rapidement
par HaVoC, le Jeudi 09 Mai 2019 à 11h26  
par cabou83, le Jeudi 09 Mai 2019 à 10h44
Et c'était quoi sont prix ? 649$
Fiji est une exception du à l'attente du 16/14nm il était rentable de faire un die aussi gros simplement car le 28nm avait déjà 4 ans derrière lui. En 2011 AMD a juste sortie la HD7970 qui était 2x plus petite.
La 980 Ti était plus performante, impossible pour eux de faire payer plus, et tu ne m'as pas répondu pour la tarif du FX à son époque qui était le processeur le plus performant de son époque ?

Quand tu as la puce la plus performante tu peux te permettre les tarifs qui vont avec (si y a un écart de performance assez conséquent avec le reste).

Tu crois qu'AMD c'est une oeuvre de charité ou quoi ? Nvidia avec le 12 nm et un process ultra mature ils font à peu près la même chose, faire de très grosses puces qui sont tout de même rentables, sauf comme il n' y a pas de concurrence ou presque, ils sont libre de fixer le tarif comme ils l'entendent ...
par cabou83, le Jeudi 09 Mai 2019 à 10h44  
par HaVoC, le Jeudi 09 Mai 2019 à 01h04
Fiji en 2015 c'est quoi sa surface ?

596 mm²

Si AMD était en position dominante rien ne dit qu'ils ne finiraient pas par sortir une puce à tel tarif ...

C'était quoi le tarif de leurs processeurs FX à l'époque des A64 ?
Et c'était quoi sont prix ? 649$
Fiji est une exception du à l'attente du 16/14nm il était rentable de faire un die aussi gros simplement car le 28nm avait déjà 4 ans derrière lui. En 2011 AMD a juste sortie la HD7970 qui était 2x plus petite.
par HaVoC, le Jeudi 09 Mai 2019 à 01h04  
par cabou83, le Mercredi 08 Mai 2019 à 07h46
AMD n'a jamais fais de die énorme qui coûte plus de 1000 balle pour le client et n'en fera surement jamais.
Fiji en 2015 c'est quoi sa surface ?

596 mm²

Si AMD était en position dominante rien ne dit qu'ils ne finiraient pas par sortir une puce à tel tarif ...

C'était quoi le tarif de leurs processeurs FX à l'époque des A64 ?
par HaVoC, le Jeudi 09 Mai 2019 à 00h53  
par Un ragoteur bio en Île-de-France, le Mercredi 08 Mai 2019 à 15h38
WCCftech dit de façon spéculative que Navi 10 aura des unités Raytracing parce que la PS5 en aura un, mais jamais il n'a été déclaré officiellement un chose pareille. Sony a déclaré que son GPU, très proche de Navi 10, aura des unités raytracing qu'ils ont mis au point en commun avec AMD. Or les PS ou Xbox ont toujours eu des GPU sur commande, jamais LE GPU utilisé dans les PC, même s'il leur ressemblait. Ils parlent aussi d'un circuit Audio 3D toute aussi spécifique (les sons seront générés en fonction de leur source par raytracing acoustique) spécifique à la console et qui pourrait être inclu dans la GPU [...]
Sony a déclaré que la PS5 "supporterait" le RayTracing, "support", ce qui veut absolument RIEN dire, ça peut très bien être un support logiciel comme, la démo de Crytek "neon noir" sans aucune accélération propre au RayTrcing, ou des unités dédiés comme les RT Cores etc

Le moteur de rendu Audio, c'est retour du TrueAudio qu'on avait vu mais pas exploité par le passé dans CGN ... de l'audio RayTracé et puis quoi encore ? .

Et l'affirmation comme quoi Sony a collaboré avec AMD pour la mise au point d'unité dédiée au raytracing, ça sort d'où encore ça ? Pas du communiqué de Sony en tout cas ...
par Sarge, le Mercredi 08 Mai 2019 à 16h34
Euh.. question : le RayTracing est prévu sur Navi en version GPU PC ? Car, on le sait, la "PS5" aura du RayTrace (et probablement aussi la prochaine Xboite), mais sur PC.. on est sûr de l'information là ??
Comme plus haut, faudrait déjà savoir ce qu'entend sony par "Support" du Raytracing ...
par TwoFace, le Mercredi 08 Mai 2019 à 22h53  
par Carbon13, le Mercredi 08 Mai 2019 à 17h26
Les 16Go de la Vega VII sont logiques pas du point de vue de la quantité de mémoire mais de la bande passante : si je me souviens bien, utiliser 8Go de ram ou autre aurait eu pour effet soit une bp coupée en deux ou un interposer très complexe/coûteux à mettre en place. Il y a fort à parier que doubler la quantité de HBM était bien plus intéressant niveau coût que ce soit en R&D ou pour l'interposer, tout en rendant la carte plus "future-proof". Il faut pas croire que ce sont des imbéciles non plus, ils font ce qu'ils peuvent avec le budget R&D d'AMD.
Edit: Et la structure d'accélération pour le Ray Tracing prend pas mal de place, déjà que certains jeux utilisent pleinement les 8Go de mémoire (même si en général c'est du streaming de données "en avance" ) . BFV + RT surcharge les 6Go de la RTX 2060 par exemple.
La Vega VII n'avait pas le choix parce qu'en fait c'est la version pro identique sauf les pilotes et le bridage sur les FP 64 et moins d'unité de calcul ils ont pris juste des rebus et hop une carte gamer c'est magique

Pour Navi 16 go je ne vois aucun intérêt , il est prouvé qu'en 1440p c'est du vent et à part le 4K aucun intérêt, surtout que le gpu ne sera pas assez puissant à cette résol dans les jeux les plus gourmands..
par Cristallix, le Mercredi 08 Mai 2019 à 20h57  
par Un champion du monde en Île-de-France, le Mercredi 08 Mai 2019 à 18h13
Oui mais sur Navi 20. Sur Navi 10, on n'est pas sûr, et même tout indique le contraire. Le principe de Navi 10 et 12 c'est : moins de fonctionnalités (pas de FP16, 64, mais le maximum de compute units et de cache pour les gérer, en plus du VRS (affichage de qualité variable selon le zones et les images pour favoriser les FPS et conserver des FPS réguliers - techno déjà présente et utilisée sur les RTX de Nvidia), pour avantager les jeux et le compute tant que ça demande rien sortant du standard 32 bits flottants. On peut même imaginer que AMD a dégradé la qualité de ses FP32 en précision à l'image ne Nvidia pour accélérer tout ça. Donc mon avis, c'est qu'il n'y a pas d'unités spécialisés en raytrace sur Navi 10 et 12 mais au mieux un pilote qui va en faire en utilisant les unités standard.
Dégradé la qualité de quoi ? Il faut tenir des specs hein. Le bricolage qui a déjà été vu c'était en jouant sur les possibilité de l'api via le pilote. Ça a été vu puis la triche a été supprimée. Donc aucun risque là-dessus.
par Un champion du monde en Île-de-France, le Mercredi 08 Mai 2019 à 18h13  
par Sarge, le Mercredi 08 Mai 2019 à 16h34
Euh.. question : le RayTracing est prévu sur Navi en version GPU PC ? Car, on le sait, la "PS5" aura du RayTrace (et probablement aussi la prochaine Xboite), mais sur PC.. on est sûr de l'information là ??
Oui mais sur Navi 20. Sur Navi 10, on n'est pas sûr, et même tout indique le contraire. Le principe de Navi 10 et 12 c'est : moins de fonctionnalités (pas de FP16, 64, mais le maximum de compute units et de cache pour les gérer, en plus du VRS (affichage de qualité variable selon le zones et les images pour favoriser les FPS et conserver des FPS réguliers - techno déjà présente et utilisée sur les RTX de Nvidia), pour avantager les jeux et le compute tant que ça demande rien sortant du standard 32 bits flottants. On peut même imaginer que AMD a dégradé la qualité de ses FP32 en précision à l'image ne Nvidia pour accélérer tout ça. Donc mon avis, c'est qu'il n'y a pas d'unités spécialisés en raytrace sur Navi 10 et 12 mais au mieux un pilote qui va en faire en utilisant les unités standard.
par Un champion du monde en Île-de-France, le Mercredi 08 Mai 2019 à 18h03  
par Carbon13, le Mercredi 08 Mai 2019 à 17h26
Les 16Go de la Vega VII sont logiques pas du point de vue de la quantité de mémoire mais de la bande passante : si je me souviens bien, utiliser 8Go de ram ou autre aurait eu pour effet soit une bp coupée en deux ou un interposer très complexe/coûteux à mettre en place. Il y a fort à parier que doubler la quantité de HBM était bien plus intéressant niveau coût que ce soit en R&D ou pour l'interposer, tout en rendant la carte plus "future-proof". Il faut pas croire que ce sont des imbéciles non plus, ils font ce qu'ils peuvent avec le budget R&D d'AMD.
Edit: Et la structure d'accélération pour le Ray Tracing prend pas mal de place, déjà que certains jeux utilisent pleinement les 8Go de mémoire (même si en général c'est du streaming de données "en avance" ) . BFV + RT surcharge les 6Go de la RTX 2060 par exemple.
Non mais 16Go sur la Radeon VII c'est totalement justifié pour les raisons qu'on connait (bande passante x2, taille parfaite par rapport au GPU, avantage des 16Go en fait une carte bonne pour longtemps...). Par contre sur Navi 20, en sachant que la bande passante va devoir profiter d'un bus plus gros (512 ?) pour rattraper, et que les 16Go vont consommer sensiblement plus que la HBM2 qui consomme quasiment rien, le choix, hormis des raisons économiques TRES avantageuses, me parait handicapant. Navi 20 est un GPU lesté par rapport au Radeon VII ! AMD mettra peut-être de la HBM2 sur les versions Instinct et Pro.
par Carbon13, le Mercredi 08 Mai 2019 à 17h26  
par TwoFace, le Mercredi 08 Mai 2019 à 12h12
Sinon pour en revenir à la news !!! mouais c'est du WCC donc rien d'intéressant au final, à part de la branlette intello .
En prime ils vont refaire la connerie de 16go pour une carte qui sera destinée au vu de la puissance à du 1440p ?
Après je serais curieux de voir si les tarifs sont TTC ou pas, et surtout s'il y aura une gestion hardware du raytracing hybride.
Les 16Go de la Vega VII sont logiques pas du point de vue de la quantité de mémoire mais de la bande passante : si je me souviens bien, utiliser 8Go de ram ou autre aurait eu pour effet soit une bp coupée en deux ou un interposer très complexe/coûteux à mettre en place. Il y a fort à parier que doubler la quantité de HBM était bien plus intéressant niveau coût que ce soit en R&D ou pour l'interposer, tout en rendant la carte plus "future-proof". Il faut pas croire que ce sont des imbéciles non plus, ils font ce qu'ils peuvent avec le budget R&D d'AMD.
Edit: Et la structure d'accélération pour le Ray Tracing prend pas mal de place, déjà que certains jeux utilisent pleinement les 8Go de mémoire (même si en général c'est du streaming de données "en avance" ) . BFV + RT surcharge les 6Go de la RTX 2060 par exemple.