COMPTOIR
  
register

Test • RADEON RX VEGA 64

• Verdict

Alors que penser de cette première carte employant VEGA 10, à savoir la RX VEGA64 ? Après avoir "joué" avec un modèle du commerce durant une bonne semaine, c'est un sentiment de déception qui prédomine, inutile de se le cacher ! Bien-sûr, tout n'est pas à jeter comme nous allons le détailler, il n'empêche que toute cette attente régulièrement entretenue par AMD, pour arriver à un tel résultat, laisse songeur quant à la pertinence de la communication déployée par le concepteur de GPU. Il est bien légitime de générer l'envie pour vendre, c'est toutefois une arme à double tranchant quand les espoirs ainsi créés ne sont pas comblés, car il faut bien avouer que l'envie de retrouver enfin une saine concurrence, pousse à espérer toujours plus du challenger. C'est en tout cas bon pour le choix des consommateurs de le voir en capacité de proposer plus que Polaris, même si on en attendait davantage !

 

Gamme VEGA

Alors, une équipe gagnante ?

 

• VEGA 10

VEGA 10

Que ce fut long pour voir enfin arriver un successeur à Fiji qui assurait le haut de gamme d'AMD depuis près de 22 mois, autant dire une éternité dans le microcosme informatique. VEGA 10, gravé à l'instar des 2 Polaris par GlobalFoundries en 14 nm LPP, inaugure la HBM 2 sur une carte grand public (déjà usitée par NVIDIA sur ses cartes pro). Alors que les précédentes réalisations d'AMD accusaient un sérieux retard sur la concurrence en terme de fréquence, le nouveau venu s'avère beaucoup plus coopératif à ce niveau, comblant une grande partie du gap. C'est un bon point, malheureusement la consommation explose elle-aussi, et par effet de bord la température de la puce, qu'il faut maintenir sous contrôle. Ce n'est pas une mince affaire, et cela induit une baisse drastique de la fréquence la plupart du temps, avec un refroidisseur tel celui du modèle de référence. Le plus gros souci de VEGA 10 provient de ses performances ludiques (et nous insistons sur ce point puisque nous testons une carte gaming, le GPU ayant par contre de jolis atouts dans un contexte pro) qui ne progressent pas assez depuis Fiji, pour concurrencer efficacement Pascal.

Avec une telle taille de die et HBM 2 (et donc les coûts de production associés), on s'attendait à une confrontation serrée avec GP102, mais il n'en est rien. Le niveau de performance atteint péniblement celui d'un GP104 bien plus petit, et cela dans les jeux utilisant une API bas niveau (davantage en capacité d'exploiter les ressources d'une telle puce), loin d'être une majorité. Ce n'est pas sans poser de réels soucis, GCN qui reste le fondement de l'architecture (même si commercialement renommée en NCU), commence à accuser sérieusement le poids des ans. Une refonte prend du temps, surtout si les moyens financiers ne sont pas énormes, comme c'est le cas d'AMD. Il reste juste à espérer, une fois de plus, que le successeur sera plus brillant. Terminons par les points positifs du nouveau venu : si son efficacité ludique et énergétique est plus que discutable, sa flexibilité ne l'est pas ce qui en fait une puce capable de se comporter très efficacement avec d'autres types de tâches, ce qui ne manquera pas d'en intéresser certains. Ajoutons que l'apport du FP16 à double vitesse et la prise en charge complète du niveau de spécifications DX12_1, tendent à lui donner un avantage en termes de pérennité supputée. Tout cela dépendant bien entendu de l'adoption qui en sera faite par les développeurs (idem pour les Primitive Shader), l'histoire montrant qu'il est malheureusement rare qu'une technologie s'impose, si elle n'est pas partagée par les 2 grands acteurs du GPU.

 

 

• RADEON RX VEGA64

Quid de la carte en elle-même ? Traitons tout d'abord le point le plus complexe, à savoir la tarification : officiellement, elle est positionnée à 499 $ HT pour la version nue et 599 $ HT pour la version incluant Prey + Wolfenstein 2 ainsi qu'une réduction si achat simultané d'une carte X370 haut de gamme et d'un Ryzen 7 1700X/1800X. Ce lot pourra en intéresser certains, même si les cartes mères éligibles sont en nombre restreint et toutes onéreuses. La version nue se positionne de son côté théoriquement en face des GTX 1080 premiers prix, aux alentours des 500 € en boutique. C'est effectivement le cas pour certains modèles, parfois... En fait, pour atteindre ce tarif, AMD applique pour ce lancement une "promotion" baissant le tarif d'une centaine d'euros sur certaines cartes et chez certains revendeurs.

 

Toute la question est de savoir si cette tarification restera en l'état comme l'annonce AMD, ou si le tarif appliqué dans quelques semaines sera celui des cartes les plus onéreuses actuellement, soit aux alentours de 600 €, ce qui la rendrait de facto plus onéreuse que la GTX 1080, pourtant préférable sur plus d'un point... Car il ne faut pas se leurrer, ce n'est pas de gaieté de cœur qu'AMD aligne le tarif de la RX VEGA64 sur celui de la GTX 1080, mais bien par pertinence vis-à-vis des prestations ludiques proposées. Si le coût de revient de chaque carte est difficile à connaitre précisément, jalousement gardé par les constructeurs, il est inutile d'être dans le secret des dieux pour comprendre qu'une RX VEGA64 coûte bien plus cher à produire qu'une GTX 1080, du fait d'un GPU 55% plus grand, du surcoût lié à l'interposer, l'étage d'alimentation plus complexe et d'une HBM 2 probablement (bien) plus chère que la GDDR5X.

 

Si on s'attache plus précisément aux prestations cette fois, les cartes sont relativement proches avec une API de bas niveau (DX12 ou Vulkan), ce n'est pas le cas avec DX11 où la GTX 1080 prend un ascendant notable. Ce n'est pas une généralité, mais une tendance, en partie due à l'inconstance des résultats de la RX VEGA64. Est-ce du fait de pilotes nécessitant de mûrir quelque peu ? Probablement pour certains titres, il est toutefois peu probable de voir la situation se retourner complètement à l'avenir du fait des seuls pilotes (sauf énorme surprise). Si par contre de nombreux titres adoptent les spécificités de VEGA 10, cela pourrait lui donner l'avantage, mais là-aussi, en se basant sur l'histoire passée, cette éventualité semble à nouveau peu probable (mais pas totalement impossible, AMD ayant réussi le tour de force de faire adopter des API de bas niveau suivant les contours de sa propre architecture).

 

Finissons par les désagréments liés à cette carte de référence : on peut faire l'impasse sur une consommation élevée si elle est bien traitée, difficile de dire que c'est le cas ici : la turbine devient réellement bruyante au bout de quelques minutes de jeu et la température atteinte va également impliquer une baisse de fréquence et donc des performances. C'est au moins un motif d'espoir pour les cartes customs qui seront mieux loties à ce niveau, mais consommeront probablement plus aussi, en toute logique ! Reste qu'il est difficile de trouver de réels arguments permettant de préférer cette RX VEGA64 de référence à une GTX 1080 dans un contexte purement gaming, qui est l'objet de ce dossier. La possession d'un écran Freesync en est un, car cela induirait un surcoût par trop important, pour basculer dans l'autre camp. Un usage mixte travail (avec des applications tirant parti de VEGA 10) / jeu, peut éventuellement en être un autre. Nous réservons notre avis sur les modèles customs qui pourraient s'avérer plus pertinents et nous mettrons à jour ce dossier dès que nous aurons mis la main sur une VEGA56, bien plus pertinente à priori !


Logo Asus Logo G Skill logo Intel gigabyte 40 bequiet 40

Nous remercions naturellement nos partenaires pour la mise à disposition du matériel de test


 



Un poil avant ?

ASUS, B350, TUF : trio gagnant pour cette carte µATX

Un peu plus tard ...

Kikalapluptite ? Une mini GTX1080 chez Gigabyte

Les 44 ragots
Les ragots sont actuellement
ragots réservés aux QI élevésouverts aux ragoteurs logués
par Eric B., le Samedi 16 Septembre 2017 à 17h30  
Désolé pour la perte de données, c'est toujours délicat lorsque l'on doit faire un changement imprévu. Pour ta question au niveau de la conso, c'est en fait beaucoup plus, j'ai noté par exemple 236 W au niveau du GPU seul dans GPU-Z, alors que la consommation totale de la carte approchait 309 W.
par Armand Raynal, le Samedi 16 Septembre 2017 à 11h34  
Sinon j'ai reçu ma carte. J'ai du installer windows 10 car pas de driver w8, très chiant. Comme un con j'ai même réussi à paumer quelques données importantes dans l'opération.

j'ai installé le morpheus 2 dessus donc et j'ai eu pas mal de chance on dirait avec ma puce. Fabriquée à taiwan avec epoxy d'ailleurs.

J'ai pas testé grand chose comme jeu alors c'est pas 100% validé. Juste dishonored 2, crysis 3, shadow warrior 2 et 3dmark(11000 et quelques de graphic score). Et sous crysis 3 à certain point de vue la mémoire se downlock sévèrement, pourtant les temps et la conso sont basses.

1% d'OC sur le core, 1V tout rond sur le p6, p7 et la hbm aussi, qui elle mouline à pas moins de 1100mhz. 2% d'OC sur le core ni 1110mhz sur la hbm ne sont stables sur crysis 3 avec ce voltage. C'est stable jusqu'à 3% sous dishonored 2 mais la carte tourne des fois un peu en dessous de sa fréquence max, je pige pas bien pourquoi, ptet encore limitée par la bande passante(la limite de conso est à +20%).

D'après GPUz elle consome dans les 200w sur crysis 3 avec cet UV/OC, ~180 sur dishonored 2, core uniquement. Faut rajouter dans les 20 watts pour la conso de la carte complète non ?
par Armand Raynal, le Jeudi 14 Septembre 2017 à 20h47  
par Thibaut G., le Mercredi 06 Septembre 2017 à 18h55
@canalguada : aucune réponse bloquée de notre part par personne de l'équipe. un bug venant de chez toi à priori, mais pas d'action de notre part en ce sens, pas de déviance stp dans tes propos
Il a peut être vécu le coup de la déconnexion auto que j'ai moi même subit bon nombre de fois. Et reporté plus d'une fois. Je le refais encore une fois :

Lorsqu'on poste sur une page ouverte depuis un bon moment y'a des chances pour qu'on ait été déco automatiquement, y'a rien qui l'indique, et lorsqu'on appuie sur 'et paf le ragot' y'a pas de message d'erreur ni rien, tout se passe comme si on était co, la boite avec le message disparait, à l'exception qu'évidemment le message n'est pas posté. Et il est du coup englouti dans les couloirs du temps les limbes du comptoir.

C'est très, très, très, très énervant de voir un pavé s'évaporer. Ca fait au moins 2 ans que j'expérimente ce problème, maintenant je ne poste plus sans c/c mon message avant par paranoia de l'écrire pour rien. Jdis ça jdis rien mais ça pourrait faire un beau cadeau de noel par exemple de régler ça
par Thibaut G., le Mercredi 06 Septembre 2017 à 18h55  
@canalguada : aucune réponse bloquée de notre part par personne de l'équipe. un bug venant de chez toi à priori, mais pas d'action de notre part en ce sens, pas de déviance stp dans tes propos
par Eric B., le Mercredi 06 Septembre 2017 à 16h55  
Mais de quoi parles-tu à la fin ? Désolé mais ton message est à la limite de ma capacité de compréhension ce soir tel que formulé. Pour commencer aucune réponse de ta part n'a été bloquée de notre côté à ma connaissance ! Ensuite il va falloir m'expliquer ce que tu appelles troller dans le message que tu cites, qui me parait pourtant courtois.

Les résultats sont ceux que j'ai mesurés avec les conditions indiquées, et oui ils me paraissent cohérents. Les gains moyens sur une carte graphique ne sont jamais la somme des augmentations respectives de fréquence GPU et mémoire, en toute logique. Après nous sommes d'accord que cela ne concerne que ce jeu testé pendant la séance rapide d'oc, mais il ne me semble pas avoir écrit le contraire.

par canalguada, le Mercredi 06 Septembre 2017 à 16h15  
par Eric B., le Lundi 04 Septembre 2017 à 15h46
Pas sûr de bien comprendre ce que tu veux dire, je récapitule : en undervoltant le GPU la fréquence de ce dernier progresse de 72 MHz (au mieux puisqu'elle fluctue comme écrit soit +4.79% max). La mémoire est overclockée de 6.87% (945 => 1010) et nous gagnons 4.8% de perfs dans The Witcher 3 en QHD ce qui est pour le coup cohérent. Pour la conso nous mesurons celle de la carte seule, autrement plus fiable que la config complète au wattmètre et elle ne bouge pas ou presque dans ce cas.
Pourquoi commenter et avoir bloqué ma réponse expliquant ce qui pouvait être déduit sans troller ? Parler de "cohérence", notamment sur cette proportion de 4,8%, alors que l'impact de la limite de température finit lui guère évalué poussant ou pas fréquence, ou comme si la fréquence de la mémoire comptait peu, c'est juste de la poudre aux yeux.

L'objectif du (long, oui) protocole semblant lui fournir de meilleurs compromis est précisément aussi de s'assurer d'avoir minimisé cet impact, évaluant gains réels, pas supposés juste parce qu'une fréquence moyenne aura progressé.
par Sciroccu, le Mardi 05 Septembre 2017 à 17h19  
Très bon test, merci c'est très instructif.
Disons qu'AMD a sorti des cartes pour enfin concurrencer le segment haut de gamme.
A des prix publics sans doute peu intéressants pour eux mais histoire d'être présent.
Il leur sera quand même difficile d'en vendre des wagons. A ces prix là généralement les gens se renseignent bien avant d'acheter et les cartes semblent moins intéressantes globalement que leurs homologues de chez Nvidia (pas plus perfs et bcp de points négatifs à côté ). L'écart entre les deux marques semble plus important que sur les segments entrée et milieu de gamme.
Tous les espoirs reposent sur la Rx vega 56 je suppose. Si elle arrive réellement à se positionner entre une 1070 et une 1080 pourquoi pas. Mais les Vega arrivent bien tard de toute façon. Beaucoup de gens (moi le premier) n'ont malheureusement pas attendu et l'année et quelques mois de ventes ratées (par rapport aux 1070/80) ne se rattrapera pas.
Il aurait fallu un produit exceptionnel sur au moins un point (performances ou prix je suppose) pour espérer combler un peu le retard de commercialisation.
Une génération qui ne fera sans doute pas date chez AMD.
par -------------------, le Mardi 05 Septembre 2017 à 08h46  
par jln, le Mardi 05 Septembre 2017 à 08h35
La 1060 n'est certainement pas 45% plus performantes qu'une 970
15% tout au plus.
La GTX 1060 est au niveau d'une GTX980 donc oui une gros 10% en plus

Le test
par Eric B., le Mardi 05 Septembre 2017 à 08h41  
par Jte Roule D3ssus, le Mardi 05 Septembre 2017 à 08h20
Bruyante au repos, une réacteur d'avion en charge, 300Watt de consommation ..... et le tout pour se retrouver parfois avec des performance digne d'une 1060GTX et souvent d'une 1070GTX.
Ce bide !

Une petite section VR serait bienvenu dans vos test pour savoir ce que vaut la carte
Faut pas tomber dans l'exagération non plus hein ! Elle n'est pas bruyante au repos et elle est quand même largement au-dessus d'une GTX 1060 (cf. perf de la RX 580) en moyenne, certes. Pour la VR on est pas équipé mais tu trouveras le test Blue room de VRMark en page 16 pour te faire une idée.
par jln, le Mardi 05 Septembre 2017 à 08h35  
par darktanker89, le Mardi 05 Septembre 2017 à 08h19
280-300€ ouai après un temps, je me rappel très bien des 370-400€ payés à l'époque.
Après si tu benchmarks les cartes sur leurs noms plutot que sur leur perf forcément ça donne un résultat bidon.
Perso quand j'achète une carte je me contrefiche qu'elle s'appelle x60 ou x70 ou trololilol90.
Je regarde ce que j'ai besoin en terme de perf en tenant compte du budget.
Ca te trouerait tellement le cul d'acheter une 1060 pour le prix d'une 970 (et encore..) sachant qu'elle te donne +45% sur une gen? C'est énorme.
Si même monsieur veut son prada/louboutains ou va-t-on?
La 1060 n'est certainement pas 45% plus performantes qu'une 970
15% tout au plus.
par Jte Roule D3ssus, le Mardi 05 Septembre 2017 à 08h20  
Bruyante au repos, une réacteur d'avion en charge, 300Watt de consommation ..... et le tout pour se retrouver parfois avec des performance digne d'une 1060GTX et souvent d'une 1070GTX.
Ce bide !

Une petite section VR serait bienvenu dans vos test pour savoir ce que vaut la carte
par darktanker89, le Mardi 05 Septembre 2017 à 08h19  
par jln, le Mardi 05 Septembre 2017 à 06h52
Une "bonne cuvée" mais qui se fait payer le prix fort aussi ....
Une 970 pouvait se trouver 280-300€, soit le prix d'une 1060 6Go... la 1070 est difficilement trouvable sous 360-380€ hors promo... le prix de la 1080 reste élevé et la 1080ti est clairement cher (pas de concurrence)
..
280-300€ ouai après un temps, je me rappel très bien des 370-400€ payés à l'époque.
Après si tu benchmarks les cartes sur leurs noms plutot que sur leur perf forcément ça donne un résultat bidon.
Perso quand j'achète une carte je me contrefiche qu'elle s'appelle x60 ou x70 ou trololilol90.
Je regarde ce que j'ai besoin en terme de perf en tenant compte du budget.
Ca te trouerait tellement le cul d'acheter une 1060 pour le prix d'une 970 (et encore..) sachant qu'elle te donne +45% sur une gen? C'est énorme.
Si même monsieur veut son prada/louboutains ou va-t-on?