Test • RADEON R9 Fury X |
————— 14 Juillet 2015
Test • RADEON R9 Fury X |
————— 14 Juillet 2015
Alors que penser du lancement de Fiji et de la première carte qui l'emploie, à savoir la RADEON R9 Fury X ? En fait, plutôt du bien même si tout cela mérite d'être nuancé et qu'on ne peut s'empêcher d'éprouver une mini déception du fait de caractéristiques si alléchantes sur le papier et qui ont parfois du mal à se retrouver en pratique dans certaines situations.
La Fury X, nouvelle carte haut de gamme d'AMD !
NVIDIA a réussi avec sa gamme Titan un joli tour de force : augmenter largement sa marge en donnant la primeur du GPU haut de gamme à ces cartes avant de le décliner quelques mois plus tard dans des versions moins élitistes. Certes cela reste un marché de niche mais nul doute qu'il est rentable. De quoi donner des idées et envies à son concurrent qui lance ainsi la gamme Fury pour tenter de se faire lui aussi une petite place dans ce marché. Et il faut reconnaître qu'AMD s'est donné les moyens d'y entrer en soignant très largement son bébé qui dispose enfin de finitions haut de gamme, d'un refroidisseur high tech (si on omet les faux pas des pompes que l'on espère ponctuels et réellement en passe de résolution ainsi que les températures élevées de l'étage d'alimentation) et d'un GPU innovant puisque le premier à utiliser une mémoire très prometteuse.
Cette dernière est incontestablement l'avenir et une grande réussite puisqu'elle permet d'augmenter drastiquement la bande passante mémoire tout en diminuant de manière conséquente la consommation nécessaire, mais aussi la complexité des contrôleurs mémoires et PCB des cartes graphiques. Certes elle est encore limitée à l'heure actuelle à des capacités et fréquences restreintes, mais dès l'an prochain elle devrait prendre son essor. Sa conception résulte d'un vrai travail de fond entre Hynix et AMD, en particulier dans la mise au point d'un élément clef, l'interposer. Reste que cet avantage technique est une chose, être en mesure d'en tirer tous les bénéfices afin de devancer le compétiteur en est une autre comme AMD vient d'en faire l'amère expérience.
Car une carte graphique ne se résume pas à sa mémoire, aussi prometteuse et révolutionnaire soit-elle. En effet, les performances en jeu résultent également d'un savant équilibre de sa pièce maîtresse, le GPU, et de la capacité à en tirer le meilleur par le biais des pilotes. Force est de constater que malheureusement pour AMD, sa puce de près de 9 milliards de transistors et 600mm² ne parvient pas à détrôner le GM200 de son concurrent, qui dispose en sus d'une consommation moindre et d'une marge d'overclocking sans comparaison. Il parait clair que GCN qui est de la même "génération" que Kepler, commence à montrer ses limites et peine à concurrencer Maxwell, remarquable d'efficience. Pour ne rien arranger, AMD avait probablement anticipé l'utilisation du procédé de gravure 20nm pour la fabrication du GPU accompagnant cette première génération de HBM, cela lui aurait probablement permis un budget en transistors supérieur afin d'équilibrer davantage sa puce (Shader Engine doublés). Mais les contraintes de fabrication sont les mêmes pour les 2 concepteurs et NVIDIA a bien dû faire avec lui aussi. C'est d'autant plus regrettable qu'à priori Fiji coûte plus cher à produire ce qui ne laisse en conséquence pas énormément de marges de manoeuvre pour ajuster le placement.
Toutefois la faible production des cartes et leur disponibilité délicate prouvent qu'AMD parvient à les vendre à ce tarif, il est donc peu probable qu'il y ait un ajustement tarifaire notable dans l'immédiat. On comprend dès lors mieux le besoin de renommer les 290X en 390X : proposer en volume un modèle haut de gamme tentant de capitaliser sur l'image avant-gardiste apportée par Fiji. Reste que ce faisant, le concepteur doit jongler entre les arguments : Le gain de performance est somme toute restreint face à Hawaii, le rapport performance/prix souvent évoqué par AMD en pâtit donc. 4 Go n'est pas pénalisant sur la Fury X, mais c'est insuffisant pour la concurrence face aux 8 Go de la 390X... De quoi devenir chèvre ! Le résultat n'est pas mauvais en soi, avec 30% de gains par rapport à une 290X alternative tout en conservant le même procédé de gravure, on a déjà vu pire et nul doute que si la Fury X était sortie avant GM200, peu auraient trouvé à y redire, d'autant que le ratio performances/prix est moins crucial en haut de gamme.
Le problème est en grande partie dû à l'attente démesurée que certains ont pu se faire des prestations du produit, bien encouragés il faut le dire par le département marketing très limite de la société. Certes on n'attend pas de ce dernier qu'il écrive "ne perdez pas de temps à attendre notre produit, le concurrent fait mieux !" mais à minima l'emploi d'un peu moins de superlatifs ronflants et de graphiques prenant de sérieuses libertés avec la réalité. Le concurrent ne fait pas mieux, mais est-ce une excuse pour agir ainsi ? N'oublions pas non plus la politique désastreuse d'attribution des samples nous conduisant à devoir acquérir une carte et perdre une quinzaine de jours sur d'autres médias pour vous proposer un tel test alors que la deuxième itération alias Fury vient d'être lancée (dans la pagaille encore et toujours). Nous travaillons à obtenir un exemplaire, mais il est fort probable que nous soyons à nouveau obligés de passer à la caisse pour vous proposer un test, encore une fois après la bataille, on a déjà connu plus juste comme traitement.
En guise de conclusion, force est de reconnaître que la prestation de la RADEON R9 Fury X est mitigée. Elle est capable de tutoyer les meilleurs en UHD mais s'avère décevante en FHD/QHD, ces derniers étant, malheureusement pour AMD, les plus adaptés aux jeux actuels pour celui qui voudra éviter de faire trop de compromis, souvent mal nécessaire au jeu en définition plus élevée. Il reste la possibilité de compenser ce problème en passant au multi-GPU, mais les 4 Go de mémoire qui ne constituent pas un handicap, pourraient alors le devenir en haute résolution. La consommation n'explose pas comme on pouvait le craindre, même si elle s'avère là-aussi moins performante dans ce domaine que sa concurrente désignée. La température du GPU est sous contrôle, mais celle de l'étage d'alimentation beaucoup moins. La carte est peu bruyante, mais de nombreux exemplaires dont le nôtre sont affectés par un sifflement de la pompe. C'est tout le contraste de cette carte qui souffle le chaud et le froid à tout niveau, performances y compris. Si l'on dépasse cela, il reste une réelle prouesse des équipes d'AMD au niveau de l'ensemble GPU/HBM/Interposer qu'on ne peut que féliciter. Par contre, on achète rarement une technologie mais un produit duquel on attend une prestation. A 710€, le tarif la place en concurrence frontale avec la GTX 980 Ti qui s'avère davantage tout-terrain, consomme moins, s'overclocke davantage. Cela fait beaucoup dans la balance, toutefois si votre préférence va pour les rouges et/ou que vous jouez en UHD, nul doute qu'elle fera votre bonheur. Vu le lancement des Fury, il est également opportun de vérifier si ces dernières ne s’avéreront pas plus pertinentes en définitive, nous tâcherons de vous apporter notre avis dès que possible. Pour l'heure, nous attribuons l'Argent à cette R9 Fury X qui restera comme la carte ayant introduit la HBM sans réussir à détrôner toutefois le GM200 du concurrent. Enfin, l'avènement du 16nm l'an prochain permet d'imaginer des cartes terriblement performantes, poussant à réfléchir à deux fois avant d'investir dans un très haut de gamme en 2015 et ce quelle que soit la couleur...
Nous remercions naturellement nos partenaires pour la mise à disposition du matériel de test, et nous mêmes pour nos achats, parce qu'on le vaut bien té !
|
Un poil avant ?Microsoft veut un événement mondial pour la sortie de Windows 10 | Un peu plus tard ...Un peu de gameplay pour Star Wars Battlefront |