COMPTOIR
register

Test • Crossfire de RX 480 vs GTX 1070

• La déception !

defunes gif"Grrrrrr euh !" Nous voici au terme de cet article que vous nous aviez suggéré au travers des ragots. Pour montrer tout l'intérêt des RX 480 en WQHD, beaucoup arguaient qu'il suffisait d'en mettre deux en Crossfire et que le tour était joué pour faire mieux qu'une 1070. Malheureusement, nous ne partageons pas le même enthousiasme à la suite de cet article qui fera pleurer voire rager certains, assurément.

 

Belote : support aléatoire et stuttering moins aléatoire

Si on fait un petit bilan basé sur notre expérience passée ou présente, on sait que deux cartes consomment et chauffent davantage plus qu'une seule (plus La Palice tu meurs). On sait aussi que les pilotes sont souvent en retard pour aider à la prise en charge des jeux fraîchement sortis. Notre article montre que même sur des titres majeurs, le Crossfire n'est pas forcément actif, soit 4/18 (soit 22% du panel tout de même) dans notre cas.

 

D'autres titres scalent très peu ou mal, au final on a des moyennes de 40 et 52% en Full HD et WQHD. Si c'est toujours ça de pris, ça ne justifie certainement pas un investissement doublé.

 

Ensuite, il y a ce satané stuttering et là, c'est quand même pénible si on veut se régaler tellement il est présent. Certes il est presque absent sur 9 jeux, mais sur 9 autres il va de modéré à pénible. À vrai dire il faut se souvenir que les moteurs de rendu 3D actuels sont variés, mais utilisent souvent des techniques de rendus différés rendant l'usage du Multi-GPU de plus en plus complexe et donc extrêmement chronophage. La gestion du stuttering par les deux grands AMD et NVIDIA est, qui plus est, compliquée, le caméléon l'avait pris en compte depuis fort longtemps avec son Frame Metering ce qui avait conduit les rouges à l'imiter avec une technique similaire nommée Frame Pacing.

Ca reste un travail de suivi régulier pour maintenir la qualité au fil du temps (NVIDIA s'est par exemple retrouvé limité en haute définition par le débit de ses connecteurs SLi avant l’avènement de Pascal). Car ne nous y trompons pas, ce n'est pas le procès du seul AMD, mais aussi celui de NVIDIA qui subit les mêmes difficultés au final. Les moteurs ont pris cette orientation et il sera difficile de remédier aux inconvénients inhérents au multiGPU, que l'on soit en DX11 ou DX12 d'ailleurs. Pourquoi DX12 nous direz-vous ? Parce que les développeurs devront écrire le code spécifiquement pour chaque architecture et faire à la main le boulot d'optimisation que faisaient les pilotes via les équipes en charge. Et on pense que ces développeurs de jeux préféreront allouer leurs forces dans l'écriture de code qui touche un maximum de cartes graphiques plutôt que de perdre du temps dans du multiGPU qui est très loin d'être une pratique généralisée (il suffit de regarder les déboires sous AOTS avant le patch 1.30).

 

Dans cette optique, nous comprenons l'orientation certes controversée, mais pas dénuée d'opportunisme et finalement logique du caméléon. Ce dernier en supprimant le SLi de la GTX 1060 officialise certainement des raisons économiques pour favoriser le GP104 au lieu du GP106, mais il est probablement conscient que le SLi est compliqué à gérer en 2016 avec les moteurs actuels. Et s'il a commencé par réduire le nombre de cartes le prenant encore en charge (plus de SLi supérieur à 2 cartes, sauf exception benchmark, ben ouais, faut pas pousser quand même), il y a fort à parier qu'à terme il soit de plus en plus élitiste et ne constituera plus un élément marketing moteur de vente comme peuvent l'être les environnements logiciels qui permettent d'améliorer le rendu de scène (Gameworks et toutes ses déclinaisons, GPUOpen, etc.) . Mais ce ne sont que des suppositions, en tout état de cause, nous avons des éléments immédiats pour répondre à la question posée.

 

Rebelote : ça vaut le coup, du coup ?

Clairement non, ça ne vaut pas le coup de prendre deux RX 480 fussent-elles modifiées pour éviter d'acheter une GTX 1070 elle aussi customisée ! Il y a d'abord l'aspect financier, deux cartes RX 480 aujourd'hui coûtent plus qu'une seule GTX 1070, on se base uniquement sur des cartes personnalisées, les plus pertinentes dans les 2 cas. Ensuite, les performances des cartes en monoGPU restent bien plus solides en toutes circonstances, le stuttering est inexistant aujourd'hui chez AMD comme NVIDIA. asus rx480 strix ocElle est belle ma Strix ! Dans ces conditions de test, nous avons largement préféré nous satisfaire d'une seule RX 480 dans les jeux en 1080p, que de deux même si les framerates moyens étaient en hausse, et ce à cause du stuttering bien trop présent. Au-delà de ce point majeur, deux fois plus de cartes = deux fois plus de soucis ! Plus de chaleur à dégager, alimentation plus solide à avoir pour encaisser, donc exit en gros les modèles de moins de 600 W...

 

Pour ceux qui ne veulent jouer qu'avec les Radeon, la Strix nous a donné grande satisfaction et c'est une excellente carte qui fait le boulot pour lequel elle a été conçue, et qui le fait très bien, mais à un prix conséquent. Il va falloir soit se payer une RX 480 custom ou une autre de génération passée du même calibre, soit attendre Vega toujours planifié pour début 2017 aux dernières nouvelles officielles. On peut aussi penser que les Crimson arriveront à régler ces problèmes de stuttering, mais la question est de savoir si ça sera vraiment le cas et surtout dans combien temps ? Jusqu'au "prochain nouveau jeu" ? Et à nouveau corrigé dans des délais raisonnables ? Et quid de la prise en charge de ces problèmes par les développeurs eux-mêmes ? Vu l'ancienneté des titres touchés, et en dépit du fait que ce sont des titres AAA, on peut légitimement en douter. Ceux qui voyaient le calcul d'ajouter une autre carte dans quelque temps, une fois passée la crise des prix, nous leur souhaitons tout le courage du monde devant cette aventure pleine de rebondissements qui les attend. Nous partions vraiment plein d'espoir, et nous fûmes douchés !

 

bogdanov multigpu

Finalement le multiGPU, ça ne fait pas toujours la paire !

 

Et 10 de der !

Pour conclure, il ne vous aura pas échappé que notre plateforme de test était basé sur du LGA1151, référence actuelle en mainstream, exactement le même créneau que la RX 480. Nous connaissons les limites du multiGPU sur ce genre de matériel, surtout depuis qu'AMD a abandonné le pont CF pour une gestion logicielle par les lignes PCIe. Mais il ne semble pas du tout pertinent de penser qu'il fallait tester sur du LGA2011V3 Enthusiast qui offre au minimum du 16x + 8x lignes à pleine vitesse. Tout d'abord deux cartes mainstream sur une plateforme Enthusiast, cela sonne faux, c'est incohérent. Sur ce genre de puces Haswell-E et Broadwell-E, on place généralement des cartes plus "assorties". Ensuite, bien que ça mouline mieux niveau stuttering sur LGA2011 V3, nous ne conseillons pas de passer sur cette plateforme pour deux RX 480, par contre passer à 16Go de RAM centrale sera plus pertinent. Si vous en avez 8, il faudra songer à en acheter, ce qui déséquilibrera encore plus la balance financière en faveur d'une carte calibrée monoGPU qui s'en satisfait de 8 pour le moment et sans sourciller. En deux mots comme en mille, nous ne conseillons pas 2 RX 480 à la place d'une GTX 1070, ou même de toute autre carte monoGPU calibrée pour la définition de votre moniteur chéri.

 


Nous remercions naturellement tous les partenaires qui nous ont prêté du matériel nécessaire à l'élaboration de cet article !

gigabyte 40 gskill 40 intel 40 kingston 40 asus 40



Un poil avant ?

Trois nouvelles boiboites chez Jonsbo, les MOD1, MOD1-Mini et VR1

Un peu plus tard ...

Mise à jour du logiciel TriXX de SAPPHIRE en version 6.0.0

Les 55 ragots
Les ragots sont actuellement
zone limitée - permis de ragotage requisouverts aux ragoteurs logués
par Janus31, le Dimanche 16 Octobre 2016 à 11h15  
par seb4771 le Dimanche 28 Août 2016 à 21h56
Perso si seulement dx12 POUVAIT faire comme prévu, ma 5970 (bi-gpu et performance brute énorme)serait un boost en puissance GPU pour les jeux et même plus besoin d'avoir un GPU haut de gamme derrière.

Dans un monde parfait, ce serait le top... mais vu notre monde, j'ai de gros doute
La 5970 est dx11, donc laisse tomber
par Thibaut G., le Dimanche 04 Septembre 2016 à 19h27  
@xvince1 : le coup de rajouter la carte, tout est expliqué dans la page 2. Ensuite on a bien compris l'intérêt du CF, sauf que niveau scaling, tu es entre 40 et 53% pour 100% du prix, et ce n'est pas du tout rentable. Entre ça et la chauffe, il vaut mieux à notre avis revendre la carte et passer sur du monOGPU plus solide dans quelques années, . Le stuttering existe et on l'a bien vu, et franchement il vaut mieux une carte RX 480 avec un ecran Freesync que un CF de RX 480 sur un écran "simple". Bref on a fait le tour de la question et on ne le conseille pas. on ne conseille pas plus la GTX 1070, on a choisi celle-ci parce que c'est celle qui revenait dans les commentaires. Mais on le dit en conclusion, GTX 1070 ou toute autre carte calibrée pour la définition de ton écran, AMD ou Nvidia.
par xvince1, le Dimanche 04 Septembre 2016 à 18h20  
@ Thibaut G.

- Le CFX est peut-être un marché de niche, mais il existe
- Pour l'UHD, c'est +/- vrai vu que toutes les solutions actuelles gèrent le VSR/DSR en UHD, ce qui veut dire que c'est accessible à n'importe quel gus équipé en FHD
- Une RX480 est taillée pour ce que l'utilisateur veut faire de sa puissance : perso, je préfère parfois monter la réso et baisser les détails, et je préfère encore plus me payer les titres avec un an de retard pour disposer de versions patchées correctement, sans attendre 6 mois pour avoir les DLC (et je constate qu'on est quelqu'uns dans ce cas là )
- Perso, je m'en fous qu'un CFX tape une 1070, l'intérêt du CFX, c'est de commencer avec une carte pas cher, et d'en prendre une seconde plus tard encore moins cher en occaze
- Pour le stuttering, sur la majeure partie des titres auxquels je joue, j'en vois pas. ce n'est pas représentatif certe, mais perso, j'ai pu aussi constater du stuttering en mono-GPU en moddant skyrim par exemple. En réduisant les paramètres (solution multi-GPU comprises) ça disparaissait. Le stuttering est plus ou moins lié aux transferts PCIe, et c'est pourquoi on le constate + souvent en multiGPU, mais si les cartes sont bien dotées en Vram, sans y aller comme un boeuf, on peut quand même monter la réso avec des très bons framerates. Après, comme le dit Aluncard, la vraie question, c'est la prise en charge par le driver, et une affaire de goût...
par seb4771, le Dimanche 28 Août 2016 à 21h56  
par Aluncard le Dimanche 28 Août 2016 à 09h24
Tout à fait, cela ne m'étonne pas qu'nVidia veuillent bloquer la possibilité pour mixer des GPU de marques différentes (mode explicite non-lié )(je ne cnnais pas le point de vue de AMD). Mais je ne pense pas qu'nVidia serait contre faire un multiGPU avec 2 mêmes cartes nVivida (mode explicite à noeud lié ). Ce que je voulais dire, c'est qu'à l'heure actuelle il faut attendre des drivers pour permettre le Cross ou le SLI avec deux même cartes, mais qu'avec DX12/Vulkan qui "exposent" le multiGPU, on peut imaginer qu'un moteur de jeux puissent activé le mode explicite lié (à minimum de pouvoir en activer d'autre).
Perso si seulement dx12 POUVAIT faire comme prévu, ma 5970 (bi-gpu et performance brute énorme)serait un boost en puissance GPU pour les jeux et même plus besoin d'avoir un GPU haut de gamme derrière.

Dans un monde parfait, ce serait le top... mais vu notre monde, j'ai de gros doute
par Vaark, le Dimanche 28 Août 2016 à 19h35  
Merci pour le test !
par Thibaut G., le Dimanche 28 Août 2016 à 18h21  
par Mathieu G. le Dimanche 28 Août 2016 à 08h19
Evidement. Sur qu'en 2016 gerer une ligne sur 2 sera pas la meilleure solution en terme d'optimisation de la charge gpu
En fait, à l'époque des 3DFX la géométrie était calculée par le CPU ce qui simplifiait d'autant le multiGPU, ce n'est que plus tard que le GPU s'en est chargé avec la GeForce 256 qui est d'ailleurs la première carte dont le processeur a porté ce nom (GPU) du fait de ses nouvelles capacités (T&L).
par Aluncard, le Dimanche 28 Août 2016 à 09h24  
par seb4771 le Dimanche 28 Août 2016 à 08h36
NON, Nvidia ne VEUT pas de toute façon une possibilité de mixer des GPU et on sait très bien que TOUT sera fait pour bloquer la moindre solution par des procédé + ou - légaux si il faut.
Les pilotes hybride nvidia/ati étaient pourtant excellent, les verts on tout fait pour les tuer (jusqu'à la menace physique... hallucinant pour une multinationale tout de même).

Perso j'attends de voir si il sera possible de mettre ma 5970 en plus de ma r9 280x pour gagner un énorme boost en puissance de calcul.

Sur le papier, c'est entièrement possible voir même une excellente solution, dans la réalité pour le moment, PAS DU TOUT, sauf pour avoir + d'écrans... autant avoir un 2eme gpu - gourmand dans ce cas là pour ça.
Tout à fait, cela ne m'étonne pas qu'nVidia veuillent bloquer la possibilité pour mixer des GPU de marques différentes (mode explicite non-lié )(je ne cnnais pas le point de vue de AMD). Mais je ne pense pas qu'nVidia serait contre faire un multiGPU avec 2 mêmes cartes nVivida (mode explicite à noeud lié ). Ce que je voulais dire, c'est qu'à l'heure actuelle il faut attendre des drivers pour permettre le Cross ou le SLI avec deux même cartes, mais qu'avec DX12/Vulkan qui "exposent" le multiGPU, on peut imaginer qu'un moteur de jeux puissent activé le mode explicite lié (à minimum de pouvoir en activer d'autre).
par seb4771, le Dimanche 28 Août 2016 à 08h36  
par Aluncard le Samedi 27 Août 2016 à 18h04
Je vais peut être optimiste, mais avec DX12/Vulkan, ne serais t'il pas possible que de prochain moteur de jeux intègre nativement le multiGPU ? (je vois pas pourquoi ça ne pourrait être le cas)
NON, Nvidia ne VEUT pas de toute façon une possibilité de mixer des GPU et on sait très bien que TOUT sera fait pour bloquer la moindre solution par des procédé + ou - légaux si il faut.
Les pilotes hybride nvidia/ati étaient pourtant excellent, les verts on tout fait pour les tuer (jusqu'à la menace physique... hallucinant pour une multinationale tout de même).

Perso j'attends de voir si il sera possible de mettre ma 5970 en plus de ma r9 280x pour gagner un énorme boost en puissance de calcul.

Sur le papier, c'est entièrement possible voir même une excellente solution, dans la réalité pour le moment, PAS DU TOUT, sauf pour avoir + d'écrans... autant avoir un 2eme gpu - gourmand dans ce cas là pour ça.
par Mathieu G., le Dimanche 28 Août 2016 à 08h19  
par Thibaut G. le Samedi 27 Août 2016 à 14h17
c'était surtout une époque où les jeux étaient simples à gérer, gestion d'une ligne sur deux par chaque carte
Evidement. Sur qu'en 2016 gerer une ligne sur 2 sera pas la meilleure solution en terme d'optimisation de la charge gpu
par JeSersARien, le Dimanche 28 Août 2016 à 07h27  
par Thibaut G. le Samedi 27 Août 2016 à 14h24
Même pour mon chien j'en veux pas du multiGPU à la suite de cet article, quand tu goutes à du monoGPu et que tu flanques derrière un écran adaptive Sync, c'est le bonheur et ça coûte autant que 2 RX 480 sur un écran "normal".
Voila
du coup, si t'as une carte en trop, je veux bien te débarrasser.
par Aluncard, le Samedi 27 Août 2016 à 18h04  
@Thibaut : Pour le stuttering je crois avoir compris pourquoi je ne le vois pas, j'ai le freesync, ça doit expliquer.

Juste à titre de témoignage, si je peux me permettre, j'en suis très content de mon cross de RX, le principal c'est que chacun y trouve son compte. Même si c'est vrai que je ne serais pas forcément parti sur cette solution si il y avait pas eu de grosse promo à la période où je les ai achetées.

Je vais peut être optimiste, mais avec DX12/Vulkan, ne serais t'il pas possible que de prochain moteur de jeux intègre nativement le multiGPU ? (je vois pas pourquoi ça ne pourrait être le cas)
par Thibaut G., le Samedi 27 Août 2016 à 14h24  
@Aluncard

- déjà le crossfire est un marché de niche, et en UHD on frise la poignée de gens en France !
- une RX 480 est taillée pour le Full HD, on pense que 2 en 1440p ça le fait encore, mais en UHD, super si c'est pour être meilleur qu'une GTX 1070 de 5% mais sur des moyennes anorexiques, ça sert à rien sauf à se pignoler sur des chiffres
- déjà que le stuttering est là en Full HD, et plus marqué encore en WQHD, en UHD j'ose même pas imaginer le carnage.
- les autres articles font ce qu'ils veulent, nous on a pris le parti de dire qu'il y a les moyennes d'un côté, et les inconvénients de l'autre dont le stuttering. Ce sujet est rarement abordé dans les articles multiGPU, j'imagine que c'est pour ménager la chèvre et le chou auprès des fournisseurs de matériel.
- Du stuttering dans les jeux, il y en a, et on a testé des titres AAA en très grande partie, franchement représentatifs. Même pour mon chien j'en veux pas du multiGPU à la suite de cet article, quand tu goutes à du monoGPu et que tu flanques derrière un écran adaptive Sync, c'est le bonheur et ça coûte autant que 2 RX 480 sur un écran "normal".
Voila