COMPTOIR
  
register

×

Battlefield 1

Test • RADEON RX VEGA 64
Battlefield 1
Screen Deus Ex : Mankind Divided

• Battlefield 1

Cette franchise est la référence des fps multijoueurs en ligne. Après le 4, voici fort logiquement le 1. Il se base sur la 1re guerre mondiale avec de sérieuses libertés concernant certains événements retranscrits à l'aide du Frostbite 3.5. On pointera du doigt l'absence d'armée française initiale dans le jeu alors que le théâtre des opérations se déroule pour une très large part en France. Quelques cours d'histoire n'auraient probablement pas fait de mal aux développeurs de DICE à moins qu'il ne s'agisse encore une fois que d'un choix politique d'EA pour faire apparaître une faction américaine eu égard aux nombres d'acquéreurs éventuels respectifs, mais totalement incohérent d'un point de vue pertinence vis-à-vis du conflit reproduit ici.

 

Des DLC ont fait réapparaître nos vaillants poilus puis les Russes, également grands oubliés de cette WW1 selon DICE (tout comme nos amis belges et canadiens qui ont tous pris part à ce conflit bien avant les USA), mais on garde un sale goût en bouche de cette réécriture de l'histoire, fut-elle au sein d'un "simple" jeu vidéo ! Ça mérite un bon carton rouge à minima ! Revenons au test, toutes les options sont poussées à leur niveau maximum et couplées au TAA, on regrettera d'ailleurs la disparition du MSAA 4X, certes plus gourmand, mais plus efficace aussi. Le jeu est maintenu à jour via Origin et nous utilisons un déplacement reproductible au sein de la campagne O Vittoria et nous reportons les scores du mode DX12 pour chaque carte.

 

Battlefield 1 [cliquer pour agrandir]

Eh ben voilà, j'avais bien dit d'utiliser de l'Hélium et non de l'hydrogène pour le zeppelin !

 

Depuis l'abandon du MSAA avec ce moteur, les RADEON dominent via le mode DX12. La nouvelle venue propose donc 6% de mieux que la 1080 FE en QHD, son avance se tassant à 2% en UHD.

 

 

 

• Deus Ex : Mankind Divided

Cinquième opus de la saga Deus Ex, l'histoire de Mankind Divided prend place 2 ans après les événements de Human Revolution. Dans un univers Cyberpunk, on retrouve les questions philosophiques concernant l'évolution de l'homme au travers de nos sociétés informatisées et "l'augmentation" mécanique des corps humains pour un jeu mêlant RPG et infiltration. Pour animer tout cela, Eidos Montréal s'est appuyé sur le Dawn Engine, moteur 3D propriétaire qui trouve ses origines au sein du Glacier d'IO Interactive. À l'origine DX11, un patch lui a ouvert la compatibilité DX12, point amélioré par les versions suivantes. Le jeu est maintenu à jour via STEAM, nous utilisons le preset Maximum mais nous abaissons les textures sur "élevées" afin de ne pas pénaliser la Fury X ne disposant que de 4 Go de mémoire et supprimons tout MSAA véritable gouffre à performance. Nous testons les cartes à l'aide du benchmark intégré dans le mode le plus performant pour chacune d'entre elles.

 

Screen Deus Ex : Mankind Divided [cliquer pour agrandir]

C'est juste une fuite d'huile m'sieur l'agent !

 

Encore un jeu ayant la faveur des rouges, toutefois c'est plus difficile pour la RX VEGA64 qui doit faire face à une GTX 1080 revancharde, qui ne concède que 3% en QHD et revient à niveau en UHD.

 

 

Un petit tour sur les routes boueuses du pays de Galles page suivante !



Un poil avant ?

ASUS, B350, TUF : trio gagnant pour cette carte µATX

Un peu plus tard ...

Kikalapluptite ? Une mini GTX1080 chez Gigabyte

Les 44 ragots
Les ragots sont actuellement
ragots réservés aux QI élevésouverts aux ragoteurs logués
par Eric B., le Samedi 16 Septembre 2017 à 17h30  
Désolé pour la perte de données, c'est toujours délicat lorsque l'on doit faire un changement imprévu. Pour ta question au niveau de la conso, c'est en fait beaucoup plus, j'ai noté par exemple 236 W au niveau du GPU seul dans GPU-Z, alors que la consommation totale de la carte approchait 309 W.
par Armand Raynal, le Samedi 16 Septembre 2017 à 11h34  
Sinon j'ai reçu ma carte. J'ai du installer windows 10 car pas de driver w8, très chiant. Comme un con j'ai même réussi à paumer quelques données importantes dans l'opération.

j'ai installé le morpheus 2 dessus donc et j'ai eu pas mal de chance on dirait avec ma puce. Fabriquée à taiwan avec epoxy d'ailleurs.

J'ai pas testé grand chose comme jeu alors c'est pas 100% validé. Juste dishonored 2, crysis 3, shadow warrior 2 et 3dmark(11000 et quelques de graphic score). Et sous crysis 3 à certain point de vue la mémoire se downlock sévèrement, pourtant les temps et la conso sont basses.

1% d'OC sur le core, 1V tout rond sur le p6, p7 et la hbm aussi, qui elle mouline à pas moins de 1100mhz. 2% d'OC sur le core ni 1110mhz sur la hbm ne sont stables sur crysis 3 avec ce voltage. C'est stable jusqu'à 3% sous dishonored 2 mais la carte tourne des fois un peu en dessous de sa fréquence max, je pige pas bien pourquoi, ptet encore limitée par la bande passante(la limite de conso est à +20%).

D'après GPUz elle consome dans les 200w sur crysis 3 avec cet UV/OC, ~180 sur dishonored 2, core uniquement. Faut rajouter dans les 20 watts pour la conso de la carte complète non ?
par Armand Raynal, le Jeudi 14 Septembre 2017 à 20h47  
par Thibaut G., le Mercredi 06 Septembre 2017 à 18h55
@canalguada : aucune réponse bloquée de notre part par personne de l'équipe. un bug venant de chez toi à priori, mais pas d'action de notre part en ce sens, pas de déviance stp dans tes propos
Il a peut être vécu le coup de la déconnexion auto que j'ai moi même subit bon nombre de fois. Et reporté plus d'une fois. Je le refais encore une fois :

Lorsqu'on poste sur une page ouverte depuis un bon moment y'a des chances pour qu'on ait été déco automatiquement, y'a rien qui l'indique, et lorsqu'on appuie sur 'et paf le ragot' y'a pas de message d'erreur ni rien, tout se passe comme si on était co, la boite avec le message disparait, à l'exception qu'évidemment le message n'est pas posté. Et il est du coup englouti dans les couloirs du temps les limbes du comptoir.

C'est très, très, très, très énervant de voir un pavé s'évaporer. Ca fait au moins 2 ans que j'expérimente ce problème, maintenant je ne poste plus sans c/c mon message avant par paranoia de l'écrire pour rien. Jdis ça jdis rien mais ça pourrait faire un beau cadeau de noel par exemple de régler ça
par Thibaut G., le Mercredi 06 Septembre 2017 à 18h55  
@canalguada : aucune réponse bloquée de notre part par personne de l'équipe. un bug venant de chez toi à priori, mais pas d'action de notre part en ce sens, pas de déviance stp dans tes propos
par Eric B., le Mercredi 06 Septembre 2017 à 16h55  
Mais de quoi parles-tu à la fin ? Désolé mais ton message est à la limite de ma capacité de compréhension ce soir tel que formulé. Pour commencer aucune réponse de ta part n'a été bloquée de notre côté à ma connaissance ! Ensuite il va falloir m'expliquer ce que tu appelles troller dans le message que tu cites, qui me parait pourtant courtois.

Les résultats sont ceux que j'ai mesurés avec les conditions indiquées, et oui ils me paraissent cohérents. Les gains moyens sur une carte graphique ne sont jamais la somme des augmentations respectives de fréquence GPU et mémoire, en toute logique. Après nous sommes d'accord que cela ne concerne que ce jeu testé pendant la séance rapide d'oc, mais il ne me semble pas avoir écrit le contraire.

par canalguada, le Mercredi 06 Septembre 2017 à 16h15  
par Eric B., le Lundi 04 Septembre 2017 à 15h46
Pas sûr de bien comprendre ce que tu veux dire, je récapitule : en undervoltant le GPU la fréquence de ce dernier progresse de 72 MHz (au mieux puisqu'elle fluctue comme écrit soit +4.79% max). La mémoire est overclockée de 6.87% (945 => 1010) et nous gagnons 4.8% de perfs dans The Witcher 3 en QHD ce qui est pour le coup cohérent. Pour la conso nous mesurons celle de la carte seule, autrement plus fiable que la config complète au wattmètre et elle ne bouge pas ou presque dans ce cas.
Pourquoi commenter et avoir bloqué ma réponse expliquant ce qui pouvait être déduit sans troller ? Parler de "cohérence", notamment sur cette proportion de 4,8%, alors que l'impact de la limite de température finit lui guère évalué poussant ou pas fréquence, ou comme si la fréquence de la mémoire comptait peu, c'est juste de la poudre aux yeux.

L'objectif du (long, oui) protocole semblant lui fournir de meilleurs compromis est précisément aussi de s'assurer d'avoir minimisé cet impact, évaluant gains réels, pas supposés juste parce qu'une fréquence moyenne aura progressé.
par Sciroccu, le Mardi 05 Septembre 2017 à 17h19  
Très bon test, merci c'est très instructif.
Disons qu'AMD a sorti des cartes pour enfin concurrencer le segment haut de gamme.
A des prix publics sans doute peu intéressants pour eux mais histoire d'être présent.
Il leur sera quand même difficile d'en vendre des wagons. A ces prix là généralement les gens se renseignent bien avant d'acheter et les cartes semblent moins intéressantes globalement que leurs homologues de chez Nvidia (pas plus perfs et bcp de points négatifs à côté ). L'écart entre les deux marques semble plus important que sur les segments entrée et milieu de gamme.
Tous les espoirs reposent sur la Rx vega 56 je suppose. Si elle arrive réellement à se positionner entre une 1070 et une 1080 pourquoi pas. Mais les Vega arrivent bien tard de toute façon. Beaucoup de gens (moi le premier) n'ont malheureusement pas attendu et l'année et quelques mois de ventes ratées (par rapport aux 1070/80) ne se rattrapera pas.
Il aurait fallu un produit exceptionnel sur au moins un point (performances ou prix je suppose) pour espérer combler un peu le retard de commercialisation.
Une génération qui ne fera sans doute pas date chez AMD.
par -------------------, le Mardi 05 Septembre 2017 à 08h46  
par jln, le Mardi 05 Septembre 2017 à 08h35
La 1060 n'est certainement pas 45% plus performantes qu'une 970
15% tout au plus.
La GTX 1060 est au niveau d'une GTX980 donc oui une gros 10% en plus

Le test
par Eric B., le Mardi 05 Septembre 2017 à 08h41  
par Jte Roule D3ssus, le Mardi 05 Septembre 2017 à 08h20
Bruyante au repos, une réacteur d'avion en charge, 300Watt de consommation ..... et le tout pour se retrouver parfois avec des performance digne d'une 1060GTX et souvent d'une 1070GTX.
Ce bide !

Une petite section VR serait bienvenu dans vos test pour savoir ce que vaut la carte
Faut pas tomber dans l'exagération non plus hein ! Elle n'est pas bruyante au repos et elle est quand même largement au-dessus d'une GTX 1060 (cf. perf de la RX 580) en moyenne, certes. Pour la VR on est pas équipé mais tu trouveras le test Blue room de VRMark en page 16 pour te faire une idée.
par jln, le Mardi 05 Septembre 2017 à 08h35  
par darktanker89, le Mardi 05 Septembre 2017 à 08h19
280-300€ ouai après un temps, je me rappel très bien des 370-400€ payés à l'époque.
Après si tu benchmarks les cartes sur leurs noms plutot que sur leur perf forcément ça donne un résultat bidon.
Perso quand j'achète une carte je me contrefiche qu'elle s'appelle x60 ou x70 ou trololilol90.
Je regarde ce que j'ai besoin en terme de perf en tenant compte du budget.
Ca te trouerait tellement le cul d'acheter une 1060 pour le prix d'une 970 (et encore..) sachant qu'elle te donne +45% sur une gen? C'est énorme.
Si même monsieur veut son prada/louboutains ou va-t-on?
La 1060 n'est certainement pas 45% plus performantes qu'une 970
15% tout au plus.
par Jte Roule D3ssus, le Mardi 05 Septembre 2017 à 08h20  
Bruyante au repos, une réacteur d'avion en charge, 300Watt de consommation ..... et le tout pour se retrouver parfois avec des performance digne d'une 1060GTX et souvent d'une 1070GTX.
Ce bide !

Une petite section VR serait bienvenu dans vos test pour savoir ce que vaut la carte
par darktanker89, le Mardi 05 Septembre 2017 à 08h19  
par jln, le Mardi 05 Septembre 2017 à 06h52
Une "bonne cuvée" mais qui se fait payer le prix fort aussi ....
Une 970 pouvait se trouver 280-300€, soit le prix d'une 1060 6Go... la 1070 est difficilement trouvable sous 360-380€ hors promo... le prix de la 1080 reste élevé et la 1080ti est clairement cher (pas de concurrence)
..
280-300€ ouai après un temps, je me rappel très bien des 370-400€ payés à l'époque.
Après si tu benchmarks les cartes sur leurs noms plutot que sur leur perf forcément ça donne un résultat bidon.
Perso quand j'achète une carte je me contrefiche qu'elle s'appelle x60 ou x70 ou trololilol90.
Je regarde ce que j'ai besoin en terme de perf en tenant compte du budget.
Ca te trouerait tellement le cul d'acheter une 1060 pour le prix d'une 970 (et encore..) sachant qu'elle te donne +45% sur une gen? C'est énorme.
Si même monsieur veut son prada/louboutains ou va-t-on?