COMPTOIR
register

×

Battlefield V

Test • NVIDIA GeFORCE RTX 2060 & 2070 SUPER
Battlefield V
visuel DiRT Rally 2.0

• Battlefield V

Battlefield V est la suite mal nommée de Battlefield 1. Ce dernier plongeait le joueur dans l'enfer de la 1ère guerre mondiale, le nouveau venu prend place au cœur du second conflit mondial et propose comme à l'accoutumée, divers lieux variés allant de l'Allemagne à l'Afrique du Nord, en passant par les Pays-bas, la France et la Norvège. Si cette série s'est longtemps fait connaitre pour son multijoueur très développé, il propose depuis quelques années une campagne solo relativement courte et peu élaborée, mais qui subsiste à contrario de la licence concurrente (Call of Duty) dans son dernier opus. Mais revenons à BF5 qui utilise bien entendu le moteur Frostbite Engine 3.x, prenant en charge DX11 et DX12. Spécificité de cette version, un partenariat avec NVIDIA introduisant un rendu hybride rastérisation / lancer de rayons en s'appuyant sur DXR (DX12 uniquement) disponible avec Windows 10 October Update. Nous avons dédié un test express à ce sujet. Le jeu est maintenu à jour via Origin et nous sélectionnons le profil Ultra (DXR désactivé) couplé au TAA, puis nous utilisons un déplacement reproductible pour mesurer les performances.

 

Deux comptoiroscopes : à droite, nous comparons les presets graphiques, à gauche DX11 vs DX12

Battlefield V [cliquer pour agrandir]

Oh les zolis reflets!

 

Notons tout d'abord de gros changements depuis nos précédents tests. DiCE a semble-t-il basculé comme attendu le jeu sous une branche plus récente de son moteur, en conséquence, le mode DX12 s'avère cette fois nettement plus performant que DX11 sur notre séquence de test, et cela quelle que soit la carte retenue. Nous reportons donc ici les scores DX12. Si ce jeu a depuis son lancement été nettement favorable aux rouges, cette évolution réduit notablement l'avance des Radeon sur les GeForce, même si elle perdure. Les 2 SUPER apportent une grosse douzaine de pourcents de plus que les modèles homonymes, de quoi ramener la 2060S au niveau de la Vega64, sa grande sœur finissant à respectivement 6 et 11% des RTX 2080 et Radeon VII dominant le peloton.

 

 

• DiRT Rally 2.0

DiRT Rally avait été une vraie bénédiction pour les amateurs de rallye et conduite réaliste, alors que la série s'orientait de plus en plus sur le drift et une conduite très arcade devenant (très) indigeste pour certains. Sa suite a été commercialisée en février 2019 et persévère dans la même veine, pour le plus grand bonheur des amateurs de réalisme. Il s'appuie toujours sur l'Ego Engine, moteur DX11 maison, conservant dans cette version, un blending avancé qui améliore sensiblement le visuel, très agréable au demeurant. Pour les options graphiques, nous utilisons le niveau maximum couplé au MSAA 4x (sans TAA), ce titre souffrant d'un aliasing élevé sans ce dernier. Le jeu est maintenu à jour via Steam et nous utilisons le bench intégré lors d'une spéciale sur terre en Nouvelle Zélande par temps clair, sachant qu'il n'est pas possible pour l'heure de personnaliser à l'envie les lieux et conditions.

 

visuel DiRT Rally 2.0 [cliquer pour agrandir]

Rien ne tel qu'une petite ballade champêtre en BX ou presque !

 

Les GeForce profitent à plein des derniers pilotes, patch et réglages pour prendre un léger ascendant sur les Radeon, alors que c'était plutôt le contraire au lancement du jeu. Les 2 SUPER continuent de se positionner là où elles étaient attendues, la 2070S devançant même la RADEON VII.

 

 

Allons faire un petit tour dans un Montana post Apocalyptique page suivante.



Un poil avant ?

Soldes • Sapphire RX 590 Nitro+ à 187,91 €

Un peu plus tard ...

Et encore des projets AMEL en cours d'étude pour la fibre

Les 70 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur du 26 en Auvergne-Rhône-Alpes, le Samedi 06 Juillet 2019 à 09h55  
Merci beaucoup pour ce test.

Hâte de voir les Navi avec le correctif de prix s'intercaler dans tout cela.
par Reflections, le Mercredi 03 Juillet 2019 à 21h51  
Merci pour le test , toujours autant de pertinence de votre part
par BloodBrother, le Mercredi 03 Juillet 2019 à 20h17  
Et Merci pour ce dossier.
Maintenant, vous êtes les tauliers du Hardware Français alors j'espère qu'AMD, Intel, Nvidia etc. vont faire un effort pour vous fournir du matériel de prêt A temps pour des tests le plus exhaustifs possibles avec indice FPS Mini, des courbes de FPS a la "hardocp" serait le graal pour moi
En tout cas Merci.
On compte sur vous !
par Un ragoteur sans nom en Auvergne-Rhône-Alpes, le Mercredi 03 Juillet 2019 à 20h06  
c'est chaud pour AMD, Nvidia trop facile niveau gaming?
par Un ragoteur de transit en Île-de-France, le Mercredi 03 Juillet 2019 à 19h25  
Je m'attendais à un boost de fréquence ridicule histoire de faire parler et de relancer les ventes, mais Nvidia ne s'est pas moqué du monde là, le gap avec les modèles non-super est clairement pas négligeable !!
par Laitauriz, le Mercredi 03 Juillet 2019 à 18h51  
La position personnelle ne dépend pas d'une éventuelle préférence pour AMD ou Nvidia, mais de savoir si il est préférable de différencier une librairie " privée " d'un moteur optimisé pour un des concurrents. Pour moi , oui. Mais c'est une préférence. Eric a la sienne, que je comprends. Il m'a en effet informé sur l'utilisation des shaders intrinsic sur WWZ, que je ne pensais pas optimisés juste pour GCN. Quand je lis le reste de ton message, j'ai pourtant bien l'impression qu'on est d'accord sur l'essentiel, puisque tu fais bien toi même une distinction entre les deux, en disant que la librairie est désactivable, ce qui était l'objet de mon premier post.

Pour la fin, si la librairie est optimisée pour tirer parti de certaines spécifités d'une architecture, mais que tu ne peux en modifier le code source à cause d'un EULA,cela complique les choses.
par Un champion du monde en Bourgogne-Franche-Comté, le Mercredi 03 Juillet 2019 à 18h19  
par Laitauriz le Mercredi 03 Juillet 2019 à 17h57
Le contexte actuel de la discussion met en jeu une différence de position personnelle vis à vis d'une librairie. Je préfère simplement créer une distinction supplémentaire entre l'optimisation d'un moteur pour certaines cartes, et l'ajout d'une librairie d'effets qui en avantage d'autres. Selon moi , cette distinction permet un peu plus de précision quant à l'appréciation des différences de performance :
Moteur optimisé Nvidia ( jeux UE 4), moteur optimisé AMD ( WWZ ), moteur optimisé Nvidia+effets gameworks, moteur "neutre" + effets gameworks etc..
Donc je serai bien curieux de savoir où je me trompe, vu qu'il s'agit d'une discussion où l'enjeu est simplement de permettre un meilleur confort de "tri " ( subjectif), et non d'établir une vérité universelle. Mais je suis certain que tu vas m'éclairer .

Concernant la fin du message, il y a une grande différence entre être Open Source, et " Public Source" . Je te laisse chercher.
Non, ce n'est pas une différence de position personnelle car je ne suis pas plus fan d'amd que d'nvidia. Je déplore toutes les différentes pratiques destinées à tirer dans les pattes du concurrent en emmerdant l'utilisateur final.
En effet l'optimisation d'un moteur est plus dommageable pour l'utilisateur final qui ne pourra pas espérer jouer dans de bonnes conditions, contrairement à une librairie destinée à améliorer le visuel mais qui n'empêche pas de profiter du jeu si désactivée.
Je n'ai rien à éclairer, si tu n'es pas capable d'assimiler ce qu'Eric t'as expliqué, je ne vois pas pourquoi je perdrai du temps à ça
Pour ce qui est du "public source", c'est bien ce dont je parle. Et je fais bien la différence avec l'open source.
par Laitauriz, le Mercredi 03 Juillet 2019 à 17h57  
par Un hardeur des ragots en Bourgogne-Franche-Comté le Mercredi 03 Juillet 2019 à 17h15
Et pourtant on vient de t'expliquer que tu te trompes.
Par ailleurs nvidia a rendu public le code source de Gameworks. Donc c'est tout à fait la même situation que pour les shaders Intrinsic, amd pouvant optimiser pour gameworks via ses pilotes.
Le contexte actuel de la discussion met en jeu une différence de position personnelle vis à vis d'une librairie. Je préfère simplement créer une distinction supplémentaire entre l'optimisation d'un moteur pour certaines cartes, et l'ajout d'une librairie d'effets qui en avantage d'autres. Selon moi , cette distinction permet un peu plus de précision quant à l'appréciation des différences de performance :
Moteur optimisé Nvidia ( jeux UE 4), moteur optimisé AMD ( WWZ ), moteur optimisé Nvidia+effets gameworks, moteur "neutre" + effets gameworks etc..
Donc je serai bien curieux de savoir où je me trompe, vu qu'il s'agit d'une discussion où l'enjeu est simplement de permettre un meilleur confort de "tri " ( subjectif), et non d'établir une vérité universelle. Mais je suis certain que tu vas m'éclairer .

Concernant la fin du message, il y a une grande différence entre être Open Source, et " Public Source" . Je te laisse chercher.
par Un ragoteur RGB de Bretagne, le Mercredi 03 Juillet 2019 à 17h31  
par Un rat goth à l'heure en Île-de-France le Mardi 02 Juillet 2019 à 19h29
Utiliser gpubenchmark te fait perdre l'argument d'emblée
Je comprends pas que des gens utilisent ça alors qu'on a de vrais tests dispos..
moi je comprend pas que des gens utilisent QUE des test pour choisir !
nan mais ta raison les benchmark ca sert a rien!!

cette génération a des carte correcte mais y a rien de folichon a peine égaler ne suffit pas !
le gamme gtx 1xxx a + de 2 ans!
les rtx2070s sont facile 100/150€ trop chère.
par Un hardeur des ragots en Bourgogne-Franche-Comté, le Mercredi 03 Juillet 2019 à 17h15  
par Laitauriz le Mercredi 03 Juillet 2019 à 16h14
Je vois ce que tu veux dire. J'associe plutôt les optimisations Radeon de WWZ à celles des GPU Nvidia sur l'UE4 . Mais je place Gameworks dans une case à part encore .
Et pourtant on vient de t'expliquer que tu te trompes.
Par ailleurs nvidia a rendu public le code source de Gameworks. Donc c'est tout à fait la même situation que pour les shaders Intrinsic, amd pouvant optimiser pour gameworks via ses pilotes.
par Laitauriz, le Mercredi 03 Juillet 2019 à 16h14  
Je vois ce que tu veux dire. J'associe plutôt les optimisations Radeon de WWZ à celles des GPU Nvidia sur l'UE4 . Mais je place Gameworks dans une case à part encore .
par Eric B., le Mercredi 03 Juillet 2019 à 12h54  
Les cas des Rapid Packed Maths et des Shaders Intrinsics sont bien différents pour moi. Si pour le premier, c'est effectivement une feature qui est adaptable par mise à niveau hardware (c'est d'ailleurs le cas avec Turing qui gère les FP16 bien plus rapidement que Pascal), pour le second ce n'est pas la même histoire. Les instructions à traiter sont spécifiquement optimisées pour le hardware GCN (close to metal comme disent les anglophones) du fait de la proximité entre le studio et AMD, il est donc impossible de se mettre à niveau d'un point de vue hardware (sauf à copier la dite architecture).

La seule optimisation possible est software, c'est d'ailleurs ce qu'a du probablement faire NVIDIA pour limiter la casse, en interceptant les instructions au niveau du pilote pour les réagencer afin de les rendre plus adaptées/rapides sur son propre hardware. Du coup je ne vois pas bien en quoi ce serait plus sain que Gameworks, mais cela ne reste bien entendu que mon avis. A titre personnel, je trouve cela détestable d'un côté comme de l'autre, cependant ce ne sont pas des enfants de cœur, mais bel et bien 2 sociétés commerciales et tous les coups sont permis, malheureusement pour les utilisateurs des deux bords.