COMPTOIR
register

Test GPU pour Battlefield 5: un Frostbite toujours en forme !

Disponible quelques jours avant pour certains joueurs ayant consenti un peu plus à la dépense que d'autres, Battlefield 5 commence à livrer ses secrets. Tomiche lui a consacré un Twitch sur la partie solo, et s'il y a une chose qu'on ne peut pas retirer au Frostbite, c'est la beauté de ses graphismes. La physique s'améliore surtout en multi avec des destructions mais aussi des reconstructions/réparations, ce qui change un peu l'approche du jeu online. Bref les tests diront si c'est le meilleur opus depuis Battlefield 3, en tout cas nous allons nous pencher sur la partie technique et ce qui nous intéresse : comment mouline le jeu sur nos cartes graphiques, sujet de nombreuses discordes s'il en est !

 

battlefield5 logo

 

TPU a fait son test, en utilisant les derniers pilotes optimisés pour le jeu parus dans la semaine, les Crimson 18.11.1 et les Geforce 416.81. Ensuite il a choisi les 3 définitions phare, Full HD, WQHD et enfin UHD. Niveau GPU, il n'y en n'a pas 100, mais juste les plus marquants des dernières générations. En Full HD, la RX Vega 64 se place très bien devant les GTX 1080 et RTX 2070, mais derrière la GTX 1080 Ti et les RTX 2080 Series. La RX Vega 56 dans le même temps vient se positionner entre GTX 1080 et GTX 1070 Ti, donc là aussi une belle place. Dans le mainstream, la RX 580 se place juste devant la GTX 1060, pas de quoi fouetter un canard donc !

 

En WQHD, le classement est identique à celui vu en Full HD, les valeurs se resserrent, mais les GP102 et TU104/102  restent bien devant. En UHD, rien ne change avec le bon positionnement des RX Vega, sauf la Vega 56 qui vient dépasser la GTX 1080. La RX 580 glisse derrière la GTX 1060, de tellement peu que ça en est anecdotique. Au final, puisque ce test est fait en DX12, on voit que les Radeon se comportent très bien, surtout les Vega. A voir avec plus de cartes et en DX11 puisqu'à l’instar de Battlefield 1, les perfs semblent meilleures en DX11 qu'en DX12 quelle que soit la couleur de la carte.

 

Un poil avant ?

Denuvo publie les pertes des développeurs d'un jeu AAA non protégé

Un peu plus tard ...

Live Twitch • Hitman 2 PC Master Race

Les 37 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par feuxs, le Lundi 12 Novembre 2018 à 13h39  
Matrox rules
Message de TwoFace supprimé par un modérateur : anéfé !
par Thomas N., le Lundi 12 Novembre 2018 à 07h09  
Du respect les gars, du respect...
Message de AntiZ supprimé par un modérateur : la même mais on baisse d'un ton
par TwoFace, le Lundi 12 Novembre 2018 à 01h37  
Je t'ai donné une explication et tu viens me vendre ton computerbase.
Très intéressant vraiment, et ça parle d'amateurisme
En l'occurrence ton site ce n'est pas la bible et tu as une explication sur l'ordonnanceur hardware, maintenant libre à toi de raconter le contraire..
par AntiZ, le Dimanche 11 Novembre 2018 à 23h25  
par TwoFace le Dimanche 11 Novembre 2018 à 23h11
Ouais trop lol ton computerbase mais néanmoins il y a bien l'async compute en hardware sur les Turing et Volta...
Après ton site il peut raconter un peu ce qu'il veut

https://techgage.com/article/tracing-the-groundwork-of-nvidias-turing-architecture/

Turing, d'autre part, permet enfin d'exécuter simultanément des calculs de nombres entiers et en virgule flottante. Mieux encore, ils peuvent maintenant partager le même cache. Sur papier, cela se traduit par une augmentation de 50% des performances par coeur CUDA pour des charges de travail mixtes. La manière dont cela se traduira par des performances réelles sera très différente, mais nous espérons voir quelques jeux gagner à des améliorations tangibles.

Plus de 40% de gain sur BF1 en mode DX12 en 4K ultra...
Trop lol ComputerBase ?

Tu ne sais visiblement pas de quoi tu parles, surtout quand c'est bien Marc Prieur lui-même qui a conseillé ce site juste après la fin de l'édito d'HardwareFR.

Là, c'est surtout ton amateurisme qui fait trop lol.
par TwoFace, le Dimanche 11 Novembre 2018 à 23h11  
par AntiZ le Dimanche 11 Novembre 2018 à 22h59
On ne dirait pas: GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft

Les meilleurs DirectX sont sans conteste le 7, 9.0C, 11 et 12.

DirectX 13 (ou 14 si ils le sautent ?) risque donc d'être un bon DirectX, je le sens bien pour 2019 ou 2021 perso.

A part pour le 12 qui est en fait un 11.5 qui est inexploité à cause des éditeurs, ça reste l'un des rares DirectX pair qui est bon.
Il n'empêche que ça suit la règle de Windows d'avant 2015 (et Windows 10), où tout ce qui est bon venant de Microsoft n'arrive qu'une version sur deux.
Ouais trop lol ton computerbase mais néanmoins il y a bien l'async compute en hardware sur les Turing et Volta...
Après ton site il peut raconter un peu ce qu'il veut

https://techgage.com/article/tracing-the-groundwork-of-nvidias-turing-architecture/

Turing, d'autre part, permet enfin d'exécuter simultanément des calculs de nombres entiers et en virgule flottante. Mieux encore, ils peuvent maintenant partager le même cache. Sur papier, cela se traduit par une augmentation de 50% des performances par coeur CUDA pour des charges de travail mixtes. La manière dont cela se traduira par des performances réelles sera très différente, mais nous espérons voir quelques jeux gagner à des améliorations tangibles.

Voir ici....

Plus de 40% de gain sur BF1 en mode DX12 en 4K ultra...
par AntiZ, le Dimanche 11 Novembre 2018 à 22h59  
par TwoFace le Dimanche 11 Novembre 2018 à 16h24
Merci mais heuu....
Turing et Volta ont le async comput via un ordonnanceur hardware comme les radeons...
On ne dirait pas: GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft
par Un ragoteur sans nom d'Occitanie le Dimanche 11 Novembre 2018 à 22h01
directx 2 était mauvais mais le 1 encore et le 3 mauvais aussi.
directx 6 et 8 étaient de bons directx.
Directx 10 était un bon directx mais a été plombé par son exclusivité vista et son absence sur console donc très peu utilisé.

Directx 12 n'est pour le moment quasiment pas utilisé sauf sur l'aspect bas niveau mais dx12 ne s'arrête pas à ça. Il y a les shaders 6 et d'autres trucs qui ne sont jamais utilisés pour les mêmes raisons que le 10. C'est pas dispo sur console donc on s'arrête qu'à l'utilisation bas niveau et un peu de rtx, nvidia poussant derrière.
Les meilleurs DirectX sont sans conteste le 7, 9.0C, 11 et 12.

DirectX 13 (ou 14 si ils le sautent ?) risque donc d'être un bon DirectX, je le sens bien pour 2019 ou 2021 perso.

A part pour le 12 qui est en fait un 11.5 qui est inexploité à cause des éditeurs, ça reste l'un des rares DirectX pair qui est bon.
Il n'empêche que ça suit la règle de Windows d'avant 2015 (et Windows 10), où tout ce qui est bon venant de Microsoft n'arrive qu'une version sur deux.
par roth, le Dimanche 11 Novembre 2018 à 22h24  
par Thomas N. le Dimanche 11 Novembre 2018 à 07h22
J'espère, le jeu est carrément pas stable en DX12 je trouve. Je ne sais pas si ça vient de chez moi mais j'ai une masse impressionnante de micro-coupures. :/
dans la conclusion du test:
" You may run the game in either DirectX 11 or DirectX 12, with DX12 showing a little bit more stuttering in general?Battlefield 1 was and still is the same; looks like EA is having difficulties getting this fixed."

donc ça vient pas de toi.
Et DICE garde encore la bonne habitude de porter des bugs ou problèmes d'une version de BF à l'autre.
par Un ragoteur sans nom d'Occitanie, le Dimanche 11 Novembre 2018 à 22h01  
par Un hardeur des ragots de Bretagne le Dimanche 11 Novembre 2018 à 17h12
et puis toute façon les DX finissant par un nombre pair ne marchent quasiment jamais

il faut attendre DX 13
directx 2 était mauvais mais le 1 encore et le 3 mauvais aussi.
directx 6 et 8 étaient de bons directx.
Directx 10 était un bon directx mais a été plombé par son exclusivité vista et son absence sur console donc très peu utilisé.

Directx 12 n'est pour le moment quasiment pas utilisé sauf sur l'aspect bas niveau mais dx12 ne s'arrête pas à ça. Il y a les shaders 6 et d'autres trucs qui ne sont jamais utilisés pour les mêmes raisons que le 10. C'est pas dispo sur console donc on s'arrête qu'à l'utilisation bas niveau et un peu de rtx, nvidia poussant derrière.

par Un hardeur des ragots de Bretagne, le Dimanche 11 Novembre 2018 à 17h12  
et puis toute façon les DX finissant par un nombre pair ne marchent quasiment jamais

il faut attendre DX 13
par TwoFace, le Dimanche 11 Novembre 2018 à 16h24  
par AntiZ le Dimanche 11 Novembre 2018 à 11h48
Nvidia n'a clairement pas intérêt à pousser DirectX 12, ça les forcerait à gérer l'Async Compute qui réduira leur marges (de mémoire, c'est pas gratuit en transistors).

Si nVidia et AMD gèrent l'Async Compute, ça poussera les développeurs à globalement le gérer. Problème: Maxwell, Pascal, Volta et Turing ne le gèrent pas toujours pas, ce qui sera un désavantage face aux Radeon.

En parlant de développeurs (les éditeurs en fait), beaucoup ne veulent aussi pas gérer DirectX 12 correctement car ça demande plus de temps de développement. Car sur DirectX 11, les optimisations sont surtout faits via les librairies pré-machés (soit par AMD et nVidia quoi, et c'est clairement pas leur boulot).
Le truc, c'est qu'nVidia est celui qui en propose le plus, mais du coup ça bride ainsi les performances de DirectX 12 de manière globale vu que c'est délaissé.

D'où cette fausse impression que "DirectX 12 est moins performant que DirectX 11".

A noter que ça signifie aussi que les Radeons ont toujours plus de réserve de puissance que les GPUs nVidia, et que c'est pour cette raison que les Radeons tiennent largement mieux dans la durée.

Bref, nVidia essaye à tout prix de brider une technologie qui apporte énormément en performances, en faisant croire que ça n'apporte rien via un frottage de jambes aux dévelopeurs.

DirectX 12 et Vulkan apportent bel et bien un grand boost de performance, mais encore faut-il que le marché (les éditeurs, pas les développeurs) se sortent les doigts du cul.
Merci mais heuu....
Turing et Volta ont le async comput via un ordonnanceur hardware comme les radeons...