Test • NVIDIA GeFORCE RTX 3080 |
————— 16 Septembre 2020
Test • NVIDIA GeFORCE RTX 3080 |
————— 16 Septembre 2020
Le dernier-né de la célèbre franchise Anno, développée par le studio allemand Blue Byte Ubisoft (ex Relative Design), effectue un retour salvateur vers le passé, à l'aube de la révolution industrielle plus exactement. Alors que les conflits entre factions concurrentes avaient été éradiqués et remplacés par des escarmouches dispensables face à un groupe terroriste lors du précédent opus, rendant le jeu trop facile et lassant, ce n'est plus le cas de 1800. Techniquement, le jeu s'appuie sur une évolution du moteur InitEngine, supportant cette fois DX11 et DX12. Visuellement, le jeu progresse encore par rapport à son devancier, et s'avère très joli y compris sans utiliser les détails au niveau le plus élevé. À ce sujet, le preset Maximum porte mal son nom, puisqu'il existe les profils Super Maximum et Ultra plus gourmands ! Le jeu est maintenu à jour via Uplay et nous utilisons la séquence de test incluse pour mesurer les performances avec le preset Ultra couplé au MSAA 8x en QHD (4x en UHD). Nous reportons le score du mode (D3D11 ou D3D12) le plus performant pour chaque carte.
Deux comptoiroscopes : à droite, nous comparons les presets graphiques, à gauche DX11 vs DX12
Ah, l'air pur du XIXème siècle !
Alors que le précédent opus donnait un avantage très significatif à Turing par rapport à Pascal, c'est moins vrai avec ANNO 1800 qui voit la GTX 1080 Ti défendre chèrement sa peau face à la 2080 SUPER. Les verts dominent, et la RTX 3080 en rajoute une couche en dominant la précédente reine de 15 à 24 % selon la définition.
Evolution du taux d'images par seconde durant la séquence de test
Battlefield V est la suite mal nommée de Battlefield 1. Ce dernier plongeait le joueur dans l'enfer de la 1re guerre mondiale, le nouveau venu prend place au cœur du second conflit mondial et propose comme à l'accoutumée, divers lieux variés allant de l'Allemagne à l'Afrique du Nord, en passant par les Pays-Bas, la France et la Norvège. Si cette série s'est longtemps fait connaitre pour son multijoueur très développé, il propose depuis quelques années une campagne solo relativement courte et peu élaborée, mais qui subsiste à contrario de la licence concurrente (Call of Duty) dans son dernier opus. Mais revenons à BF5 qui utilise bien entendu le moteur Frostbite Engine 3.x, prenant en charge DX11 et DX12. Spécificité de cette version, un partenariat avec NVIDIA introduisant un rendu hybride rastérisation / lancer de rayons en s'appuyant sur DXR (DX12 uniquement) disponible avec Windows 10 October Update. Nous avons dédié un test express à ce sujet. Le jeu est maintenu à jour via Origin et nous sélectionnons le profil Ultra (DXR désactivé) couplé au TAA, puis nous utilisons un déplacement reproductible pour mesurer les performances.
Deux comptoiroscopes : à droite, nous comparons les presets graphiques, à gauche DX11 vs DX12
Oh les zolis reflets!
Ce jeu a depuis son lancement été plutôt favorable aux rouges, la Radeon VII devançant nettement la GTX 1080 Ti. Turing a permis de contrebalancer en partie cela et Ampere au travers de la RTX 3080, finit le travail avec un avantage oscillant entre 24 et 28 % sur la RTX 2080 Ti FE.
Evolution du taux d'images par seconde durant la séquence de test
Quid de l'activation du Ray Tracing dans son réglage le plus poussé ? La nouvelle venue apporte 31% d'images par seconde en plus en UHD, de quoi dépasser les 50 fps en moyenne. L'adjonction du DLSS (inactif en QHD pour cette dernière et la RTX 2080 Ti, qui n'en ont toutefois pas forcément besoin) permet de frôler les 70 i/s. Nous vous déconseillons toutefois son usage, s'agissant ici de la version 1.0, rendant le jeu particulièrement flou et donc désagréable. À quand une mise à jour vers la version 2.0 ?
Evolution du taux d'images par seconde durant la séquence de test
Cap sur un univers totalement déjanté, pour poursuivre nos tests en page suivante.
|
Un poil avant ?Live Twitch • Tell Me Why, du narratif posé | Un peu plus tard ...NVIDIA donne ses ambitions pour ARM et son architecture |