COMPTOIR
  
register

×

ANNO 1800

Test • AMD Radeon RX 6800 & RX 6800 XT
ANNO 1800
Assassin's Creed Valhalla

• Anno 1800

Le dernier-né de la célèbre franchise Anno, développée par le studio allemand Blue Byte Ubisoft (ex Relative Design), effectue un retour salvateur vers le passé, à l'aube de la révolution industrielle plus exactement. Alors que les conflits entre factions concurrentes avaient été éradiqués et remplacés par des escarmouches dispensables face à un groupe terroriste lors du précédent opus, rendant le jeu trop facile et lassant, ce n'est plus le cas de 1800. Techniquement, le jeu s'appuie sur une évolution du moteur InitEngine, supportant cette fois DX11 et DX12. Visuellement, le jeu progresse encore par rapport à son devancier, et s'avère très joli y compris sans utiliser les détails au niveau le plus élevé. À ce sujet, le preset Maximum porte mal son nom, puisqu'il existe les profils Super Maximum et Ultra plus gourmands ! Le jeu est maintenu à jour via Uplay et nous utilisons la séquence de test incluse pour mesurer les performances avec le preset Ultra couplé au MSAA 8x en QHD (4x en UHD). Nous reportons le score du mode (D3D11 ou D3D12) le plus performant pour chaque carte.

 

Deux comptoiroscopes : à droite, nous comparons les presets graphiques, à gauche DX11 vs DX12

ANNO 1800 [cliquer pour agrandir]

Ah, l'air pur du XIXe siècle !

 

Ça ne commence pas trop mal pour les RX 6000 sur un jeu pourtant favorable à Nvidia. En QHD la bascule de plateforme permet à la 6800 XT de talonner clairement la RTX 3080 FE et à la RX 6800 de passer (très légèrement) devant la 3070 FE. La montée en définition impose une charge de calcul supplémentaire, favorisant les GeForce, la RTX 3080 FE devançant alors de 12% la 6800 XT.

 

 

 

• Assassin's Creed Valhalla

Assassin's Creed Valhalla est le tout dernier opus de la saga, qui va nous faire vivre l'histoire d'un Viking partant à la conquête de la Grande-Bretagne. Ubisoft allouait l'AnvilNEXT à la saga, c'est toujours le cas même si le moteur 3D a subi une évolution, et se nomme à présent ANVIL. Le jeu est fourni en bundle avec les Radeon RX 6800 séries, mais n'apporte aucun support pour le Ray Tracing. Il remplace Breakpoint qui utilisait le même moteur au sein de notre panel de tests. Alors que ce dernier profitait d'une version Vulkan salvatrice vis-à-vis du stuttering, c'est ici DX12 qui donne vie à cette fresque. Voyons ce qu'il en est des forces en présence, au travers de la séquence de benchmark intégré, que nous mesurons via Frameview avec le niveau de détails maximal.

 

Assassin's Creed Valhalla [cliquer pour agrandir]

Comme ça une pirogue ? Pffff, vous ne connaissez rien aux Drakars !

 

C'est une archi domination des rouges sur ce titre, la proximité d'AMD avec Ubisoft et le manque de recul des verts (le jeu vient d'être publié) pour d'éventuelles optimisations, expliquant peut-être la situation actuelle. Ce moteur 3D n'a pour autant pas l'habitude de montrer une telle hiérarchie... Nous verrons à l'avenir si le rapport de force se rééquilibre quelque peu, mais en l'état, la RX 6800 suffit à devancer la RTX 3080 FE en QHD sans avoir recours au SAM, point indispensable par contre en UHD. À noter que les résultats varient notablement d'une "passe" à l'autre, nous obligeant à les multiplier et que de vilaines saccades agrémentent la séquence de test sur toutes les cartes, à l'instar de ce qui se passait pour Odyssey (et Breakpoint avant sa bascule Vulkan) utilisant le même moteur.

 

 

Cap sur la guerre et les voitures page suivante.



Un poil avant ?

RX 6800 XT et boîtiers mini-ITX, l'impossible mariage ?

Un peu plus tard ...

8 coeurs / 16 threads à 4 GHz, tout Ryzen vs Comet Lake


Sur le comptoir, au ~même sujet

 
 
 
 
 
 
 
 
 
 
 
 

Les 168 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
Message de Un #ragoteur connecté en Île-de-France supprimé par un modérateur : C'est sûr qu'avec ce genre de message on va prendre le temps de te satisfaire...
par Ping, le Mercredi 30 Décembre 2020 à 12h47  
Merci pour la màj
par Sarge, le Dimanche 20 Décembre 2020 à 22h41  
par Eric B. le Dimanche 20 Décembre 2020 à 15h33
En fait bien avant, c'est déjà possible sur des architectures comme GCN 1 ou Maxwell. Par contre il faut que la partie logicielle suive tant côté pilotes que de l'API. C'est pourquoi le Multi Engine qu'AMD a nommé commercialement Async Compute, n'a vraiment été utilisé qu'à partir de DX12 / Vulkan. Ensuite, le processeur de commande (assisté des ACE) s'est avéré beaucoup plus efficace sur les architectures AMD que son équivalent chez Nvidia jusqu'à Turing, nécessitant plus de travail des développeurs pour tirer parti de cette fonctionnalité sous peine de perte de performance. On peut ajouter aussi que les gains dépendent des ressources disponibles pour exécuter en parallèle d'autres tâches, donc plus une architecture est efficace (plus elle parvient à solliciter ses ressources en parallélisant l'exécution des instructions demandées) et moins elle aura de gains potentiels à en attendre. Enfin, les API bas niveau étant fortement inspirées par Mantle, elles étaient naturellement enclines à privilégier l'architecture des rouges (GCN) ayant servi de base à ce dernier.
Merci infiniment, pour toutes ces précisions !!!
par Eric B., le Dimanche 20 Décembre 2020 à 15h33  
En fait bien avant, c'est déjà possible sur des architectures comme GCN 1 ou Maxwell. Par contre il faut que la partie logicielle suive tant côté pilotes que de l'API. C'est pourquoi le Multi Engine qu'AMD a nommé commercialement Async Compute, n'a vraiment été utilisé qu'à partir de DX12 / Vulkan. Ensuite, le processeur de commande (assisté des ACE) s'est avéré beaucoup plus efficace sur les architectures AMD que son équivalent chez Nvidia jusqu'à Turing, nécessitant plus de travail des développeurs pour tirer parti de cette fonctionnalité sous peine de perte de performance. On peut ajouter aussi que les gains dépendent des ressources disponibles pour exécuter en parallèle d'autres tâches, donc plus une architecture est efficace (plus elle parvient à solliciter ses ressources en parallélisant l'exécution des instructions demandées) et moins elle aura de gains potentiels à en attendre. Enfin, les API bas niveau étant fortement inspirées par Mantle, elles étaient naturellement enclines à privilégier l'architecture des rouges (GCN) ayant servi de base à ce dernier.
par Sarge, le Dimanche 20 Décembre 2020 à 13h08  
par Eric B. le Dimanche 20 Décembre 2020 à 10h13
Désolé si ça a été un peu long à venir, mais l'accumulation de lancements a dépassé ma capacité de travail pour CDH.
Aucuns soucis, cela me dérange en rien.. de plus, tout le travail que tu fais est juste nickel !!
Cela dit, j'avais juste une question purement informative.. (j'en profite) ) le calcul asynchrone est possible depuis "Pascal" chez Nvidia et "Polaris" chez AMD (je parle des GPUs "tout public" ) ?! Ou j'me trompe ??
par Eric B., le Dimanche 20 Décembre 2020 à 10h13  
par Sarge le Jeudi 17 Décembre 2020 à 23h01
C'est toujours ce que j'attends le plus ds les dossiers, merci !!
Désolé si ça a été un peu long à venir, mais l'accumulation de lancements a dépassé ma capacité de travail pour CDH.
par Sarge, le Jeudi 17 Décembre 2020 à 23h01  
par Eric B. le Jeudi 17 Décembre 2020 à 17h06
Mise à jour du dossier avec la description de l'architecture.
C'est toujours ce que j'attends le plus ds les dossiers, merci !!
par Eric B., le Jeudi 17 Décembre 2020 à 17h06  
Mise à jour du dossier avec la description de l'architecture.
par Eric B., le Jeudi 10 Décembre 2020 à 09h37  
Infineon XDPE132G5D
par Un #ragoteur sigma delta d'Occitanie, le Mardi 08 Décembre 2020 à 23h19  
Bonjour, est-ce que quelqu'un connaitrait la reference du composant qui fait la gestion des phases d'alimentation sur ces cartes ?
D'avance merci.
par cabou83, le Samedi 28 Novembre 2020 à 20h39  
par Eric B. le Samedi 28 Novembre 2020 à 18h57
Ca n'a pas de sens de comparer des consommations à la prise de configurations différentes. Selon la consommation et la charge induite sur le CPU, tu vas générer un delta plus ou moins important qui t'empêchera toute lecture sérieuse de la consommation GPU.
Sur ses vieille génération effectivement il n'y a pas de capteur de la puissance consommer. Donc on peut juste éventuellement déduire la consommation de la plateforme hors GPU (surtout qu'avec la Vega j'avais la valeur) et environs la plateforme consomme ryzen consomme 100/120w en jeux (ça du à la utilisation de la v64, forcement avec une 280x la charge du 3600 est moindre). Donc c'est pour ça que j'en déduit un tdp de 175w(pour la 280X) pour arrivé au 250w total (prise).
Mais je me souviens très bien qu'a l'époque effectivement à la prise j'arrivais vers les 400w quand les jeux chargeaient bien sur la carte et sur mon vieux FX.
C'est juste un constat, les pilotes ont du faire une opti depuis 2011 vu qu'on a bouffé du GCN pendant presque 8 ans.

Edit: après c'est peut être du justement au faite qu'aujourd'hui les 3Go de VRAM sont saturé donc certaines unités serait "en attente" et donc la carte n'exploite pas son tdp maximum malgré une charge à100%, ça pourrait peut être jouer.
par Eric B., le Samedi 28 Novembre 2020 à 18h57  
Ca n'a pas de sens de comparer des consommations à la prise de configurations différentes. Selon la consommation et la charge induite sur le CPU, tu vas générer un delta plus ou moins important qui t'empêchera toute lecture sérieuse de la consommation GPU.