COMPTOIR
register

×

aotses rtx3080 database t

La RTX 3080 s'amuse sur Ashes of the Singularity Escalation
aotses rtx3080 database t
aotses rtx2080ti cdh t

Le 17 septembre s'approche de jour en jour, à un moment donné, on va finir par le voir sauter ce NDA sur les cartes Ampere, didiou de didiou ! En tout cas, la RTX 3080 s'est payé un petit tour sur le jeu Ashes of the Singularity.  Regardons la capture d'écran qui donne des infos importantes :

 

aotses rtx3080 database t [cliquer pour agrandir]

Si c'est trop petit, un clic et ça grossit !

 

On observe que le preset choisi est crazy_4k, ce qui génère automatiquement l'activation d'options comme l'antialiasing MSAA4x, et bien sûr la définition 3840x2160. Le jeu est testé en version 2.92.73675.0. On y voit sur tous les batches moyens un framerate moyen de 88.3 images par seconde. On s'est demandé ce que cela donnait avec la RTX 2080 Ti. Sur la base de données du jeu, la sélection de cette dernière ne donne aucune garantie, puisqu'il n'est fait mention nulle part des fréquences utilisées. Comme on n'est jamais mieux servi que par soi-même, nous avons lancé le test dans les mêmes conditions, au CPU et la plateforme près. Mais le test orienté GPU fait fi de ces considérations en chargeant justement le boulot de la carte graphique.

 

En bon gaulois traduit, crazy_4k devient Insensé 3840x2160, le jeu a exactement la même version (ce qui n'est pas le cas d'Ashes of the Singularity Classic). Et voici ce que nous avons obtenu :

 

aotses rtx2080ti cdh t [cliquer pour agrandir]Cliquer pour grossir, gaffe au régime !

 

Eh bien nous avons obtenu un correct 70.2 de moyenne, avec les mêmes options comme vous pouvez le voir. Cela fait donc une RTX 3080 plus rapide de 25.8% sur ce jeu avec des plateformes différentes, dans des réglages de coquins. Il faudra donc attendre, comme on s'en doute, les tests officiels, et pour ça il faudra suivre CDH, on ne sait jamais ! Pour patienter, un petit point architectural vous permettra de mieux appréhender les tests le jour J !

Un poil avant ?

RAM, RAM, RAM fais nous voir le ciel !

Un peu plus tard ...

Délit de fuite, Crucial embraye violemment sur les 5100 MHz.

Les 21 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Thibaut G., le Jeudi 10 Septembre 2020 à 06h11  
par Un rat goth à l'heure en Auvergne-Rhône-Alpes, le Mercredi 09 Septembre 2020 à 21h54
25% de plus pour un prix sup de 60% à la rtx 3070.....Mouais.
Les maths c'est pas ton truc toi
519 la 3070, 719 la 3080, ca fait un prix de 38% sup, pas 60. Insert coin : D
par Thibaut G., le Jeudi 10 Septembre 2020 à 06h07  
par Un ragoteur RGB en Auvergne-Rhône-Alpes, le Jeudi 10 Septembre 2020 à 02h31
A quel fréquences tournais la 2080 Ti durant le bench svp ? Ce serait bon a savoir aussi
Ca change d un jour à l autre puisque les co éditions changent. Il fait 14 degrés de moins que l aute jour, ca se ressent dans la fréquence avec gpu boost 4. Mais il n y a pas que ça non plus, on ne sait pas combien de runs ont été fait sur le test de la 3080, on sait que la répétition des runs fait monter la température et donc baisser les fréquences. Bref on attendra les tests d eric, mais on a un ordre d idée sur ce jeu
par Un ragoteur RGB en Auvergne-Rhône-Alpes, le Jeudi 10 Septembre 2020 à 02h31  
A quel fréquences tournais la 2080 Ti durant le bench svp ? Ce serait bon a savoir aussi
par Un rat goth à l'heure en Auvergne-Rhône-Alpes, le Mercredi 09 Septembre 2020 à 21h54  
25% de plus pour un prix sup de 60% à la rtx 3070.....Mouais.
par Vaark en Provence-Alpes-Côte d'Azur, le Mercredi 09 Septembre 2020 à 20h20  
par Thibaut G., le Mercredi 09 Septembre 2020 à 16h29
eh bien c'est plus simple que ça en fait. Le test GPU se charge de charger le GPU, c'est donc lui qui donne son score. Je me dois quand même de signaler que la plateforme est différente pour éviter la remarque que je ne l'ai pas fait. Donc effectivement, on a fait les mêmes tests, avec les mêmes réglages, mais pas la même plateforme
Le reste de la phrase insiste bien sur le fait que ca ne changerait pas grand chose, au final je pense que tu dis exactement la même chose que moi, j'ai un devoir d'information sur le matos utilisé, ce que je fais
Merci pour cette réponse, je ne devais pas avoir les yeux en face des trous car je comprenais "au CPU et à la plateforme près" comme l'inverse de "à l'exception du CPU et de la plateforme" alors que... non
Bonne soirée !
par Thibaut G., le Mercredi 09 Septembre 2020 à 19h39  
par Kernuun, le Mercredi 09 Septembre 2020 à 18h41
Bonjour le comptoir,

il y a quelques années (avant l'arrivée de Pascal, pas celui du comptoir hein, celui de nVidia), il y avait eu un débat sur les performances des cartes AMD vs nVidia sur Ashes of the Singularity. Le jeu utilisait une fonctionnalité de Direct12 appelée Async Computing qui favorisait les cartes AMD mais pas du tout les nVidia (une histoire d'exécutions en simultanée possible matériellement sur AMD mais seulement via les drivers pour nVidia).

Je n'arrive pas à trouver de référence sur l'évolution des performances "async computing" de Pascal et Turing mais savez-vous si le test de la 3080 a été fait avec l'option activée ? et qu'en est-il de votre test avec la 2080 Ti ? Si ça se trouve, Ampère gère nettement mieux l'async computing que Turing et ça pourrait expliquer en partie le gain sur ce jeu...

Si c'est possible et si ça ne vous embête pas trop, pouvez-vous aussi refaire le test de la 2080 ti avec et sans async computing pour comparer ? merci d'avance
c'était la possibilité pour les Radeon de faire du traitement concomittant des files d'attente, ce qu'elle ne faisaient que maladroitement sous DX11. Les Geforce le faisaient très bien et c'est la rasion pour laquelle elles ne gagnaient quasiment rien. Ces Async Compute en fait optimisaient le rendement faible des unités de calcul des radeon sous DX11. Elle recollaient aux geforce et parfois les dépassaient. Les RX 5700 sont aussi effiaces dans ce traitement que les Geforce, c'ets pourquoi elle saussi ne gagnent rien en DX12 par rapport à DX11 en général. Pour en revenir au jeu, une telle option n'existe plus avec la version 2.92. Elles sont toutes à la même enseigne
par Thibaut G., le Mercredi 09 Septembre 2020 à 19h34  
par Un #ragoteur en biais en Auvergne-Rhône-Alpes, le Mercredi 09 Septembre 2020 à 18h57
Fais des benchs en UHD sur les jeux de ton choix avec 3600X@stock Vs 9900k à 5ghz. Si tu ne mesures pas un écart de perf de l'ordre d'au moins 10% entre les deux c'est que tu dois avoir un problème hardware sur ta bécane.
il te faut comprendre que ce n'est pas des tests en UHD, mais bien un jeu qui spécialise son benchmark en fonction de ce que tu veux voir, et qui donc minimise à fond l'impact de l'éléments limitant, ici le CPU. Manifestement tu ne l'as jamais lancé. Mais merci pour le cours
par Un #ragoteur en biais en Auvergne-Rhône-Alpes, le Mercredi 09 Septembre 2020 à 18h57  
par Thibaut G., le Mercredi 09 Septembre 2020 à 17h29
non mais il faut relever 2 choses importantes qui à mon sens invalident en grande partie ta réponse. premièrement, le test GPU de ce jeu n'a théoriquement qu'une incidence pure GPU, et le résultat affiché est bien celui de la charge CPU. Autre fait, on est en UHD dans le test, donc le CPU a une influence moindre
tout ça concourt à penser que la différence de perfs entre le test et le notre ne doit pas être très loin de la réalité en UHD
Fais des benchs en UHD sur les jeux de ton choix avec 3600X@stock Vs 9900k à 5ghz. Si tu ne mesures pas un écart de perf de l'ordre d'au moins 10% entre les deux c'est que tu dois avoir un problème hardware sur ta bécane.
par Kernuun, le Mercredi 09 Septembre 2020 à 18h41  
Bonjour le comptoir,

il y a quelques années (avant l'arrivée de Pascal, pas celui du comptoir hein, celui de nVidia), il y avait eu un débat sur les performances des cartes AMD vs nVidia sur Ashes of the Singularity. Le jeu utilisait une fonctionnalité de Direct12 appelée Async Computing qui favorisait les cartes AMD mais pas du tout les nVidia (une histoire d'exécutions en simultanée possible matériellement sur AMD mais seulement via les drivers pour nVidia).

Je n'arrive pas à trouver de référence sur l'évolution des performances "async computing" de Pascal et Turing mais savez-vous si le test de la 3080 a été fait avec l'option activée ? et qu'en est-il de votre test avec la 2080 Ti ? Si ça se trouve, Ampère gère nettement mieux l'async computing que Turing et ça pourrait expliquer en partie le gain sur ce jeu...

Si c'est possible et si ça ne vous embête pas trop, pouvez-vous aussi refaire le test de la 2080 ti avec et sans async computing pour comparer ? merci d'avance
par Thibaut G., le Mercredi 09 Septembre 2020 à 17h29  
par Un #ragoteur en biais en Auvergne-Rhône-Alpes, le Mercredi 09 Septembre 2020 à 17h12
si si, sans mauvaise foi patriote de cocotte, ça changerait tout même les choses de coller un 9900k à fond les ballons à la place d'un 3600X... on peut largement gagner une bonne dizaine de % (peut-être même plus) et, donc, revenir très près de la RTX3080 avec une 2080Ti.
Perso, j'y crois pas à leur RTX3k qui serait un monstre. Le bougre va être limité par son excès de calories "indissipables", autrement gérable qu'en faisant faire de la chute libre aux fréquences du GPU...cela permettant à Turing de ne pas se faire manger sauvagement comme madame irma l'avait prédit dans sa boule de "shit sale"

RDV à demain pour le verdict
non mais il faut relever 2 choses importantes qui à mon sens invalident en grande partie ta réponse. premièrement, le test GPU de ce jeu n'a théoriquement qu'une incidence pure GPU, et le résultat affiché est bien celui de la charge CPU. Autre fait, on est en UHD dans le test, donc le CPU a une influence moindre
tout ça concourt à penser que la différence de perfs entre le test et le notre ne doit pas être très loin de la réalité en UHD
par Un ragoteur RGB en Bourgogne-Franche-Comté, le Mercredi 09 Septembre 2020 à 17h19  
par Un #ragoteur en biais en Auvergne-Rhône-Alpes, le Mercredi 09 Septembre 2020 à 17h12
...
Perso, j'y crois pas à leur RTX3k qui serait un monstre. Le bougre va être limité par son excès de calories "indissipables", autrement gérable qu'en faisant faire de la chute libre aux fréquences du GPU...cela permettant à Turing de ne pas se faire manger sauvagement comme madame irma l'avait prédit dans sa boule de "shit sale"

RDV à demain pour le verdict
C'est vrai. Il n'y a jamais eu de cartes avec des consos dans les 300W. Je dis conso comme tout le monde, mais je devrais parler de puissance car la conso fait référence à l'énergie qui est en joules et non en watt.
Il se passe quoi demain ? C'est le retour du jeudi ?
par Un #ragoteur en biais en Auvergne-Rhône-Alpes, le Mercredi 09 Septembre 2020 à 17h12  
par Thibaut G., le Mercredi 09 Septembre 2020 à 16h29
eh bien c'est plus simple que ça en fait. Le test GPU se charge de charger le GPU, c'est donc lui qui donne son score. Je me dois quand même de signaler que la plateforme est différente pour éviter la remarque que je ne l'ai pas fait. Donc effectivement, on a fait les mêmes tests, avec les mêmes réglages, mais pas la même plateforme
Le reste de la phrase insiste bien sur le fait que ca ne changerait pas grand chose, au final je pense que tu dis exactement la même chose que moi, j'ai un devoir d'information sur le matos utilisé, ce que je fais
si si, sans mauvaise foi patriote de cocotte, ça changerait tout même les choses de coller un 9900k à fond les ballons à la place d'un 3600X... on peut largement gagner une bonne dizaine de % (peut-être même plus) et, donc, revenir très près de la RTX3080 avec une 2080Ti.
Perso, j'y crois pas à leur RTX3k qui serait un monstre. Le bougre va être limité par son excès de calories "indissipables", autrement gérable qu'en faisant faire de la chute libre aux fréquences du GPU...cela permettant à Turing de ne pas se faire manger sauvagement comme madame irma l'avait prédit dans sa boule de "shit sale"

RDV à demain pour le verdict