COMPTOIR
  
register

RTX 3080 12 Go ASUS en test, bien ou inutile ?

NVIDIA avait lancé, à la surprise générale et presque dans l'indifférence, la RTX 3080 12 Go, qui s'est révélée être une carte exclusivement distribuée par les partenaires, pas de Founders Edition. Au menu, un léger refresh, avec 256 cuda cores de plus, et 12 Go de GDDR6X à 19 Gbps, mais sur bus 384-bit. C'est donc une carte avec un petit peu plus de VRAM, et une meilleure bande passante, de 760 à 912 Go/s. Elle est donc à mi-chemin de la RTX 3080 10 Go et de la RTX 3080 Ti, cette dernière ayant quasiment autant de cuda cores que la RTX 3090. Que vaut cette carte en pratique ?

 

Si vous êtes déjà équipés en RTX 3080 ou 3080 Ti, il est évident que vous n'êtes pas concernés. Si vous en cherchez une, alors vous pouvez considérer la chose. TPU a fait le test du modèle ASUS Strix. La carte arbore le refroidisseur maison, et équipe la carte de 3 prises PCIe 8 pins. Niveau performances, la RTX 3080 12 Go a tendance à bien se détacher de la RTX 3080 10 Go à partir de l'UHD, et c'est variable selon les moteurs 3D. Certains seront friands de BP supplémentaire, d'autres n'en auront cure. Pour autant, il est compliqué d'apprécier le gain, c'est-à-dire de savoir d'où provient le gain. La carte a été comparée à une RTX 3080 et 3080 Ti FE, et nous ne saurons dire si les performances proviennent réellement de la bande passante, ou du fait qu'avec un TDP lâché, la carte pousse sur les fréquences. C'est probablement un peu des deux au final, mais dans quelles proportions ?

 

Les cartes ont bien baissé dans le commerce, c'est évident. Si vous pouvez temporiser, continuez, car c'est trop cher encore. Si vous ne le pouvez plus, alors regardez bien les tests, car il y a du stock et de l'offre désormais.

 

asus rog strix rtx 3090

 

Un poil avant ?

Voici la roadmap de Lake d'Intel jusqu'en 2024...

Un peu plus tard ...

Promopub • Signez en ligne vos documents avec Yousign.com

Les 32 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Sosombre en Provence-Alpes-Côte d'Azur, le Mercredi 23 Février 2022 à 11h36  
Je suis content, pour continuer dans la conversation qui a lieu dans les commentaire, de pouvoir lire les valeurs de consommation des GPU & CPU.
C'est pas du tout des chiffres que je zape, je les trouve nécessaire tant pour l'aspect écologique que financier (surtout financié vu le prix de électricité qui continue de flambé d'année en années).

Si je devais changé de CPU, avec mon profil de joueur exclusivement, je partirais du coup vers un 12600 ou un 5600 pour l'instant. Je doute pas que les cpu au dessus fasse (et feront à l'avenir...) mieux, mais la consommation à un coût !
par HardBitFr, le Mercredi 23 Février 2022 à 02h56  
Réponse: Non, clairement pas.

Pour rappel, le dernier Doom s'écroule en 1080p avec moins de 8Go de VRAM. La RTX 2060 6GB a la même quantité de VRAM que la GTX 1060 alors qu'elle est aussi puissante que la GTX 1080. C'est pas cohérent du tout sachant que même cette dernière ne l'était pas.

12GB sur la RTX 3080 c'est une vaste blague, une carte poubelle au même titre que la RTX 2060.

C'est exactement la même histoire que pour les CPUs avec les Core I5 6600K/7600K/9600K, on disait que "ça suffirait largement" alors qu'en fait même pas trois ans après ça a commencé à ne plus suffir. Le dernier test CPU d'Alder Lake et incluant le 9600K est édifiant, même logique ici avec ces GPUs poubelles.
par Un #ragoteur connecté en Nouvelle-Aquitaine le Dimanche 20 Février 2022 à 16h32
C'est bien d'essayer de s'en convaincre avec de vieux jeux sans doute
Ca reste toujours 1.5x plus puissant que les iGPUs d'aujourd'hui.
Il est très loin de s'auto-convaincre.
par Un #vieuxkon du Grand Est le Lundi 21 Février 2022 à 08h58
Ça va peut-etre sembler paradoxal ou totalement réac' à beaucoup, mais l'âge d'or de l'informatique "familiale" restera à jamais l'époque des 8bits, depuis on s'est tous fait embarquer dans un délire collectif.
Non c'est pas réac, franchement.
Par contre à l'époque du 8 bit avoir un PC fallait être aisé ou riche, surtout vu le peu de possibilités que ça t'offrait en vrai.
L'âge d'or de l'informatique, c'est plus entre 2003 et 2011 surtout.
par Un ragoteur blond en Communauté Valencienne, le Mardi 22 Février 2022 à 09h23  
Perf kif kif sans les dernières opions graphique.
par Un ragoteur des lumières du Centre-Val de Loire le Mardi 22 Février 2022 à 00h03
Franchement la génération Ampère est décevante niveau consommation, la carte consomme presque 100w de plus qu'une 6900xt pour des perf kifkif, et quand on regarde en consommation équivalente (300w) on a la 3070ti qui est bien moins performante.

Quand je pense qu'il n'y a pas si longtemps sa dénigrais amd avec sa vega qui consomme trop pour ses perfs et que là on te sort des carte qui consomme 100w de plus pour la même perf, mais la consommation n'est plus un soucis
par Un ragoteur des lumières du Centre-Val de Loire, le Mardi 22 Février 2022 à 00h03  
Franchement la génération Ampère est décevante niveau consommation, la carte consomme presque 100w de plus qu'une 6900xt pour des perf kifkif, et quand on regarde en consommation équivalente (300w) on a la 3070ti qui est bien moins performante.

Quand je pense qu'il n'y a pas si longtemps sa dénigrais amd avec sa vega qui consomme trop pour ses perfs et que là on te sort des carte qui consomme 100w de plus pour la même perf, mais la consommation n'est plus un soucis
par jumorolo, le Lundi 21 Février 2022 à 11h11  
par Un #vieuxkon du Grand Est le Lundi 21 Février 2022 à 08h58
Justement, s'agissant des smartphones, il est amusant de constater qu'on peut cramer la batterie en 1 an en utilisant "intensivement" le matériel...encore un bon exemple de l'impasse de l'évolution de l'informatique ces dernières années.

Ça va peut-etre sembler paradoxal ou totalement réac' à beaucoup, mais l'âge d'or de l'informatique "familiale" restera à jamais l'époque des 8bits, depuis on s'est tous fait embarquer dans un délire collectif.

l'élargissement de la base d'utilisateurs
par Un #vieuxkon du Grand Est, le Lundi 21 Février 2022 à 08h58  
par jumorolo le Dimanche 20 Février 2022 à 20h48
avec 1.2Go de vram faut aimer les jeux qui ont 10 ans, ou qui tourneraient sur un smartphone
Justement, s'agissant des smartphones, il est amusant de constater qu'on peut cramer la batterie en 1 an en utilisant "intensivement" le matériel...encore un bon exemple de l'impasse de l'évolution de l'informatique ces dernières années.

Ça va peut-etre sembler paradoxal ou totalement réac' à beaucoup, mais l'âge d'or de l'informatique "familiale" restera à jamais l'époque des 8bits, depuis on s'est tous fait embarquer dans un délire collectif.
par jumorolo, le Dimanche 20 Février 2022 à 20h48  
avec 1.2Go de vram faut aimer les jeux qui ont 10 ans, ou qui tourneraient sur un smartphone
par Thibaut G., le Dimanche 20 Février 2022 à 19h19  
par Un ragoteur blond du Grand Est le Dimanche 20 Février 2022 à 05h16
La question n'est vraiment pas là, au contraire...

L'augmentation de la complexité mathématique du rendu n'a jamais servi qu'à diminuer le travail de développement en évitant de devoir corriger des artefacts liés à l'usage de "bidouilles d'artistes".

Concernant la consommation, pour avoir eu un R580, un RV770XT et un Cypress (ainsi que des R100, R200 et R300 coté ATI/AMD), je pense qu'il est difficile de nier la réalité de la hausse (les GF100, Cayman et Fidji étaient d'ailleurs bien gratinés).
je ne suis ni développeur ni codeur, je me garderai bien de juger le boulot des autres dans un domaine où je ne suis pas compétent.
par Thibaut G., le Dimanche 20 Février 2022 à 19h16  
par Un hardeur des ragots en Île-de-France le Dimanche 20 Février 2022 à 10h44
bla
par contre je suis pas fan de la prise à partie au nom de CDH quand je ne suis pas totalement d'accord avec ce que tu dis, c'est même assez puérile et contre productif. Comme l'a dit Pascal, je parle en mon nom, et ce n'est pas parce que je ne partage pas ton point de vue que tu dois NOUS faire passer pour des pariahs, alors même que nos tests ont tjs une partie conso et indice énergétique.Pour autant, je mets des bémols à tes chiffres.R9 390X et Vega 64 = 300 W de conso au bas mot, RTX 3080 = 320 W, pour quel niveau de perfs ? selon guru3d, la RTX 3080 et 1.7 à 3x plus rapide pour une conso quasi identique selon les jeux. Moi je trouve pas qu'on regresse, parce que les cartes à TDP plus bas offrent tjs des perfs sympas. En fait tu prends les flasghips pour ta démo, et tu dis qu'il ya tjs des exceptions. Oui, tu sors la vega 64 ou la 390x, mais à ce moment là, tu sors toutes celles qui ne t'arrangent pas dans ta démo, comme un aiguille dans le pied. Le fait est que les cartes consomment, pas bcp plus que ce que tu dis, parce que la Sapphire vega 64 et ses 3 pins, elle est pas à 300W, pour des perfs bien meilleures. Seul hic, et on l'a dit dans notre article RTX 30 initial, le GA102 gravé par le 8 nm de Samsung ne bénéficie pas des mêmes avancées qu'il aurait eu s'il avait été en 7 nm TSMC, c'est une évidence, ce qui a obligé NV à opérer des choix. Qd on achète ce type de carte, la conso reste très secondaire du moment que les perfs sont là. A vouloir tourner tout à l'extrême niveau écolo, je préfere taper sur les fermes de minage, qui tournent 24h/24. Le joueur, s'il joue 2 à 3h par jour, c'est pas les 50 W de plus de conso qui vont faire flamber sa note EDF, il faut contextualiser aussi, une conso max, c'est en charge et c'est pas permanent. Voilà MON avis
par Thibaut G., le Dimanche 20 Février 2022 à 18h48  
par Un #vieuxkon du Grand Est le Dimanche 20 Février 2022 à 18h30
Pas forcément : en baissant les options, le rendu n'est pas forcément "sensiblement plus moche" mais la quantité de VRAM nécessaire a une sérieuse tendance à baisser, du coup dans les articles on peut avoir l'impression que les petits GPU plus récents font mieux, mais en pratique, avec des reglages utilisables, c'est très discutable. Seule l'efficacité énergétique joue réellement en leur faveur.

Depuis la génération Evergreen/Fermi, on a à nouveau une course aux perfs à tout prix en haut alors que la gamme fait l'élastique, le tout avec des prix globalement horribles, prétendument à cause des miners mais réellement pour des raisons encore moins glorieuses.
mouais, en attendant, la RX 6500 XT se vautre à cause de ses 4 Go de VRAM, et encore on a mis les presets les plus faibles en texture pour justement ne pas la pénaliser. Alors 1.2, même en 1080p, j'ai de très gros doutes !
par Un #vieuxkon du Grand Est, le Dimanche 20 Février 2022 à 18h30  
par Un #ragoteur connecté en Nouvelle-Aquitaine le Dimanche 20 Février 2022 à 16h32
C'est bien d'essayer de s'en convaincre avec de vieux jeux sans doute
Pas forcément : en baissant les options, le rendu n'est pas forcément "sensiblement plus moche" mais la quantité de VRAM nécessaire a une sérieuse tendance à baisser, du coup dans les articles on peut avoir l'impression que les petits GPU plus récents font mieux, mais en pratique, avec des reglages utilisables, c'est très discutable. Seule l'efficacité énergétique joue réellement en leur faveur.

Depuis la génération Evergreen/Fermi, on a à nouveau une course aux perfs à tout prix en haut alors que la gamme fait l'élastique, le tout avec des prix globalement horribles, prétendument à cause des miners mais réellement pour des raisons encore moins glorieuses.
par Un #ragoteur connecté en Nouvelle-Aquitaine, le Dimanche 20 Février 2022 à 16h32  
par dans les vieux pots... en Île-de-France le Dimanche 20 Février 2022 à 16h15
faites moi rêver, ma GTX 570 tourne comme une horloge et son large bus lui permet de tenir la dragé haute au sauterelles modernes.
seul, parfois, son 1.2 Go est un peu à l'étroit... mais pas sur 1080p
C'est bien d'essayer de s'en convaincre avec de vieux jeux sans doute