COMPTOIR
register

En cabine • 4 ou 8 Go de VRAM pour jouer en 2018 ?
• Au secours j'en peux plus !

La problématique rencontrée sur le 1080p s'accentue ici. En effet, le 1440p oblige la carte à afficher 70 % de pixels en plus, et ce n'est pas sans conséquence sur un GPU de la trempe de Polaris. Encore une fois, l'impact aurait été moindre sur Vega ou GP102.

Il a donc fallu toucher un peu plus les options à la baisse pour que la barrière des 30 ips reste à l'ordre du jour. Du coup, on a encore dû faire un compromis entre puissance du GPU d'un côté, et options graphiques pouvant entraîner une consommation mémoire suffisante dans le cadre de notre article de l'autre. Regardons ce que ça donne.

 

 

Ce n'est pas un copier/coller, et pourtant on distingue clairement les mêmes tendances qu'en 1080p dans nos conditions de test et de réglages. ArmA 3 continue d'être un peu favorable à la carte dotée de 8 Go (+ 9 %) alors que Wolfenstein 2 est encore plus pénalisant pour la carte de 4 Go. Celle de 8 Go se retrouve 138 % devant, c'est donc 2,4 fois plus rapide, il n'y a pas photo.

Mein Leben ne passe pas bien du tout sur cette carte, nous avions par ailleurs observé ce phénomène avec les Fury lors de notre test de la GTX 1070 Ti où elles s'écroulaient face à la RX 580 qui pourtant a une puissance plus ou moins similaire, mais 8 Go.



Un poil avant ?

Comptoiroscope • Sea of Thieves, graphismes et "performances"

Un peu plus tard ...

Des milliards pour Q4 2017 chez Intel à l'ombre de Meltdown et Spectre

Les 21 ragots
Les ragots sont actuellement
prévention anti troll, loguez-vous !ouverts aux ragoteurs logués
par pfloyd1, le Mardi 30 Janvier 2018 à 05h09  

Effectivement je dois reconnaitre que ma conclusion n'était pas aussi simple que ça. Premier point, il est vrai que d'acheter 8 go de vram au lieu de 4 ne fait pas une grande différence sur le porte monnaie alors pourquoi s'en priver. Eh oui je n'avais pas songé au dual screen ou à certains jeux, qui marginalement, réclament plus de vram qu'il n'en faudrait.
Ceci dit passer à 8 ne certifie pas systématiquement qu'on va passer en ultra (comme le dit Pachakuteq), c'est la puissance du GPU, surtout, qui fera péter cette limite (et les 8/12/16 de vram ni feront rien si le gpu ne suit pas ou encore un cpu anémique).
par Pachakuteq, le Lundi 29 Janvier 2018 à 14h41  
par pfloyd1 le Dimanche 28 Janvier 2018 à 07h51
Paf ! [...]
Plouf, je suis limité en Vram en 1080p avec une fury Nano 4Go sur quelques jeux (GTA V et Rainbow 6 Siege notamment). Les 6/8 Go peuvent donc s'avérer nécessaires sur des jeux très gourmands si on veut à tout prix passer le tout ultra (ce qui peut se discuter, j'entends bien )
par Cristallix, le Lundi 29 Janvier 2018 à 13h31  
par amisbievre le Lundi 29 Janvier 2018 à 10h52


Oui mais quand même.. Sur LDLC la Vega 64 stock était à 550€ environ et là on est presque au double!
Regarde aux US ça ou ça... Et encore j'suis sur qu'il y a bien pire
par amisbievre, le Lundi 29 Janvier 2018 à 10h52  
par Cristallix le Lundi 29 Janvier 2018 à 10h45
De base elle est pas donnée, et là on a la pénurie de GPU en plus donc ça aide pas
Oui mais quand même.. Sur LDLC la Vega 64 stock était à 550€ environ et là on est presque au double!
par Cristallix, le Lundi 29 Janvier 2018 à 10h45  
par amisbievre le Lundi 29 Janvier 2018 à 10h14
je veux pas faire de pub mais bon quelqu'un a une explication des véga à presque 1000€?
De base elle est pas donnée, et là on a la pénurie de GPU en plus donc ça aide pas
par amisbievre, le Lundi 29 Janvier 2018 à 10h14  
je veux pas faire de pub mais bon quelqu'un a une explication des véga à presque 1000€?
par Gry20r, le Lundi 29 Janvier 2018 à 08h59  
par pfloyd1 le Dimanche 28 Janvier 2018 à 07h51
Paf ! et voilà c'est dit et enfin clair: on choisit sa carte en fonction de la résolution de l'écran ! Cet excellent article permettra aux novices d'arrêter de péter leur tirelire pour se rassurer avec du 8 go, donc avec un gpu béton dessus, tout ça pour du 1080P. On achète pas une Ferrari si la piste n'est pas assez longue (mmmh..bon ou quelque chose comme ça...). Ce test permet non seulement de constater que 8 go n'apporte pas plus de perf que 4 go en 1080P, ça doit foutent les boules à certain du coup.
C'est un rappel à l'ordre du bon sens: plus la résolution est haute, plus les détails des jeux sont poussés et plus la quantité de vram devra être conséquente. Les constructeurs savent ce qu'ils font, finit la génération des carte castrées, achetons malin!
A l'époque ou les RX480 sont sorties, je me suis pris une 8Go, la différence de prix était minime, donc pourquoi s'en priver ?
Qui plus est, on parle de configs standard, mais dans le cas d'une config multi-écran en 1080p, ce n'est pas la meme donne, donc pas si inutile que ca.
J'ajoute que les modèles livrés au choix en 4Go ou 8Go, ont des différence de frequence memoire en sortie d'usine, c'est bien pour ca que le test castre une 8Go en 4Go, pour qui ne veut pas se prendre la tete avec des afterburner ou mettre les mains dans les pilotes AMD, c'est appréciable.
par lerevolteur83, le Lundi 29 Janvier 2018 à 08h45  
par Nanabozo732 le Dimanche 28 Janvier 2018 à 11h48
Ça me fait penser (le commentaire précédent pas l'article) à une remarque que l'on lit depuis une poignée d'années sur la puissance des derniers modèles GPU qui serait systématiquement trop élevée pour du 1080p et uniquement utile pour tourner sur des écrans 1440p ou UHD. Et donc les gars viennent expliquer aux gens qui demandent des conseils sur leur future config qu'ils devraient absolument se rabattre sur des modèles beaucoup moins puissants que ceux visés (même si leur budget permet d'obtenir le modèle MDG/HDG visé au départ) sauf qu'il ne faut en général pas bien longtemps pour que le modèle conseillé ne suffise plus même en 1080p.
Pour te rejoindre, quand j'ai décidé de changer de GPU j'ai directement lorgné sur la 980ti quand bien même une 980 aurait suffit en 1080. Après je suis en 144Hz donc j'ai voulu avoir un surplus de puissance. Quant à la VRAM, même avec 4go je pense que je m'en serais contenté, 6go c'est un simple confort qui fera sans doute ses preuves dans quelques jeux

Faut pas oublier non plus que niveau GPU on peut rarement choisir la quantité de VRAM que l'on veut, il n'y a que quelques cartes que NVIDIAMD décline en plusieurs versions et encore parfois ce sont les constructeurs partenaires qui le font. Donc du coup les choix se font en fonction de la puissance du GPU et la mémoire en découle presque obligatoirement.
par Scrabble, le Dimanche 28 Janvier 2018 à 12h23  
Sans oublier le HBCC d'AMD : lien
Dans le futur ça sera peut être indispensable.
par Nanabozo732, le Dimanche 28 Janvier 2018 à 11h48  
Ça me fait penser (le commentaire précédent pas l'article) à une remarque que l'on lit depuis une poignée d'années sur la puissance des derniers modèles GPU qui serait systématiquement trop élevée pour du 1080p et uniquement utile pour tourner sur des écrans 1440p ou UHD. Et donc les gars viennent expliquer aux gens qui demandent des conseils sur leur future config qu'ils devraient absolument se rabattre sur des modèles beaucoup moins puissants que ceux visés (même si leur budget permet d'obtenir le modèle MDG/HDG visé au départ) sauf qu'il ne faut en général pas bien longtemps pour que le modèle conseillé ne suffise plus même en 1080p.
par Nanabozo732, le Dimanche 28 Janvier 2018 à 11h33  
par pfloyd1 le Dimanche 28 Janvier 2018 à 07h51
Paf ! et voilà c'est dit et enfin clair: on choisit sa carte en fonction de la résolution de l'écran ! Cet excellent article permettra aux novices d'arrêter de péter leur tirelire pour se rassurer avec du 8 go, donc avec un gpu béton dessus, tout ça pour du 1080P. On achète pas une Ferrari si la piste n'est pas assez longue (mmmh..bon ou quelque chose comme ça...). Ce test permet non seulement de constater que 8 go n'apporte pas plus de perf que 4 go en 1080P, ça doit foutent les boules à certain du coup.
Ça rassure surtout ceux qui sont encore avec des cartes à 4 Go de nos jours, les autres ont peut-être des critères autres que les tiens qui ne dénotent pas forcément avec le principe de bon sens. Sachant que comme les jeux évoluent parfois bizarrement en réclamant plus de ressources là où ne s'y attendait pas... et puis la pérennité et l'évolutivité ne sont pas des critères universels apparemment. Beaucoup se sont trop fait avoir en faisant des économies de bout de chandelle pour se retrouver avec du matos puissant au niveau GPU mais limité par la VRam. Ex moi qui suivait à l'époque ce genre de prêches disant que 2 Go c'est mieux que 4 go pour me retrouver avec un SLI bridé à cause de la mémoire alors que la puissance était là. Prendre une carte uniquement en se basant sur la définition qu'on a actuellement, c'est idiot, demain si on tombe sur une super occaz d'écran à définition bien supérieure, on sera obligé de laisser tomber à cause d'un GPU limitant l'évolutivité ou de repasser à la caisse. Donc oui faut prendre un peu plus large que ses besoins actuels en prévision d'un futur proche. Et l'offre actuelle ne permet pas non plus de trop jouer le difficile...
par Dark, le Dimanche 28 Janvier 2018 à 10h35  
par Scrabble le Samedi 27 Janvier 2018 à 15h32
Nvidia n'a fait que s'adapter à la demande d'une certaine clientèle. Fut un temps sur le comptoir où on ne comptait pas les posts qui disaient que trop de VRAM ça ne servait à rien, que 4 Go c'était largement suffisant, que la quantité de VRAM c'était juste un argument marketing, etc.
Parce qu'à l'époque c'était le cas, tout bêtement, ce qui n'est plus le cas de nos jours où 6-8Go est un choix plus clairvoyant pour quelqu'un qui joue toujours aux derniers jeux sortis et compte garder sa carte 2-3 ans encore. Si on remonte en 2008, on verra aussi le débat des cartes qui ont 2Go sont inutiles. Depuis la plupart des gens ont changé de carte car le gpu était dépassé, non pas à cause de la limite de vram.
Remettre ce débat au goût du jour avec les cartes actuelles, reviendrait à poser la question "Aujourd'hui, pour jouer, vaut-il mieux 8 ou 12 Go ?". Aujourd'hui presque tout le monde dirait 8 Go. Et pourtant dans 4 ans il y aura un petit malin qui affirmera, "je vous l'avais bien dit il y a 4ans que 8 Go ne suffit pas", "je l'ai toujours affirmé haut et fort" ...