COMPTOIR
register

Test • La consommation mémoire dans les jeux 3D

• Le protocole

Nous avons donc eu besoin de choisir en premier lieu les cartes graphiques. il fallait trouver une puce GPU qui soit déclinée en plusieurs versions dont une de 2Go mini, que les seules différences entre ces deux cartes ne soient liées qu'à la seule quantité de mémoire, le reste devant être strictement identique. Chez AMD, cette carte n'existe pas parmi la génération GCN, à l'exception de la Sapphire HD 7970 Toxic 6Go, mais devant l'impossibilité de la trouver, nous sommes allés voir du côté du caméléon.

 

Et là, il faut dire que c'est nettement plus facile ! En effet, toutes les puces depuis la GTX 660 à la GTX 770 se voient dotées de modèles à 2Go de GDDR5, mais aussi de modèles à mémoire doublée. C'est ainsi que nous avons choisi les Gigabyte GTX 670 WindForce3x à 2 et 4Go. Nous avons aussi choisi la GTX 660 de chez EVGA, qui a une déclinaison à 3Go de GDDR5, ce qui est le double théorique de la vraie GTX 660 avec son bus 192-bit, la GTX 660 2Go étant une hérésie mathématique avec ses 1.5Go fonctionnant sur bus 192-bit, et ses 512Mo sur bus 64-bit.

 

Bien entendu, les fréquences ne sont pas identiques entre les cartes au sein du même GPU, et le Turbo varie inlassablement en fonction de la charge qui lui est imposée, le TDP faisant office de juge sur les GTX 660 et 670. Pour éviter des différences de performances qui seraient dues uniquement aux fréquences variables, nous avons utilisé EVGA PrecisionX et limité les fréquences à celles préconisées par Nvidia, à savoir 980/1033/6008 MHz pour la GTX 660 et 915/980/6008 MHz pour la GTX 670.

 

gigabyte_gtx670_4go.jpg

 

Une fois cela fait, il a fallu savoir dans quelles conditions nous allions tester la conso mémoire, en gardant à l'esprit que mettre des réglages démoniaques sur ce genre de carte, ça ne sert à rien si c'est pour se ramasser 3 images par seconde ingame. Pour certains jeux, nous avons donc dégradé les réglages par rapport au maximum autorisé, ceci afin de garder une expérience de jeu décente. Afin de ne pas limiter les performances, ou du moins les impacter le moins possible, nous avons opté pour un Core i7 3930k poussé à 4 GHz, avec hyperthreading désactivé puisque selon les titres, l'hyperthreading influe à la baisse le niveau de performances. Nous avons aussi utilisé 4x1Go de DDR3 1600 MHz, ce qui correspond au minimum syndical en 2013 pour jouer.

 

Ensuite, nous avons choisi deux définitions d'écran, un 27" affichant ses 1920x1080 pixels, définition standard du gamer ayant supplanté dans le coeur les 1680x1050 des "vieux" mais valeureux 22", et un autre de 27" affichant 2560x1440 pixels, qui est la nouvelle définition à abattre pour les gamers ayant un peu de sous de côté. Plus on grimpe en définition, plus il y a de pixels à afficher, plus les textures à gérer seront grandes, et donc plus il y aura besoin de mémoire graphique, du moins... en théorie ! Notez que pour la qualité visuelle qu'il apporte et son coût quasiment anecdotique, nous avons laissé l'aniso sur 16x systématiquement.

 

Une fois tout cela décidé, il a fallu se pencher sur les jeux à choisir. Un démineur ne peut suffire, alors nous nous sommes orientés vers divers titres, dont 2 sont "doublés" : à l'orée des packs textures faits par les moddeurs de plus en plus ingénieux, Crysis 2 et Half Life 2 étaient tout indiqués, le premier bénéficiant du pack HD+tesselation MalDoHD, le second du Cinematic Factory Mod 12.21. Nous avons inclus également Skyrim qui bénéficie de la communauté la plus active, il est possible de trouver n'importe quel pack HD pour n'importe quel élément graphique du jeu, nous avons choisi une grosse dizaine parmi les plus réputés et offrant des textures en 4096 pixels. Nous n'avons pas retenu GTA4 pour une raison toute simple, hormis un portage lamentable , le jeu a tout simplement refusé de fonctionner sur notre plateforme avec les GTX 660 3go et GTX 670 4Go...

 

 

 

Chaque jeu est donc testé en 1080p et en 1440p, les moyennes de 3 passes de 3 minutes chacune (oui, ça fait très très long) sont reportées dans les graphiques. Parallèlement aux mesures faites par FRAPS, nous avons fait tourner Afterburner qui enregistre la quantité de mémoire graphique utilisée, comme GPU-Z (sauf que lui ne propose pas d'historique sur le moyen terme). Bien, maintenant que le protocole est en place, passons au détail des configurations.

 

• Les configurations

matérielle :

Gigabyte X79-UD5

Core i7 3930K @ 4 GHz + Noctua NH U12P + ventilation à 7V

4x1 Go DDR3 1600 Corsair cas 8-8-8-24

SSD OCZ Vertex 3 MaxIOPS 240Go

Thermaltake Toughpower 1350W

 

logicielle :

Windows Entreprise X64 + SP1 + toutes les mises à jour

Geforce 326.41 bêta

Afterburner 3.0.0 bêta 9

GPU-Z 0.7.2

Intel Chipset Installation 9.4.0.1016

FRAPS et Benchs intégrés ou tiers (Adrenaline)

Tous les jeux patchés dans leur dernière version

 

iiyama_xb2776qs.jpg

L'écran qui a permis ce test, iiyama XB2776QS et sa définition de gredin



Un poil avant ?

Aida64 passe la vitesse 3.20

Un peu plus tard ...

Une paire d'Ultrabook de sortie chez LG

Les 85 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Tig, le Samedi 17 Juillet 2021 à 20h44  
...et quand on pense qu'aujourd'hui on a des cartes avec 16 Go de VRAM et plus...
par Centurion76, le Samedi 05 Octobre 2013 à 20h15  
Bonjour, j'avais pas vu ce test et effectivement il est très intéressant! Mais étonnant, J'ai ma HD6870 1Go que je pensais limité par la GDDRam mais en fais sa n'a rien à voir avec le reste de la config, je pensais que ma mémoire vidéo saturais et me faisais une perte de FPS. Donc les pilotes sont bien foutue aujourd'hui et que le bus PCI-E est vraiment un plus!

Bon test! Merci CDH!
par Fred, le Vendredi 20 Septembre 2013 à 16h17  
un grand merci pour cet article que j'attendais depuis longtemps !

en effet, depuis que je suis passé au 29" wide,
je ne savais pas si je devais privilégier une CG avec 4go ou si 2go suffisaient.
maintenant j'ai la réponse
par christo du Limousin, le Jeudi 19 Septembre 2013 à 17h32  
la donne est quelque peu différente où en plus de l'interface CPU/RAM et GPU via le bus PCIe, les pilotes doivent également gérer les 2 GPU et la mémoire graphique selon un mode particulier. Cela fera pourquoi pas l'objet d'un autre article dans le futur !

personellement j'attend ca avec impatiente ...
par Olivon, le Mercredi 18 Septembre 2013 à 19h02  
Les LU ont la dent dure ...

Merci TheBoss pour ce test, grosse qualitaÿ
par Un ragoteur gaulois du Centre, le Mercredi 18 Septembre 2013 à 15h02  
par Un ragoteur inspiré embusqué le Mercredi 18 Septembre 2013 à 10h57
-petit Hs-
j'aimerais le même article mais concernant l'usage du Swap dans un environnement video ludique en effet on conseille aux machines disposant de 4go de ram de laissé entre 1024 et 2048 mo de swap sur un autre partition / disque (ce que j'ai fais ... Os sur ssd, prefetch désactivée et espace de swap sur disque dur).
Or je remarque que certains jeux (ARMA 3 / SKYRIM texture 4K + mods) dépassent allégrement la quantité de VRam voir la Ram (2x2go sur ma carte 3d + 4go de ram + 2048 mo de swap) au point ou j'ai un retour Windows me disant que je dois libérer de la mémoire vive pour maximiser les performance ---) obligé d'elargir le swap entre 4096 et 8096 mo pour solutionner ca !
J'ai aussi 4Go de RAM, mais je viens de vérifier, avec arma 3 sur seven ultimate ca me prends que 3Go en jeu, j'ai aussi défini 2Go de swap, bien que je n'ai jamais remarqué dépasser les 3.5Go utilisés.
par Tnerolf, le Mercredi 18 Septembre 2013 à 14h06  
moi aussi j'avais ce désagrément quand je faisait le jacky tuning en gérant mon swap manuellement. Depuis que je suis sous win8 j'ai décidé de laissé l'os géré cela automatiquement et je n'ai plus ce problème ;-)
par Un ragoteur inspiré embusqué, le Mercredi 18 Septembre 2013 à 10h57  
-petit Hs-
j'aimerais le même article mais concernant l'usage du Swap dans un environnement video ludique en effet on conseille aux machines disposant de 4go de ram de laissé entre 1024 et 2048 mo de swap sur un autre partition / disque (ce que j'ai fais ... Os sur ssd, prefetch désactivée et espace de swap sur disque dur).

Or je remarque que certains jeux (ARMA 3 / SKYRIM texture 4K + mods) dépassent allégrement la quantité de VRam voir la Ram (2x2go sur ma carte 3d + 4go de ram + 2048 mo de swap) au point ou j'ai un retour Windows me disant que je dois libérer de la mémoire vive pour maximiser les performance ---) obligé d'elargir le swap entre 4096 et 8096 mo pour solutionner ca !
par Un ragoteur qui draille d'Ile-de-France, le Mercredi 18 Septembre 2013 à 10h06  
De toute façon les FPS exclu PC ca n'existe presque plus, et si c'est le cas ce sont des petit studio qui les fabriquent, donc on ne peut pas s'attendre à avoir des moteur utilisant les capacités de nos dernières cartes graphique...

De plus, la moitié des éditeurs mange dans la main de nvidia, donc faudrait pas sortir un jeux qui ne tournerai pas sur une GTX 680...

Maintenant que les cartes hdg nvidia ont plus de 2Go et qu'une nouvelle génération de console arrive, on pourra commencé à voir des jeux exploitant vraiment plus de 2Go de mémoire vidéo.
C'est la qu'il faudra refaire des tests pour vérifier si ceux qui avait pris une cg avec plus ram avait fait le bon choix, car ils seront peut être de toute façon gpu limited avant d'être limité par la mémoire.
par Thibaut G., le Mercredi 18 Septembre 2013 à 10h01  
@ragoteur décu : le problème n'est pas la date de sortie de sjeux, mais le smoteurs qui sont utilisés. Ne penses pas que les jeux de 2013 auquel tu joues sont basés sur un nouveau moteur tout neuf. c'est pareil, le prochain batman est sur unreal engine 3, BF3 est encore sur frostbite 2 qui reste une ref.

après tu parles de jeux new gen, mais c'est quoi un jeu new gen avec l arrivée de la ps4 et la xbox one ? un jeu de 2013 ? NON c'est un jeu avec un nouveau moteur, et ça y a pas encore. après oui, tu parles de last lighht qui bouffe pas plus chez moi que 2033, ou max payne 3, oui ce dernier aurait pu y être intégré, mais on sait par les articles d'eric que même les cartes de 2go passent avec des réglages qui sont censés bouffer plus que ça, il l'explique déjà très bien

pour ce qui est des bandes passantes, ca ne change rien le pcie suffit actuellement pour faire transiter les données rapidement sans impact. tu n as pas connu la période la 8800 gts 320 toi, c clair

par Thibaut G., le Mercredi 18 Septembre 2013 à 09h41  
par toof59 le Mercredi 18 Septembre 2013 à 09h34
Article très intéressant !

Cependant j'aurai attendu BF4 et l'hypothétique sortie de GTA 5 sur pc pour faire ce test avec des jeux new gen car si on cherche à refaire sa config actuellement, c'est pour les prochains jeux, moins ou pas pour ceux qu'on a déjà
bf4 utilise le frostbite 3, bf3 est sur le frostbite 2 qui reste une ref. la sortie de gta5 sur pc, c'est comment dire....loin ? jamais ? on peut pas attendre à un moment faut bien publier !
par toof59, le Mercredi 18 Septembre 2013 à 09h34  
Article très intéressant !

Cependant j'aurai attendu BF4 et l'hypothétique sortie de GTA 5 sur pc pour faire ce test avec des jeux new gen car si on cherche à refaire sa config actuellement, c'est pour les prochains jeux, moins ou pas pour ceux qu'on a déjà