COMPTOIR
  
register

L'évolution de la mémoire des GPU Nvidia depuis Fermi, qu'attendre d'Ampere ?

Pas mal de rumeurs encore ces derniers temps à propos de la prochaine génération de GeForce, d’autant plus depuis l’officialisation de l’architecture Ampere étant censée l’animer. Bien sûr, rien de très concret encore pour l’instant, malgré les soi-disant premières images de radiateurs ou de modèles partenaires circulant ici et là sur le net, on ne peut dans tous les cas que se contenter de spéculer et choisir de croire, ou pas. Néanmoins, l’autre sujet intéressant est de savoir si Nvidia franchirait le pas d’équiper ses prochaines GeForce avec encore plus de mémoire vidéo. Mais pour l’instant,  aucune rumeur récente n’a suggéré que cela pourrait être le cas, hormis celle-ci un peu vieille de janvier.

 

header 4go vs 8go vram

 

En fin de compte, augmenter la mémoire associée au GPU aurait-il un intérêt immédiat ? Chez 3DCenter.org, le débat fait rage entre ses forumeurs, avec des arguments valides d’un côté comme de l’autre. En pratique, il est bien rare encore aujourd’hui d’exploiter par exemple la totalité des 11 Go de GDDR6 d’une RTX 2080 Ti. Un argument toutefois opposé par celui d’un meilleur usage et de la gourmandise potentielle des prochaines générations de jeux, mais même dans ces cas, le GPU lui-même pourrait devenir le facteur limitant bien avant la quantité de mémoire vidéo. On sait que les prochaines consoles embarqueront 16 Go de GDDR6 (contre 8 Go de GDDR5 sur les prédécesseurs immédiats), en sachant qu’une portion (a priori environ 6 Go) servira pour l’OS et le reste. On se dirigerait donc tout de même vers une augmentation potentielle de la consommation de mémoire vidéo des futurs jeux, mais qui se fera certainement progressivement au fil des sorties et l’on verrait donc de toute manière encore passer plusieurs générations de GPU pour PC.

 

En attendant, beaucoup ont remarqué que la quantité de mémoire n’a pas franchement évolué entre Pascal et Turing, ce qui en avait probablement déçu plusieurs et donné le sentiment d’une stagnation par rapport aux fortes évolutions entre les générations précédentes depuis Fermi. Pourtant, pour de nombreux GPU, cette valeur est souvent psychologique et on avait bien observé lors de notre Expérience en 2018 qu’un GPU est généralement mis à genou encore bien avant que sa VRAM ne le limite. En somme, il y a fort à parier que les quantités de mémoire pourraient ne pas évoluer sensiblement avec les RTX 3000 par rapport aux GeForce Turing, hormis peut-être suivant quelques ajustements liés à la taille d’une nouvelle interface mémoire. Simplement parce qu'il n'y a visiblement pas urgence  et il se pourrait donc que cela suffise encore largement. Les futurs tests nous le diront bien assez tôt ! (Source : 3DCenter.org)

 

NVIDIAFermi - GTX 400/500 (2010)Kepler - GTX 600/700 (2012)Maxwell - GTX 700/900 (2014)Pascal - GTX 1000 (2016)Turing - RTX 2000 (2018)Ampere - RTX 3000 ? (2020)
GeForce xx50 1 Go 1 - 2 Go 2 Go 2 - 4 Go 4 Go 4 Go ?
GeForce xx60 0,7 - 1,2 Go 2 Go 2 Go 3 - 6 Go 6 - 8 Go 6 - 8 Go ?
GeForce xx70 1,2 Go 2 Go 3,5 Go 8 Go 8 Go 8 Go ?
GeForce xx80 1,5 Go 2 - 3 Go 4 Go 8 Go 8 Go 10 Go ?
GeForce xx80 Ti - 3 Go 6 Go 11 Go 11 Go 12 Go ?
Titan - 6 Go 12 Go 12 Go 24 Go 24 Go ?
AMD (en bref, +/- les mêmes périodes) 512 Mo à 2 Go 256 Mo à 6 Go 1 Go à 8 Go 1 Go à 8 Go

4 à 16 Go

?
Un poil avant ?

Quelques semaines plus tard, Mindfactory fait le bilan de ses ventes CPU, GPU et même mobales !

Un peu plus tard ...

GTX 1650 à la TU106, TU116, T117... Attention à l'encodeur NVENC

Les 17 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Auvergne-Rhône-Alpes en Île-de-France, le Mercredi 08 Juillet 2020 à 14h23  
par Une ragoteuse à forte poitrine en Auvergne-Rhône-Alpes, le Mercredi 08 Juillet 2020 à 02h47
Sauf que jusqu'à présent, la compression des textures sert à palier au manque de bande passante, et surtout de pouvoir minimiser la taille des bus mémoires parce que ça coûte moins cher pour eux principalement.

Le seul cas où c'est vraiment recevable, c'est pour les iGPUs où c'est vital, car on stagne sur du dual-channel et bus 2x64 bit depuis 20 ans.

Mis à part l'HBM, ça fait 11 ans qu'on a pas dépassé les bus 384 bits chez Nvidia, et chez AMD c'est du bus 256 bits depuis 2016.
Les bus au-dessus, ils savent très bien le faire, c'est juste une question de marges. C'est même pas une question de conso vu qu'ils ont déjà réussi à faire du bus 512 bits sur un GPU n'ayant que 204W de TDP.

Et faut pas oublier un truc aussi: Les textures sont de plus en plus fines au vu de la taille de plus en plus démesurée des jeux, donc même avec la compression des textures, ça ne suffit pas.

Il faut donc augmenter la VRAM, et l'idéal c'est quand c'est proportionnel à la puissance du GPU.
Faut partir du principe que pour une 8800 GTX/HD 4770, la bonne taille c'est minimum 1Go de VRAM.

Avec le comparatif de performances GPU de TechpowerUP: Approximations performances GPUs depuis 2008 à 2019

Si le GPU est deux fois plus puissant qu'une HD 4770, et ben il faudra minimum 2Go de VRAM, et ainsi de suite...

Résultat, pour une RTX 3080 Ti (si +30% de performances d'une RTX 3090 Ti), il lui faudra au minimum 21Go de VRAM pour être cohérent.
par Une ragoteuse à forte poitrine en Auvergne-Rhône-Alpes, le Mercredi 08 Juillet 2020 à 02h47  
par Scrabble, le Mercredi 08 Juillet 2020 à 00h20
Je ne suis pas sûr que ta solution soit viable : Une texture, pour être
utilisée par le GPU, doit être lue, donc décompressée, à très grande
vitesse. Je n'y connais pas grand-chose en compression de texture sur
GPU, mais je crois que les compressions disponibles sont assez basiques,
ceci depuis longtemps.
La compression de texture permet non seulement d'économiser de la capacité
mémoire mais aussi du temps de transfert en mémoire.

En règle générale, pour qu'un algorithme de compression soit viable il faut
non seulement qu'il puisse réduire la quantité de données à la compression
mais surtout restituer des données de qualités le plus rapidement possible
à la décompression puisque la majorité des accès aux données se réalise
en lecture.

Evidemment si un filtrage doit être appliqué à une texture, celle-ci devra
être décompressée à la volée cependant déplacer des montagnes de textures
non compressées représente une perte de temps d'autant plus lorsqu'elles
ne sont pas toutes nécessaires au rendu de la scène selon la position de
l'objet ou de la caméra.

Bref, la capacité mémoire n'est pas l'alpha et l'omega d'une carte graphique
et la compression des textures est aussi un facteur de performances.

source:

https://www.anandtech.com

par Scrabble, le Mercredi 08 Juillet 2020 à 00h20  
par Un ragoteur de transit en Auvergne-Rhône-Alpes, le Mercredi 08 Juillet 2020 à 00h14
Du coup si un fabricant de carte graphique dispose d'une compression de
texture efficace minimisant la quantité de données à traiter tout en
offrant d'excellentes performances mais ne te propose pas de doubler
la capacité de mémoire pour réduire le prix de ses produits tu préfères
voir la concurrence j'ai bon?

Toute vraisemblance avec nVidia ne serait que fortuite...
Je ne suis pas sûr que ta solution soit viable : Une texture, pour être utilisée par le GPU, doit être lue, donc décompressée, à très grande vitesse. Je n'y connais pas grand-chose en compression de texture sur GPU, mais je crois que les compressions disponibles sont assez basiques, ceci depuis longtemps.
par Un ragoteur de transit en Auvergne-Rhône-Alpes, le Mercredi 08 Juillet 2020 à 00h14  
par Scrabble, le Mardi 07 Juillet 2020 à 13h46
A chaque fois que j'ai acheté une nouvelle carte graphique, j'ai toujours
doublé la mémoire vive, sauf pour ma dernière RX 5700.
- RX 4770 : 512 Mo
- RX 6870 : 1 Go
- RX 7870 : 2 go
- R9 290 : 4 go
- RX Vega 64 : 8 Go
C'est normal, c'est le progrès.
Du coup si un fabricant de carte graphique dispose d'une compression de
texture efficace minimisant la quantité de données à traiter tout en
offrant d'excellentes performances mais ne te propose pas de doubler
la capacité de mémoire pour réduire le prix de ses produits tu préfères
voir la concurrence j'ai bon?

Toute vraisemblance avec nVidia ne serait que fortuite...
par Un ragoteur des lumières en Auvergne-Rhône-Alpes, le Mardi 07 Juillet 2020 à 21h25  
il va falloir consulter un neurologue au plus vite (voir à 14h04)
par Ragoteurenquestionnement en Wallonie, le Mardi 07 Juillet 2020 à 18h48
Comme on le dit pci express 4.0 64 giga/sec ou 5.0 en 2022 débit seulement doublé 128 giga secondes de transfert
Port Nvlink 600 giga secondes. La différence entre grand public et pro est tellement disproportionnée
C'est comme le débit des cartes mères niveau architecture
Trop peu d'évolution
Pour la ram. Il est conseillé d'avoir 16 giga ram vidéo pour la résolution 4k mais il faudrait que les cartes vidéo soit en display port 1.4 et hdmi 2.1
Meme chose pour les moniteurs 4k, il faudrait du hdmi 2.1, dp 1.4 et surtout des dalles 10 bits HDR sur les moniteurs pour pouvoir bénéficier des 1 milliards de couleurs de la nouvelle norme colorimetrique du REC.2020 au lieu du rec709... Bref, le retard technologie en affichage des jeux est indéniable sans compter le son.. Un autre débat
par Ragoteurenquestionnement en Wallonie, le Mardi 07 Juillet 2020 à 18h48  
Comme on le dit pci express 4.0 64 giga/sec ou 5.0 en 2022 débit seulement doublé 128 giga secondes de transfert
Port Nvlink 600 giga secondes. La différence entre grand public et pro est tellement disproportionnée
C'est comme le débit des cartes mères niveau architecture
Trop peu d'évolution
Pour la ram. Il est conseillé d'avoir 16 giga ram vidéo pour la résolution 4k mais il faudrait que les cartes vidéo soit en display port 1.4 et hdmi 2.1
Meme chose pour les moniteurs 4k, il faudrait du hdmi 2.1, dp 1.4 et surtout des dalles 10 bits HDR sur les moniteurs pour pouvoir bénéficier des 1 milliards de couleurs de la nouvelle norme colorimetrique du REC.2020 au lieu du rec709... Bref, le retard technologie en affichage des jeux est indéniable sans compter le son.. Un autre débat
par Auvergne-Rhône-Alpes en Île-de-France, le Mardi 07 Juillet 2020 à 14h50  
par Darth Moule, le Mardi 07 Juillet 2020 à 12h34
Haa l'époque où j'étais jeune et où on se disait qu'il valait mieux prendre une carte avec plus de Mo, que c'était ça qui faisait la vitesse
J'ai revu ma copie à la sortie de la 4770HD avec ses 512Mo de GDDR5
En même temps quand tu vois l'écart entre une 8800 GTS 320 Mo et une 8800 GTS 640 Mo, c'était assez vrai.

Après, 512 Mo pour une HD 4770, c'est trop peu. Quand tu vois que ça vaut une 8800 GTX (de 768Mo), 1Go aurait été la quantité parfaite.
par Scrabble, le Mardi 07 Juillet 2020 à 13h46
A chaque fois que j'ai acheté une nouvelle carte graphique, j'ai toujours doublé la mémoire vive, sauf pour ma dernière RX 5700.
- RX 4770 : 512 Mo
- RX 6870 : 1 Go
- RX 7870 : 2 go
- R9 290 : 4 go
- RX Vega 64 : 8 Go
C'est normal, c'est le progrès.
La prochaine CG que j'achèterai coûtera sans doute aux alentours de 1000 €, je me vois mal être limité à 8 Go pour un tel prix. Je sais bien que pour l'instant, ça ne sert à rien, mais bon, il faut quand même prévoir. Pareil pour les CPU, je ne comprend pas trop les gamers qui achètent un Ryzen à 350 €, pour l'associer à 16 pauvres Go à 65 €, il faut avoir la vue un peu courte. M'enfin, chacun fait comme il veut.
C'est bien ça le problème.

Les gens prennent toujours les chiffres absolus en compte alors qu'il y a largement mieux, et qui ne sont en plus valables qu'à un instant T.
Et dans le cadre des benchs, c'est encore plus vrai vu qu'on retrouve des jeux ayant plus de 2 ans au compteur, tirant encore les résultats vers le passé.

Pour les Ryzen 8C/16T (cf 350E), avec 16Go ils peuvent encore upgrade donc ça va.
par Scrabble, le Mardi 07 Juillet 2020 à 13h46  
A chaque fois que j'ai acheté une nouvelle carte graphique, j'ai toujours doublé la mémoire vive, sauf pour ma dernière RX 5700.
- RX 4770 : 512 Mo
- RX 6870 : 1 Go
- RX 7870 : 2 go
- R9 290 : 4 go
- RX Vega 64 : 8 Go
C'est normal, c'est le progrès.
La prochaine CG que j'achèterai coûtera sans doute aux alentours de 1000 €, je me vois mal être limité à 8 Go pour un tel prix. Je sais bien que pour l'instant, ça ne sert à rien, mais bon, il faut quand même prévoir. Pareil pour les CPU, je ne comprend pas trop les gamers qui achètent un Ryzen à 350 €, pour l'associer à 16 pauvres Go à 65 €, il faut avoir la vue un peu courte. M'enfin, chacun fait comme il veut.
par Scrabble, le Mardi 07 Juillet 2020 à 13h37  
par Jemporte, le Mardi 07 Juillet 2020 à 09h42
Normalement avec un bus rapide (PCIe 4.0 et 5.0) et la VRAM en tant que cache (par exemple HBM2), un GPU devrait s'en sortir avec une quantité de VRAM modeste (4 ou 8 Go) pour à peu près toutes les tâches.
Le problème se situe au niveau des pilotes et de la programmation. Ainsi la HBCC chez AMD était un pas dans la bonne direction, mais les nouvelles RDNA1 ont fait marche arrière.
La seule application pratique pour utiliser le HBCC de ma RX Vega que j'ai trouvée était cette démo :
lien
par Darth Moule, le Mardi 07 Juillet 2020 à 12h34  
Haa l'époque où j'étais jeune et où on se disait qu'il valait mieux prendre une carte avec plus de Mo, que c'était ça qui faisait la vitesse
J'ai revu ma copie à la sortie de la 4770HD avec ses 512Mo de GDDR5
par Ragoteurenquestionnement en Wallonie, le Mardi 07 Juillet 2020 à 12h04  
Comme on le dit pci express 4.0 64 giga/sec ou 5.0 en 2022 débit seulement doublé 128 giga secondes de transfert
Port Nvlink 600 giga secondes. La différence entre grand public et pro est tellement disproportionnée
C'est comme le débit des cartes mères niveau architecture
Trop peu d'évolution
Pour la ram. Il est conseillé d'avoir 16 giga ram vidéo pour la résolution 4k mais il faudrait que les cartes vidéo soit en display port 1.4 et hdmi 2.1
Meme chose pour les moniteurs 4k, il faudrait du hdmi 2.1, dp 1.4 et surtout des dalles 10 bits HDR sur les moniteurs pour pouvoir bénéficier des 1 milliards de couleurs de la nouvelle norme colorimetrique du REC.2020 au lieu du rec709... Bref, le retard technologie en affichage des jeux est indéniable sans compter le son.. Un autre débat
par Un ragoteur bio en Île-de-France, le Mardi 07 Juillet 2020 à 11h37  
Pour faire simple et vite:

 

En fin de compte, augmenter la mémoire associée au GPU aurait-il un intérêt immédiat??


Jamais dans l'immédiat, mais sur le moyen (au-dessus de 2 ans) et long terme oui.

 

En pratique, il est bien rare encore aujourd'hui d'exploiter par exemple la totalité des 11 Go de GDDR6 d'une RTX 2080 Ti


Valable seulement aujourd'hui, pas forcément demain.
Des jeux utilisent déjà pas moins de 6Go de VRAM sur des cartes bas-millieu de gamme depuis presque un an.

 

Un argument toutefois opposé par celui d'un meilleur usage et de la gourmandise potentielle des prochaines générations de jeux.

Mais même dans ces cas, le GPU lui-même pourrait devenir le facteur limitant bien avant la quantité de mémoire vidéo


Première partie vraie vu le passé.

Mais deuxième partie fausse.

Il faudrait refaire le test des vieilles cartes (ex: GTX 780Ti vs Titan Black, GTX 980 vs GTX 1060, etc) pouvant faire tourner tel ou tel jeu récents, et les GPUs cités sont encore largement capables de faire du 1080p tout à fond no AA pour bon nombre de jeux.

Mais ça, personne ne l'a fait, sauf GameGPU.
Et j'insiste sur le mot récent (jeux de 1.25 an grand max), chose que l'Expérience CDH 2018 n'a que partiellement fait.

 


On se dirigerait donc tout de même vers une augmentation potentielle de la consommation de mémoire vidéo des futurs jeux, mais qui se fera certainement progressivement au fil des sorties et l'on verrait donc de toute manière encore passer plusieurs générations de GPU pour PC.



C'est une augmentation certaine, sinon autant mettre 8Go de RAM comme avant.

Augmentation progressive oui, mais le GPU ne tombera pas avant. Cf le cas de la GTX 780Ti qui est particulièrement intéressant sur ce sujet