COMPTOIR
register

×

Une RX 6800M... castrée ?

Attention à vos barrettes de RAM, les performances en jeu impactées ?
Une RX 6800M... castrée ?

Si vous faîtes partie des djeuns (ou moins djeuns) à surfer sur le jeune média que représente YouTube, et à l’utiliser comme source d’information en ce qui concerne les actualités informatiques, alors vous n’avez pas dû passer à côté de la nouvelle tempête. Si tel n’est pas le cas, laissez-nous rerésumermuer : une première vidéo - intégrée ci-dessous — de Jarrod’s Tech montre des gains impressionnant en matière de performances d’un laptop équipé d’une RX 6800M de chez AMD et d’un Ryzen 5900HX.

 

 

En particulier, deux décisions totalement indépendantes l’une de l’autre sont critiquées : d’une part, l’impossibilité de désactiver totalement l’iGPU, ce qui signifie qu’une partie de la chaîne d’affichage passe encore par la partie graphique du 5900HX et, d’autre part, l’intégration de modules de RAM utilisant des puces organisées en 1Rx16 (dénommées « by sixteen » en vidéo), comparées aux plus courantes 1Rx8 (« by eight ») du marché. Vous vous en serez douté à la lecture de notre titre, c’est bien de cela que nous discuterons dans les paragraphes suivants ! Notez que la modification de l’un ou l’autre de ces deux paramètres, respectivement en passant par un écran externe et en chargeant la RAM s’accompagne de hausse du nombre d’images par seconde allant jusqu’à 30 % sans impact notable sur la consommation.

 

Une RX 6800M... castrée ? [cliquer pour agrandir]

 

Cependant, ASUS s’est tout de même fendu d’un mail explicatif justifiant ces choix par le coût des pièces, qu’il s’agisse des MUX nécessaire pour désactiver l’iGPU comme des puces mémoires, dont la production bouge vers des modules organisés en 1Rx16, plus denses — encore une fois, nous y reviendrons très bientôt plus en détail.

 

 

En effet, YouTube n’échappant pas aux effets de mode médiatique, la prestigieuse chaîne canadienne Linus TechTips s’est également attelée à des expériences en modifiant les modules RAM, et sont grosso modo arrivés aux mêmes conclusions : changer les modules de RAM de 1Rx16 en 1Rx8 permet d’augmenter les performances en jeu, et même d’égaler la concurrente RTX 3080 en rastérisation pure ; une conclusion d’autant plus importante qu’elle remet en cause la conclusion du test précédent de la carte rouge, et, ainsi, sa pertinence pour l’acheteur final.

 

Le forum de LinusTechTips est également riche de débats et d’éclaircissements quant aux approximations effectuées lors de la vulgarisation

 

Pour autant, le phénomène — et c’est souvent le cas en informatique — n’est ni vraiment nouveau, ni aussi simple que cela. Rentrant dans le cas des architectures NUMA — Non-Uniform Memory Access dont nous vous causions (entre autres) en 2018, les données en RAM sont, en interne, réparties sur plusieurs puces. Lorsqu’une donnée est demandée, un signal est envoyé à l’ensemble des puces, et seule celle contenant la donnée répond qu’il s’agisse d’une requête en écriture comme en lecture. De plus, la notation 1Rx8 et 1Rx16 indique (en autre, nous simplifions ici) la densité des puces utilisées : dans notre cas, les premières seront des puces de 2 Gio, contre 4 Gio dans le second... un fait facilement visible puisque le PCB des barrettes de 8 Gio SO-DIMM — donc d’ordinateur portable — en 1Rx16 n’utilisera qu’un seul des deux côtés pour caser les 4 puces, contre les deux côtés et 8 puces en tout pour le 1Rx8. Cependant, la topologie de la mémoire n’est pas plate : au sein même des puces, l’espace de stockage RAM est hiérarchisé au sein de groupes de banks, et la latence liée à deux accès consécutifs au même groupe de banks est supérieure à deux accès à des groupes différents. En durcissant le trait à l’extrême, le comportement peut être comparé à des SSD, qui sont d’autant plus rapides que le nombre de puces est grand... à l’exception que l’échelle ici est le nombre de groupe de banks par barrette et non la capacité de la barrette.

 

Pour plus d’information, Actually Hardcore Overclocking vous embarque dans une passionnante séance de lecture de spécificaitons (ici pour les x8, pour les x16)

 

Vous l’avez probablement vu arriver, mais les puces utilisées dans une disposition 1Rx16 possèdent moins de banks que celle des 1Rx8, ce qui entraîne théoriquement des performances moindres, tout du moins dans certains cas critiques. Et c’est bien là que les choses se compliquent, car les puces 1Rx16 sont principalement produites pour des applications dans laquelle la densité de la mémoire a une importance — comprenez l’embarqué, où diviser par deux le nombre de puces représente un gain phénoménal, même au prix de performances légèrement castrées. Comprenez donc que leurs latences sont, hors histoire de banks, peu appétissante pour les joueurs. À l’inverse, il est possible de trouver des barrettes en 1xR8 de toutes qualités, y compris plus lentes que celle en 1Rx16 ; d’autant plus que ce cas pathologique des banks est théoriquement très rare, et ne se décèlera pas ou tout du moins pas facilement dans des benchmarks sythétique (par exemple, pas ou très peu lors d’une lecture séquentielle simple de la RAM). Comprenez donc que, plus que le 1RxTruc, les latences nominales sont l'indicateur à piviléger !

 

Rajoutez à cela que ces ralentissements sont exacerbés sur l’architecture Zen, en particulier sur les ordinateurs portables. À cela, plusieurs explications sont possibles : d’une part, Zen 3 mobile ne bénéficie pas de l’augmentation démesurée du L3, d’où un rôle plus important de la mémoire. D’autre part, de par l’organisation en CCX des cœurs induit très certainement un partitionnement de la mémoire entre ces CCX, et donc une influence démultipliée des latences intra-banks, notamment si un CCX venait à taper systématiquement sur le même bank — notre problème ici. Enfin, l’apparition du Smart Memory Access permet à la carte graphique d’accéder à un espace d’adressage plus large, pour un effet houleux sur PC portable : une fois encore, il n’est pas impossible de retrouver du grabuge à ce niveau, qu’il s'agisse de latence RAM ou de cohérence de cache au sein du processeur.

 

Enfin, une ultime question se pose : qu’en est-il pour les PC de bureau ? Du fait de barrettes physiquement plus grandes, le risque est bien moindre de tomber sur une version 1Rx16 ; mais — à l’instar des modules SO-DIMM mobiles – la qualité des puces utilisées sera un bien meilleur indicateur de la performance générale. En effet, la qualité et la cadence des puces sont parfois mis en avant par les fabricants dans les modèles haut-de-gamme, citons en exemple les B-die de Samsung, qui apparaissent régulièrement dans les records d’overclocking. Reste que ces informations sont très souvent ardues à retrouver — quand la chose est possible —, d’autant plus sur un laptop ; et c’est bel et bien le consommateur final qui risque de se retrouver floué. (Un grand merci à JeuxGratuit pour son alerte)

Un poil avant ?

Un pilote AMD pour Doom Eternal

Un peu plus tard ...

Marvell sort l'artillerie ARM Neoverse N2 dans ses OCTEON 10

Les 12 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par _m_, le Lundi 08 Novembre 2021 à 21h22  
Juste en passant, les Zen 3 mobiles n'ont qu'un seul CCX, de 4, 6 ou 8c
par Un ragoteur qui pipotronne embusqué, le Dimanche 04 Juillet 2021 à 23h58  
vous êtes sur que le xTruc représente la densité ? pour moi cela a toujours été la largeur du bus de la puce mais c'est peut être corrélé. C'est sympa que quelqu'un s'intéresse à ça car il y a pas beaucoup d'info à ce sujet car j'ai aussi cherché sur le même sujet il y a quelque temps mais pour du x4 vs x8. aussi c'est pas trop dit mais avoir 2 rank est aussi bénéfique (jusqu'à 7%). Après faut savoir ce qu'on veut, les x16 consomment moins que les x8. Pour finir cette phrase me fait un peu tiquer : "en 1Rx16 n'utilisera qu'un seul des deux côtés pour caser les 4 puces, contre les deux côtés et 8 puces en tout pour le 1Rx8." car cela n'a rien à voir avec la disposition physique. On pourrait avoir des x16 avec 2 de chaque côté ou des x8 avec 8 sur le même côté.
par jumorolo, le Jeudi 01 Juillet 2021 à 19h31  
le problème de la perte de performances induite par le passage par l'igp pour l'écran interne est également existant sur intel ( il faut soit mux soit l'écran interne directement câblé sur le gpu comme sur les omen gsync mais ça fait mal a l'autonomie), la différence de bp entre des single et dual bank aussi mais je n'ai pas pris le temps de tester les performances en jeu seulement en test synthétique et y'avait une différence légère que ce soit sur la lecture/écriture/copie ou latence
par HardBitFr, le Jeudi 01 Juillet 2021 à 15h43  
par Guillaume L. le Jeudi 01 Juillet 2021 à 15h23
Au passage, la sélection du type de GPU pour chaque appli en manuel est intégré à Windows 10 depuis 2 versions majeures, et fait des merveilles dans beaucoup de cas de figure
C'est vrai, mais ça éteint vraiment le GPU concerné ou ça consomme comme un "Zero"Core ?
par Guillaume L., le Jeudi 01 Juillet 2021 à 15h23  
par HardBitFr le Jeudi 01 Juillet 2021 à 14h55
Si
Bon, SmartShift marche bien, mais ça vaut pas un humain qui décide d'utiliser soit l'iGPU ou soit le dGPU via un logiciel (à la Optimus) ou encore mieux, décider des fréquences et tensions via des courbes ou via le BIOS directement pour le CPU ou GPUs.

Après, j'imagine que si ils ont fait ça, ça a peut-être un lien avec la galère que c'est sous Linux de faire une gestion manuelle. Déjà que c'est toujours encore un merdier avec Optimus sous Linux, et sachant que les drivers GPU ont tous leurs bases communes quel que soit l'OS, ce serait la seule explication que j'ai.
Au passage, la sélection du type de GPU pour chaque appli en manuel est intégré à Windows 10 depuis 2 versions majeures, et fait des merveilles dans beaucoup de cas de figure
par HardBitFr, le Jeudi 01 Juillet 2021 à 14h55  
Si il y a un truc ou AMD a relativement "merdé" c'est d'avoir voulu faire un système automatique de gestion d'énergie nommé SmartShift plutôt qu'améliorer Enduro (donc de permettre de véritablement couper le dGPU au lieu de rebalancer l'énergie vers le CPU ou l'iGPU puis de baisser les tensions), qui était le peu connu mais véritable concurrent d'Optimus.

Bon, SmartShift marche bien, mais ça vaut pas un humain qui décide d'allumer que l'iGPU ou que le dGPU via un logiciel (à la Optimus) ou encore mieux, décider manuellement des fréquences et tensions via des courbes ou via le BIOS directement pour le CPU ou GPUs.

Après, j'imagine que si ils ont fait ça, ça a peut-être un lien avec la galère que c'est sous Linux de faire une gestion manuelle. Déjà que c'est toujours encore un merdier avec Optimus sous Linux, et sachant que les drivers GPU ont tous leurs bases communes quel que soit l'OS, ce serait la seule explication que j'ai.

Il faudrait qu'ils pensent aussi à donner un vrai nom pour Enduro si ils le font revivre, parce que c'est enfoui dans Hybrid Graphics puis PowerXpress avant d'arriver à Enduro. La com c'est pas leur fort.

 
et à l'utiliser comme source d'information


Il manque "pas fiable". Le pire c'est que je rigole qu'à moitié.
par Nicolas D. le Mercredi 30 Juin 2021 à 22h19
Merci à toi d'avoir signalé la chose, on a dû un peu se cultiver et en discuter en interne avant de sortir notre explication du schmilblick mais c'est toujours hyper intéressant ce genre de détails d'implémentation !
Il y a aussi un autre sujet qui n'est pas trop discuté sur les sites de Hardware, c'est le Daisy Chain topology, T topology et autres pour la RAM.
par Guillaume L., le Jeudi 01 Juillet 2021 à 14h17  
par Un ragoteur des lumières en Île-de-France le Jeudi 01 Juillet 2021 à 12h22
Article intéressant. Ce serait utile d'essayer de comparer avec des portables équivalents en Nvidia voir s'ils ont le même problème, ou si c'est uniquement sur les portables en AMD que des économies sont faites par les constructeurs.
La question surtout, c'est de savoir si en plus d'une quelconque économie de faite (si c'est le cas, il y a des chances que cela ne date pas d'hier) il y a une influence forte ou pas.
Le problème dans les vidéos présentées à mon goût, c'est qu'il n'y a pas de comparaisons sur d'autres plate-forme ou d'autres configurations de manière aussi poussée, et il est difficile d'en savoir l'impact final sur la globalité des machines.

Après, ce sont des tests longs à mettre en place, il faut en avoir conscience. Cependant, sans ces tests, je trouve que c'est un peu de l'accusation facile et manquant de profondeur à mon sens. Même si, au final, la pratique est dégueulasse, mais bon, c'est comme dire SSD NVMe, ne pas indiquer si MAX-Q ou pas, ne pas indiquer la capacité de refroidissement ou d'alimentation...
par Un ragoteur des lumières en Île-de-France, le Jeudi 01 Juillet 2021 à 12h22  
Article intéressant. Ce serait utile d'essayer de comparer avec des portables équivalents en Nvidia voir s'ils ont le même problème, ou si c'est uniquement sur les portables en AMD que des économies sont faites par les constructeurs.
par DP en Île-de-France, le Jeudi 01 Juillet 2021 à 10h59  
J'avais vu le sujet de Linus et me demandais si cela allait apparaître en Fr... J'attends que Sieur PC en parle...
par Nicolas D., le Mercredi 30 Juin 2021 à 22h19  
par Jeux gratuits. d'Occitanie le Mercredi 30 Juin 2021 à 18h37
Merci d'avoir fait un sujet dessus .
Merci à toi d'avoir signalé la chose, on a dû un peu se cultiver et en discuter en interne avant de sortir notre explication du schmilblick mais c'est toujours hyper intéressant ce genre de détails d'implémentation !
par Jeux gratuits. d'Occitanie, le Mercredi 30 Juin 2021 à 18h37  
Merci d'avoir fait un sujet dessus .
par Feunoir, le Mercredi 30 Juin 2021 à 16h21  
Avec les ryzen desktop j'en étais resté avec la notion de sweet spot pour la fréquence mémoire (et le cas latency) , et de ne surtout pas aller trop haut en fréquence pour ne pas fâcher l'infinity fabric, mais là cela se compliquerait un peu trop

(Mais de toute façon si c'est un peu visible en full hd d'avoir une meilleur mémoire, en 4K c'est la carte graphique qui sera limitante)