COMPTOIR
register

×

caract t

AMD annonce ses Radeon RX 7900 XT & XTX
caract t
Chiplet
MCD
Unités de calcul
RT
Découplage des fréquences
moteur video t
Prix

AMD a donc levé hier soir une partie du voile sur sa nouvelle architecture RDNA 3, au travers d'un nouveau GPU Navi 3x (probablement 31, mais AMD ne le précise pas) et des premières cartes l'utilisant, à savoir les Radeon RX 7900 XTX & RX 7900 XT. Que faut-il en retenir ?

 

caract t [cliquer pour agrandir]

 

Tout d'abord, il s'agit du premier GPU à adopter l'approche en chiplet, que le concepteur utilise sur CPU depuis Zen 2. En pratique ici, 2 types de chiplets vont donc cohabiter :

  • le Graphics Compute Die ou GCD qui va intégrer toutes les éléments constitutifs d'un GPU classique, à l'exception des contrôleurs mémoire et du cache L3
  •  les Memory Cache Die qui vont de leur côté embarquer 2 contrôleurs mémoire 32-bit et 16 Mo de cache L3

L'avantage de cette approche, c'est qu'elle va permettre davantage de flexibilité au niveau de la production, mais aussi du "calibrage" des différents GPU. Ainsi, l'onéreux process 5 nm de TSMC est réservé au GCD, qui va profiter à plein des gains en termes de performance du procédé de gravure, en particulier pour limiter la puissance électrique nécessaire. Les MCD moins sensibles à cette problématique, peuvent se contenter d'un nœud de gravure moins performant (et donc moins onéreux), ici le 6 nm de TSMC (optimisation du node 7 nm). AMD peut aussi varier le nombre MCD accompagnant le GCD pour ajuster les coûts et les performances au sein de sa gamme : ainsi la 7900 XTX en utilisera 6, contre 5 sur la version XT. Cela conduira à un L3 max de 96 Mo (80 Mo sur la XT), en berne par rapport aux 128 Mo de RDNA2.

 

Chiplet [cliquer pour agrandir]

 

La difficulté de l'approche en chiplet sur un GPU, provient des débits gigantesques nécessaires entre die. Pas d'interposer ici comme à l'époque des premières puces utilisant la HBM, mais l'utilisation d'une technologie de packaging spécifique qu'AMD nomme Elevated Fannout Bridge (EFB), intronisée sur les accélérateurs CDNA 2 des rouges. Ainsi, 5,3 To de données peuvent transiter chaque seconde par ce biais entre dies, soit un peu plus de 880 Go/s entre chaque MCD et le GCD. AMD indique qu'au global, cette approche permet d'obtenir une bande passante mémoire en pic jusqu'à 2,7x plus élevée qu'avec RDNA 2 (avec de la GDDR6 plus rapide et un bus 50% plus large).

 

MCD [cliquer pour agrandir]

 

Du côté des unités de calcul "traditionnelles", si RDNA 2 n'avait presque pas évolué par rapport à RDNA, ce n'est pas le cas de cette version 3. Les Stream Processors (SP) sont toujours regroupés au sein d'unités SIMD32, à raison de 2 par Compute Unit (CU). Leur nombre (96 max. soit 6144 SP) progresse finalement peu en comparaison du plus gros GPU RDNA 2 (80 CU / 5120 SP), mais elles se voient dotées de la capacité à traiter 2 instructions par cycle (Dual Issue). Comme toujours, le diable se cache dans les détails de l'implémentation et il ne sera possible de profiter de cette Dual issue, qu'à condition expresse que le compilateur soit capable d'extraire la seconde instruction d'une même Wavefront.

 

Unités de calcul [cliquer pour agrandir]

 

Ainsi, le doublement du débit des unités de calcul ne sera possible que dans le meilleur des cas et pas systématiquement. De quoi afficher de gros chiffres brutes à l'instar d'Ampere et Lovelace pour la puissance de calcul en FMA FP32, mais qui ne sont retrouverons pas forcément en pratique de chaque côté. Un mot sur les unités dédiées qui évoluent également. Ainsi, AMD suit la tendance initiée par Nvidia et poursuivie par Intel, avec l'intégration d'unités dédiées à l'accélération de l'IA. Les rouges sont plutôt avares sur leurs capacités pour l'heure, il s'agit à n'en pas douter d'équivalents aux Tensor Cores, reste à voir si un usage dans le domaine ludique en sera fait.

 

Autre évolution importante, AMD a revu ses unités dédiées à l'accélération du Ray Tracing. La première itération de ses Ray Accelerator s'est montrée plutôt décevante. Un des points que nous avions soulevé concernant leur contre-performance, provenait de l'absence de traitement dédié pour la constitution et la traversée du BVH, qui devaient être effectuées par les unités SIMD via un shader. Le problème d'une telle approche, vient de l'inadéquation de l'organisation SIMD des unités de calculs pour ce genre de tâche (Pointer Chasing). RDNA3 intègre désormais la prise en charge de la traversée du BVH directement au sein des Ray Accelerators, qui voient également leur débit brut progresser de 50 %.

 

RT [cliquer pour agrandir]

 

Autre spécificité de RDNA3, le découplage des fréquences entre les unités de calcul et le reste du GPU au sein GCD. Ainsi, les premières pourront se limiter à 2,3 GHz contre 2,5 GHz pour les autres éléments. L'objectif affiché est de maitriser la consommation électrique, et rester donc dans une enveloppe raisonnable, sachant que les fréquences élevées se paient souvent très chères à ce niveau. On peut par contre penser que des modèles customs disposant de 3 connecteurs à 8 broches, seront en capacité d'augmenter sensiblement cette valeur et donc les performances, au prix d'une consommation bien supérieure. Un mot sur l'interface : AMD ne le précise pas, nous supposons donc que ces RX 7900 n'utilisent pas le PCIe Gen 5 mais se limite à l'instar d'Ada, à la version 4.0.

 

Découplage des fréquences [cliquer pour agrandir]

 

Les moteurs d'affichage et vidéo progressent aussi notablement. Ainsi, en sus du décodage AV1, RDNA3 propose également l'encodage de ce format. Les rouges indiquent que la fréquence de ce media engine progresse de 80 % autorisant un décodage/encodage simultané de 2 flux H.264/265 (nous ignorons si c'est aussi le cas pour l'AV1). Coté affichage et contrairement à son concurrent vert, AMD a décidé d'adopter la dernière norme DisplayPort 2.1, doublant le débit par rapport à la version 1.4. Un avantage indéniable pour le 8K, quadruplant le besoin en bande passante, faut-il encore avoir un tel écran et les contenus / ressources adaptés.

 

moteur video t [cliquer pour agrandir]

 

Résumons donc les nouvelles venues au sein du tableau suivant. Une précision : depuis Ampere, Nvidia a doublé le nombre d'unités de calcul FP32 au sein des Cuda Core (CC ou SP chez AMD). Pour des raisons marketing, ces unités FP32 sont devenues des CC (les gros chiffres sont vendeurs), sans que cela soit réellement le cas d'un point de vue de leur définition en comparaison des générations antérieures. AMD a semble-t-il (ce point mérite d'être confirmé en l'absence de document l'attestant pour l'heure) lui aussi doublé le nombre d'ALU au sein de ses SP avec RDNA 3, mais ne les présente pas comme un doublement de leur nombre, ce qui nous parait plus correct compte tenu de l'historique des dénominations.

 

C'est pourquoi nous avons ajouté une colonne FP32 pour aller au-delà des appelations marketing. Notez que comme indiqué précédemment, d'un côté comme de l'autre (pour des raisons différentes), ce doublement du nombre d'unités FP32 ne se traduira pas forcément par un doublement de la puissance de calcul pour toutes les tâches, en particulier celles ludiques. Pour le dire autrement et très "schématiquement" : un flop/s Ampere(Ada)/RDNA 3 ne vaudra pas systématiquement un flop/s Turing/RDNA2, une fois traduit en performance ludique.  

 

CartesGPUFréq. Boost GPU (MHz)Fréq. Mémoire (MHz)SP *FP32TMUROPTaille mémoire (Go)Bus mémoire (bits)Calcul SP (Tflops)Bande Passante (Go/s)TGP (W)
RX 6800 Navi 21 1815

1988

3840 3840 240 96 16 256 13,9 509 250
RX 6800 XT Navi 21 2015 1988 4608 4608 288 128 16 256 18,6 509 300
RX 6900 XT Navi 21 2015 1988 5120 5120 320 128 16 256 20,6 509 300
RX 6950 XT Navi 21 2100 2238 5120 5120 320 128 16 256 21,5 573 335
RX 7900 XT Navi 3x 2400 2500 5376 10752 336 192 20 320 51,6 800 300
RX 7900 XTX Navi 3x 2500 2500 6144 12288 384 192 24 384 61,4 960 355
RTX 3080 GA102 1710 1188 4352 8704 272 96 10 320 29,8 760 320
RTX 3080 12 Go GA102 1710 1188 4480 8960 280 96 12 384 30.6 912 350
RTX 3080 Ti GA102 1665 1188 5120 10240 320 112 12 384 34,1 912 350
RTX 3090 GA102 1695 1219 5248 10496

328

112 24 384 35,6 936 350
RTX 3090 Ti GA102 1860 1313 5376 10752 336 112 24 384 40 1008 450
RTX 4080 12 Go AD104 2610 1313 3840 7680 240 80 12 192 40.1 504 285
RTX 4080 AD103 2505 1400 4864 9728 304 112 16 256 48.7 717 320
RTX 4090 AD102 2520 1313 8192 16384 512 176 24 384 82.6 1008 450

* Stream Processor (Cuda Core chez Nvidia) 

 

Quid de la tarification et disponibilité ? A respectivement 999$ et 899$ HT, on devrait se retrouver avec des tarifs respectifs en € TTC, aux alentours des 1225 € et 1100 € au taux de change actuel. Elles devraient donc être bien plus accessibles que la RTX 4090, mais cette dernière devrait conserver un avantage significatif côté performances, A voir ce qu'il en sera face à la RTX 4080, qui sera commercialisée dans une dizaine de jours, soit un mois avant ce duo. 

 

Prix [cliquer pour agrandir]

Un poil avant ?

Vers un risque de surproduction de semiconducteur d'ici 2025 ?

Un peu plus tard ...

Zhaoxin lance de nouveaux CPU x86 : les KH-4000 et les KX-6000G

Les 62 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un #vieuxkon du Grand Est, le Mardi 08 Novembre 2022 à 08h05  
par Crepe182, le Lundi 07 Novembre 2022 à 08h55
Dans le même lien que toi :

"Pour conclure, nous tenons à affirmer avec force que la 8K présente un réel intérêt : ce n'est pas seulement une histoire de pixels, et vous n'avez pas forcément à vous coller à votre TV 8K pour en percevoir les avantages visuels. Les téléviseurs 8K offrent aussi et surtout une meilleure perception de la luminosité et du contraste, ainsi que des contours plus précis"
Tu as oublié la mention "* Cet article est sponsorisé"
par Unragoteursansespace en Île-de-France, le Lundi 07 Novembre 2022 à 09h10  
par Crepe182, le Lundi 07 Novembre 2022 à 08h55
Dans le même lien que toi :

"Pour conclure, nous tenons à affirmer avec force que la 8K présente un réel intérêt : ce n'est pas seulement une histoire de pixels, et vous n'avez pas forcément à vous coller à votre TV 8K pour en percevoir les avantages visuels. Les téléviseurs 8K offrent aussi et surtout une meilleure perception de la luminosité et du contraste, ainsi que des contours plus précis"
oui mais a quel distance il faut être pour mieux percevoir les contours ?
Je vois pas le rapport avec la "meilleure perception de la luminosité et du contraste", ca pour moi c'est la dalle qui va jouer pas la résolution.
par Crepe182, le Lundi 07 Novembre 2022 à 08h55  
par Unragoteursansespace en Île-de-France, le Lundi 07 Novembre 2022 à 08h43
moi je pige pas l'intérêt de la 8k... on est trop loin de l'écran pour distinguer une différence avec de la 4k

un grand lien tout pourri

"Afin de déceler tous les détails affichés par un TV 8K, la Japan Broadcasting Corporation recommande de multiplier la hauteur de l'écran par 0,75. Cela nous donne un recul de 62 cm pour un écran de 65 pouces !"

perso je suis pas collé à mon écran de pc et encore moins à ma télé.
Dans le même lien que toi :

"Pour conclure, nous tenons à affirmer avec force que la 8K présente un réel intérêt : ce n'est pas seulement une histoire de pixels, et vous n'avez pas forcément à vous coller à votre TV 8K pour en percevoir les avantages visuels. Les téléviseurs 8K offrent aussi et surtout une meilleure perception de la luminosité et du contraste, ainsi que des contours plus précis"
par Unragoteursansespace en Île-de-France, le Lundi 07 Novembre 2022 à 08h43  
moi je pige pas l'intérêt de la 8k... on est trop loin de l'écran pour distinguer une différence avec de la 4k

un grand lien tout pourri

"Afin de déceler tous les détails affichés par un TV 8K, la Japan Broadcasting Corporation recommande de multiplier la hauteur de l'écran par 0,75. Cela nous donne un recul de 62 cm pour un écran de 65 pouces !"

perso je suis pas collé à mon écran de pc et encore moins à ma télé.
par cabou83, le Dimanche 06 Novembre 2022 à 23h57  
On est encore loin d'arriver à ce niveau de graphisme dans nos derniers jeux AAA.

Le détail des texture, le contraste, la qualité des cheveux, les particule, la réflexion... On est a mille lieux de ce niveau graphique. Et ça sur une cinématique pré-calculé en 1080p d'un jeux de PS3 qui a 13 ans...

J'entend vos arguments du "c'est mieux en 8K" certes un jeux tel qu'il est fait aujourd'hui sera tjr plus "beau" dans une résolution plus haute soit elle. Mais j'aimerais bien que cette "course folle" à la plus grosse résolution cesse qu'on se concentre sur autre chose. J'aimerais tellement me dire "si je met 2000€ dans une 4090 j'aurais se niveau graphique là sans que ce soit des cut-scene précalculé" plutôt que de jouer a des jeux console en 8K pensé pour du 1440p sur ses dernières (4K FSR).

C'est a ce niveau là que je trouve dommage le lavage de cerveau du marketing qui te font croire que "oui acheté ma carte Useless et mettait vos jeux en 8K"
Je vois déjà l'argument de la PS6/NextXbox "full 8K 60fps..."

Et la ou c'est dommageable encore plus aujourd'hui le mec qui a une TV 1080p, qu'il joue à Gran Turismo 7 sur sa TV avec une ps4 fat de 2013 ou sur une ps5 aura presque exactement la même version graphique du jeux. C'est juste pas normal, mais bon les hautes résolutions c'est trop super !
par Thibaut G., le Dimanche 06 Novembre 2022 à 19h58  
par Alffir, le Dimanche 06 Novembre 2022 à 16h31
Arrête de parler DLSS quand on parle 8K, le début de la discussion, c'est toi qui dit que le downsampling c'est saisissant, l'inverse du DLSS qui considère qu'on est pas obligé de calculer les jeux en réso native.

Et on n'a jamais dit qu'un processeur de 4090 ne devait pas profiter de sa puissance pour downsampler ou jouer en 8K, mais on considère que c'est un peu faible pour justifier un gros GPU.

Car excuse nous de ne pas avoir une 4090 à 2000€, mais avec cabou83 on n'a pas attendu pour le faire sur des jeux plus anciens, et on trouve que ce n'est pas saisissant, c'est mieux, ça les rends plus beau, mais ça reste loin des jeux plus récents ou d'une cinématique en 1080p.

Par contre je trouve que pouvoir activer le RT quand il change pas mal le rendu comme Cyberpunk ou Dying Light 2 est un gros plus à avoir de la puissance, et ma 2070S galère même avec le DLSS et je serai content d'avoir la puissance d'une 4090 dans quelques années.
Il y a plusieurs façons de jouer en 5k ou 8k. Soit tu as de la patate en trop et tu downscale par dsr (sur cuda cores) ou tu scales avec le moteur du jeu, sois tu en manques et tu mets du dlss sur le scaling moteur du jeu.. dans tous ces cas, la qualité visuelle est améliorée. Mais pour faire de la 5k ou 8k, il est évident qu'il faut du gros GPU, et c'est un des avantages de ceux qui arrivent. Et je dis rien d'autre c'est vous deux qui commencez à parler de créativité en berne, de choix improbables, vous introduisez tellement de paramètres qui sont des non sens que la discussion devient n'importe quoi . Continuez à jouer comme vous le faites mais n'empêchez pas les autres d aviir un avis et une expérience différente de la vôtre.
par predator06, le Dimanche 06 Novembre 2022 à 17h57  
a priori, Amd a ajouté un thermocouple en entrée du radiateur
un petit lien tout mignon
par Un champion du monde en Bourgogne-Franche-Comté, le Dimanche 06 Novembre 2022 à 17h51  
par Alffir, le Dimanche 06 Novembre 2022 à 16h31
Arrête de parler DLSS quand on parle 8K, le début de la discussion, c'est toi qui dit que le downsampling c'est saisissant, l'inverse du DLSS qui considère qu'on est pas obligé de calculer les jeux en réso native.

Et on n'a jamais dit qu'un processeur de 4090 ne devait pas profiter de sa puissance pour downsampler ou jouer en 8K, mais on considère que c'est un peu faible pour justifier un gros GPU.

Car excuse nous de ne pas avoir une 4090 à 2000€, mais avec cabou83 on n'a pas attendu pour le faire sur des jeux plus anciens, et on trouve que ce n'est pas saisissant, c'est mieux, ça les rends plus beau, mais ça reste loin des jeux plus récents ou d'une cinématique en 1080p.

Par contre je trouve que pouvoir activer le RT quand il change pas mal le rendu comme Cyberpunk ou Dying Light 2 est un gros plus à avoir de la puissance, et ma 2070S galère même avec le DLSS et je serai content d'avoir la puissance d'une 4090 dans quelques années.
Vous avez dit tellement de choses différentes depuis le début, avec Cabou puisque tu t'y associe, que c'est peine perdue de continuer cette conversation. Dialogue de sourdingue qui s'est br...lé pendant 45 ans.
par Alffir, le Dimanche 06 Novembre 2022 à 16h31  
par Thibaut G., le Dimanche 06 Novembre 2022 à 12h15
cher ami, je pense que tune sais pas trop de quoi tu parles. Asobo a fait un jeu ambitieux, superbe visuellement, et qui tourne très bien en 5k voire 8k avec DLSS 3 sur 4090. Libre à toi de croire ce que tu dis, mais même sur ce jeu, avec cabou, vous vous trompez grandement. Et comme je lui ai dit, je te le redis, la créativité ou la création n'ont aucun rapport avec la définition, pourquoi vouloir être restrictif dans l'immesion et le "beau" juste parce que vous estimez qu'un jeu ne devrait pas tourner plus haut ? C'est une feature des CG et de certains moteurs 3D, et manifestement vous n'avez pas testé de 4090 pour parler de puissance limitée, et vous basez vos réflexions sur un postulat de départ faux actuellement.
Arrête de parler DLSS quand on parle 8K, le début de la discussion, c'est toi qui dit que le downsampling c'est saisissant, l'inverse du DLSS qui considère qu'on est pas obligé de calculer les jeux en réso native.

Et on n'a jamais dit qu'un processeur de 4090 ne devait pas profiter de sa puissance pour downsampler ou jouer en 8K, mais on considère que c'est un peu faible pour justifier un gros GPU.

Car excuse nous de ne pas avoir une 4090 à 2000€, mais avec cabou83 on n'a pas attendu pour le faire sur des jeux plus anciens, et on trouve que ce n'est pas saisissant, c'est mieux, ça les rends plus beau, mais ça reste loin des jeux plus récents ou d'une cinématique en 1080p.

Par contre je trouve que pouvoir activer le RT quand il change pas mal le rendu comme Cyberpunk ou Dying Light 2 est un gros plus à avoir de la puissance, et ma 2070S galère même avec le DLSS et je serai content d'avoir la puissance d'une 4090 dans quelques années.
par Thibaut G., le Dimanche 06 Novembre 2022 à 12h15  
par Alffir, le Dimanche 06 Novembre 2022 à 11h01
Mais vous faites exprès de ne pas comprendre et de faire comme si la puissance dispo été illimitée et qu'il n'y avait pas de compromis.

Un développeur conçoit son jeu en fonction de la puissance des consoles, il fait des compromis surquoi il utilise la puissance disponible (géométrie, lumière, résolution, FPS...), et un jeu qui tourne en 8K natif aujourd'hui sur PC alors que les consoles sont récentes, c'est un jeu qui aurait pu être plus ambitieux.

Et on ne dit pas non plus qu'on fait le choix, mais perso je préfère que Asobo ait fait un jeu qui tourne en 1440p 30 FPS sur Series X, même si du coup je ne pourrais pas jouer beaucoup plus haut sur mon PC actuel, que s'ils étaient resté au niveau du 1 où je peux faire du downsampling.

D'ailleurs j'ai laissé l'échelle de résolution à 100% sur ce Inoncence, même s'il tourne plus haut. Vu le peu que ça apporte dans ce genre de jeu avec un TAA costaud, je préfère laisser mon GPU loin des 99% d'utilisation.
cher ami, je pense que tune sais pas trop de quoi tu parles. Asobo a fait un jeu ambitieux, superbe visuellement, et qui tourne très bien en 5k voire 8k avec DLSS 3 sur 4090. Libre à toi de croire ce que tu dis, mais même sur ce jeu, avec cabou, vous vous trompez grandement. Et comme je lui ai dit, je te le redis, la créativité ou la création n'ont aucun rapport avec la définition, pourquoi vouloir être restrictif dans l'immesion et le "beau" juste parce que vous estimez qu'un jeu ne devrait pas tourner plus haut ? C'est une feature des CG et de certains moteurs 3D, et manifestement vous n'avez pas testé de 4090 pour parler de puissance limitée, et vous basez vos réflexions sur un postulat de départ faux actuellement.
par Alffir, le Dimanche 06 Novembre 2022 à 11h01  
par Thibaut G.¶, le Samedi 05 Novembre 2022 à 20h16
Aucun rapport donc, on te demande pas de choisir. Et c'est toujours pas le fond de mon propos.
par Un ragoteur des lumières du Centre-Val de Loire, le Dimanche 06 Novembre 2022 à 01h00
Aucune corrélation dans tes propos d'un post a l autre.Dans le genre j'essaie de noyer le poisson...
tu veux juste avoir le dernier mot quoi.
Et puis un jeu qui fonctionne en 8k devrait fonctionner en 4K,tu crois pas?
Nan mais sérieux.
Mais vous faites exprès de ne pas comprendre et de faire comme si la puissance dispo été illimitée et qu'il n'y avait pas de compromis.

Un développeur conçoit son jeu en fonction de la puissance des consoles, il fait des compromis surquoi il utilise la puissance disponible (géométrie, lumière, résolution, FPS...), et un jeu qui tourne en 8K natif aujourd'hui sur PC alors que les consoles sont récentes, c'est un jeu qui aurait pu être plus ambitieux.

Et on ne dit pas non plus qu'on fait le choix, mais perso je préfère que Asobo ait fait un jeu qui tourne en 1440p 30 FPS sur Series X, même si du coup je ne pourrais pas jouer beaucoup plus haut sur mon PC actuel, que s'ils étaient resté au niveau du 1 où je peux faire du downsampling.

D'ailleurs j'ai laissé l'échelle de résolution à 100% sur ce Inoncence, même s'il tourne plus haut. Vu le peu que ça apporte dans ce genre de jeu avec un TAA costaud, je préfère laisser mon GPU loin des 99% d'utilisation.
par Un ragoteur des lumières du Centre-Val de Loire, le Dimanche 06 Novembre 2022 à 01h00  
par cabou83, le Samedi 05 Novembre 2022 à 20h14
Alors soit je m'explique mal (ce qui est fortement possible) soit tu fais exprès de pas comprendre.

Pour faire simple je prefere un jeux (partons du principe bien opti même si c'est rare) qui exploitent à 100% la 4090 pour du 4K60fps, qu'un jeux qui exploitent a 100% la 4090 à un rendu 8K60fps.

Si demain le nouveau standard HDG pc c'est la 8K, on aura alors des jeux qui stagne dans les résolution inferieur pour justement pouvoir les faire tourner en 8K.
Je pense qu'il faut arreter cette course à la résolution tjr plus haute, on a autre chose a optimisé d'abord.
Sinon on va finir comme les appareil photo des smartphone qui nous affiche fièrement des +100 Mégapixels mais qui sont incapable d'avoir une image aussi belle qu'un reflex de 2015 en 16Mpx...
Aucune corrélation dans tes propos d'un post a l autre.Dans le genre j'essaie de noyer le poisson...
tu veux juste avoir le dernier mot quoi.
Et puis un jeu qui fonctionne en 8k devrait fonctionner en 4K,tu crois pas?
Nan mais sérieux.