COMPTOIR
  
register

×

PCAT RTX 4090 Cyberpunk 2077 en rastérisation

Test • Nvidia GeForce RTX 4090
PCAT RTX 4090 Cyberpunk 2077 en rastérisation
PCAT RTX 4090 Minecraft RTX

pcat

• Consommation des cartes

Pour déterminer la consommation des cartes graphiques (seules), nous avions introduit fin 2015 un protocole s'appuyant sur un Riser PCIe x16 à partir duquel nous "extrayions" les différentes alimentations 12 V et 3.3 V fournies par ce port. Nous mesurions ensuite les tensions et intensités sur ces alimentations, ainsi que celles externes (connecteurs PCIe à 6 ou 8 pins), à l'aide de 3 pinces ampèremétriques Fluke 325 et d'un multimètre Fluke 179. Cela nous permettait de calculer la consommation réelle des cartes. Nous utilisons à présent PCAT, qui est en fait une version professionnalisée de notre protocole, tout en contrôlant certaines mesures de manière aléatoire, via notre précédent kit.

 

• Consommation au repos

Au repos, la RTX 4090 FE se comporte de manière similaire à la RTX 3090 Ti, soit un ton au-dessus des autres cartes à base de GA102, tout en absorbant le double de ce que demande une carte à base de Navi 21. Toutefois, cela ne s'entend qu'à 60 Hz, parce que si vous désirez un rafraîchissement plus confortable, l'impact sur les Radeon est sans commune mesure avec celui subi par les GeForce, bien plus économes cette fois. 

 

 

• Consommation en charge

En charge à présent, plusieurs situations sont possibles. En effet, comme nous nous retrouvons souvent limités par le CPU avec la RTX 4090 FE, cette dernière va pouvoir se tourner les pouces par moment, et donc réduire notablement sa consommation. C'est ce que l'on mesure sous Cyberpunk 2077 et Dying Light 2 en rastérisation, avec 386 W absorbés. Si c'est loin d'être économe, cela reste notablement moins élevé que les résultats des RTX 3090 Ti et RX 6950 XT customs. Mais pour connaitre le niveau de consommation dans un titre en rastérisation qui ne serait que pas ou peu impacté par le CPU, nous avons également inclus Control. Cette fois le niveau est similaire à la RX 6950 XT, plus en adéquation avec le TGP de la carte. En utilisant un titre RT (Metro Exodus EE), la consommation monte encore un peu, pour se situer légèrement au-dessus de 440 W.

 

 

Nous verrons ce qu'il en est des conséquences de ces puissances absorbées sur l'efficience globale un peu plus bas, mais avant cela, rappelons que depuis que nous utilisons PCAT, nous ne nous contentons pas de relever la consommation au sein d'un ou deux jeux, mais de l'intégralité de ces derniers. Pour avoir une vue plus exhaustive, voici donc le tableau récapitulant les consommations moyennes relevées (la plus élevée parmi les "passes" de chaque jeu).

 

Puissance moyenne absorbée (W) :
RastérisationRay Tracing
Anno 1800 401 -
Control 436 441
Cyberpunk 2077 386

434

Days Gone 407 -
DeathLoop 389 408
Doom Eternal 422 404
Dying Light 2 386 432
Elden Ring 311 -
F1 22 - 434
Far Cry 6 324 312
Flight Simulator 335 -
Forza Horizon 5 319 -
Ghostwire Tokyo 413 387
God of War 429 -
Hitman III - 432
Horizon Zero dawn 363 -
Metro Exodus - 441
Minecraft RTX - 443
Quake II RTX - 439
Rainbow 6 : Extraction 414 -
Resident Evil Village 401 379
Sniper Elite 5 410 -
Spider-Man Remastered 343 322
Total War : Warhammer III 398 -
Watch Dogs : Legion 369 400

 

Comme vous pouvez le remarquer, il y a des variations notables selon les jeux, selon le niveau de limitation CPU dont souffre la RTX 4090. Le maximum absolu est mesuré sous Minecraft RTX, avec 443 W, soit toujours en dessous du TGP officiel. Et quand tout ceci dure un peu plus longtemps ? Nous vous proposons en parallèle le résultat classique sous Cyberpunk 2077, mais aussi celui obtenu avec le jeu le plus gourmand, c'est à dire Minecraft RTX. Les 450 W sont donc pratiquement atteints en moyenne dans le cas le plus sévère, la bonne nouvelle provient de pics de courants plutôt limité à 475 Watts maximum. La recommandation d'une alimentation de 850 Watts pour la RTX 4090 FE, nous parait donc pertinente. 

 

PCAT RTX 4090 Cyberpunk 2077 en rastérisation [cliquer pour agrandir]PCAT RTX 4090 Minecraft RTX [cliquer pour agrandir]

Consommation en charge sous Cyberpunk 2077 (raster) à gauche et Minecraft RTX à droite (RT)

 

 

• Efficacité énergétique

Afin d'évaluer l'efficacité énergétique des cartes, nous réalisons un indice basé sur les performances et consommations respectives de ces dernières, lors des sessions de mesure. Bien entendu, cet indice ne représente que la situation au travers des jeux mesurés, avec ces scènes et niveaux de détails. Sur les deux jeux que nous utilisons traditionnellement pour mesurer la consommation et l'efficacité énergétique, la RTX 4090 FE propose des gains de 55 et 57 % en termes d'efficience. Par rapport aux Radeon, les gains varient entre  54 % (6900 XT)  et 45 % (6800 la précédente championne du domaine).

 

C'est excellent, mais il nous fallait également vérifier le niveau lorsque la consommation n'est pas artificiellement en baisse du fait d'une limitation CPU, d'où l'ajout là aussi de Control. Si c'est effectivement un peu moins bon en comparaison de la 3090 (+45%) et 6900 XT (49 %), cela ne change en définitive pas grand chose et reste un progrès significatif. En adoptant une enveloppe de consommation plus réduite, le caméléon aurait probablement pu soigner encore davantage ce point. En activant le Ray Tracing, ses performances exceptionnelles dans ces conditions lui permettent de creuser l'écart en termes d'efficience.

 

 

Avant de passer au verdict, intéressons-nous aux usages autres que ludiques page suivante.



Un poil avant ?

La relève NUC Extreme chez Intel sera encore moins mini-PC-esque qu'avant

Un peu plus tard ...

L'Unreal Engine 5.1 plus très loin de débarquer

Les 143 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur qui draille en Île-de-France, le Lundi 21 Novembre 2022 à 16h50  
par Eric B., le Dimanche 20 Novembre 2022 à 18h14
Pas dans le test principal, désolé. C'est déjà la course pour boucler dans les temps avec cet échantillon en plus des jeux, par contre on réfléchit à des tests axés pro pour les GPU dans des dossiers dédiés.
Ok je comprend pas de souci.
Par contre cest sur que si cela se fait ça seras un gros plus.
Jai pas trouvé de trst pour mes usages.
Jai pris tout de même une rtx3060 vu les prix actuellement.
Mais des tests " pros " en, en montage vidéo, photos serais parfait.
Merci d'avance en tout cas
par Eric B., le Dimanche 20 Novembre 2022 à 18h14  
Pas dans le test principal, désolé. C'est déjà la course pour boucler dans les temps avec cet échantillon en plus des jeux, par contre on réfléchit à des tests axés pro pour les GPU dans des dossiers dédiés.
par Un ragoteur qui draille en Île-de-France, le Dimanche 20 Novembre 2022 à 08h46  
Bonjour.
Sympas cs tests avec des applications "pro".
Ce serais possible d'y ajouter des softs importants comme Premiere pro, After Effect, Lightroom, Photoshop et surtout DXO qui avec DeepPrime utilise énormément la carte graphique?
Possible aussi de faire des ajouts sur les test de la génération précédente ?
Merci
par D en Provence-Alpes-Côte d'Azur, le Mardi 15 Novembre 2022 à 22h04  
Je viens de tester une 4090 gainward phantom(non gs), avec un +200mhz sur le core et +500mhz sur la ram, la carte est très calme en forte charge uhd, impressionnant. ..
Les températures aussi aux alentours des 66 max.
Récupéré à 1800e livré sur ld/lc, j'espère ne pas avoir des problèmes sur le 12vpwr...Pas de gainward sur le megathread reddit, étrange..
par Eric B., le Lundi 14 Novembre 2022 à 11h19  
Je ne l'ai pas démontée, mais c'est un Monolithic Power Systems MP2891 d'après celui réalisé par TPU.
par Un ragoteur sigma-delta en Île-de-France, le Lundi 14 Novembre 2022 à 09h56  
Super test comme d'habitude.
Est-ce qu'il serait possible d'avoir la référence du contrôleur d'alimentation ?
Merci
par Eric B., le Mardi 08 Novembre 2022 à 15h15  
par Un adepte de Godwin au Québec, le Mardi 08 Novembre 2022 à 14h37
Juste 18 fps de plus que la 3090 dans flight simulator... je vais attendre la 5090...
As-tu compris que c'est le CPU qui limite la 4090 sur ce test là (c'est écrit pourtant) ? Parce que tu peux attendre même la 7090 que ça n'y changerait absolument rien dans des situations comme celle-ci...
par Un adepte de Godwin au Québec, le Mardi 08 Novembre 2022 à 14h37  
Juste 18 fps de plus que la 3090 dans flight simulator... je vais attendre la 5090...
par Un ragoteur sans nom en Bourgogne-Franche-Comté, le Mercredi 02 Novembre 2022 à 15h26  
par YulFi, le Mercredi 02 Novembre 2022 à 09h11
La conso est telle que je m'interroge sur la conso de la carte bloquée à 60 fps. A-t-elle du coup un appétit d'oiseau sur un jeu AAA ?
Un peu comme la fonction Radeon Chill ou limiter les fps in-game. On peut avoir une énorme carte mais par moment vouloir jouer en silence et/ou diminuer la chauffe, je ne trouve pas ça déconnant
Perso l'été je le fais, je bride à 60fps pour diminuer la chauffe quand il fait déjà presque 30°C dans la pièce.

Edit: J'ai en partie trouvé une réponse sur un petit lien tout mignon
Ils brident Cyberpunk à 90fps et la carte ne consomme "que" 215W, pas mal. La 3090 Ti dans le même cas consomme 416W outch !
C'est vrai pour toutes les cartes qui abaisseront leur tension en fonction de la charge demandée, si tant est que la carte ne soit pas déjà à son max à la fréquence d'images demandée. C'est facile à monitorer avec MSi afterburner avec lequel on peut afficher dans un coin de l'écran les informations que l'on veut parmi celles qui sont monitorées.
par Un #ragoteur connecté d'Occitanie, le Mercredi 02 Novembre 2022 à 13h11  
par Un ragoteur sans nom en Bourgogne-Franche-Comté, le Mercredi 02 Novembre 2022 à 12h07
Et alors ? Je m'en tamponne totalement de ces considérations. Seul mon budget importe, le reste c'est leur problème.
Entièrement d'accord avec toi. Si certains acceptent de se faire pigeonner, ça les regarde. Le prix des cartes devraient suivre l'évolution du cout de la vie, point barre. Donc en 5 ans, à 3% d'augmentation par an en moyenne, ça nous fait 15%, et pas 150%. Les cartes graphiques sont l'exception dans l'écosystème PC. La conversion €/$ nous est défavorable d'environs 20% provisoirement, Nous n'y pouvons pas grand chose (à part avoir des politiques compétents, mais la aussi c'est la crise)
Il faut bien se rendre compte qu'une carte graphique aujourd'hui coute autant qu'un PC entier moyenne gamme. Il faut arrêter le délire.
Le boum du minage de l'Ethereum est terminé, retour à la case départ. Finit d'amortir les cartes en quelques mois et de faire du pognon avec ensuite, quelque soit le prix ou on pouvait la payer.
J'utilise mes cartes pour des usages pro et je trouve les prix scandaleux, pour un usage ludique c'est encore plus invraisemblable...
par Un ragoteur sans nom en Bourgogne-Franche-Comté, le Mercredi 02 Novembre 2022 à 12h07  
par Un rat goth à l'heure en Provence-Alpes-Côte d'Azur, le Mercredi 02 Novembre 2022 à 09h51
450 / 550 lol on est en 2022 pas en 2017....
Entre la guerre, les tensions mondiales, le coût de conception de plus en plus durélevé, les prix de TMSC, et la chute de l'euro bon courage ....
Et alors ? Je m'en tamponne totalement de ces considérations. Seul mon budget importe, le reste c'est leur problème. Je peux espérer trouver une remplaçante plus performante dans les gammes 4060ti/4070 ou des 7700/xt convaincantes dans ces tarifs, même si je dois attendre encore 6 mois à 1an. Vu les MSRP et les tarifs actuels (certes 2 ans après leur sortie), c'est déjà trouvable.
Malheureusement, la 6750xt et la 3070 sont peu convaincantes (+ manque de VRAM avec la 3070 mal foutue), la 6800 tout juste abordable bien que trop proche de son msrp me fait de l'oeil comme jamais. J'attends de voir ce qu'il sort, tant que je ne suis pas dans l'urgence de changer.
par Un rat goth à l'heure en Provence-Alpes-Côte d'Azur, le Mercredi 02 Novembre 2022 à 09h51  
par Un ragoteur sans nom en Bourgogne-Franche-Comté, le Samedi 15 Octobre 2022 à 19h32
Le GAP de prix et de conso, sans parler de la taille du bazar, sont eux aussi énormes. Je dirais plutôt indécents. J'ai payé ma 1080ti 678 euros au printemps 2017 grâce à une ristourne de mamazone. Elle me permet de jouer à presque tous les jeux en 1440p moyennant des compromis sur certaines options encore actuellement, presqu'en 2023. Elle est double slot ( oui j'ai une autre carte fille qui va rester en place tant que windows l'accepte ) et tire au max 250W de ma petite entreprise qui ne connaît pas la crise alim.

Je passe mon tour et attendrai les futures cartes à 450-550 euros de l'un ou l'autre des concepteurs (je mets Intel de côté en attendant mieux chez eux), si tant est qu'elles soient convaincantes.
450 / 550 lol on est en 2022 pas en 2017....
Entre la guerre, les tensions mondial, le coût de conception de plus en plus dur, les prix de TMSC, et la chute de l'euro bon courage ....