COMPTOIR
  
register

Test • Nvidia GeForce RTX 4090

• Usage créatif / productif

Un GPU, cela ne sert pas uniquement au jeu. Que peut-on attendre d'ADA Lovelace et en particulier de la RTX 4090, dans ce domaine en comparaison de ses devancières et concurrentes ? Pour donner une petite idée de ses capacités à ce niveau, nous lui avons préparé un petit échantillon de tests couvrant une partie des usages possibles avec un GPU.

 

Du fait de l'ajout de cette partie après la publication initiale du dossier, le protocole a légèrement évolué pour ces tests en particulier. Ainsi, nous avons procédé aux modifications matérielles suivantes :

  • Remplacement du 12900KS par un 13900K (HT off / 8P + 4E + 4E)
  • Ajout de l'Intel ARC A770 LE 16 Go

D'un point de vue logiciel, nous avons procédé à la mise à jour 22H2 de Windows 11 ainsi qu'utilisé les derniers pilotes graphiques en date :

  • Nvidia 526.47 WHQL
  • AMD 22.10.3 Beta
  • Intel 31.0.101.3793 Beta

 

• Blender

Premier logiciel utilisé pour nos tests, Blender et son moteur de rendu Cycle capable d'utiliser les GPU au travers d'Optix (GeForce RTX), HIP (Radeon) et oneAPI (Intel ARC). Nous utilisons dans un premier temps le benchmark qui va rendre 3 scènes différentes à l'aide de Cycle sur la version 3.3.0. Ensuite, nous utilisons la version 3.3.1 pour effectuer le rendu d'une scène complexe en RT avec application d'un flou cinétique. 

 

 

Quelque soit le test retenu, les GeForce écrasent la concurrence dans ce qui est indubitablement un point fort des verts. Mais le plus impressionnant reste encore l'écart créé par la RTX 4090 en comparaison de ses devancières, avec des gains oscillant entre 64 et 99 % sur la plus rapide d'entre elles.

  

• Otoy OctaneRender

Second logiciel de notre échantillon de test, OctaneRender d'Otoy, un moteur de rendu 3D dédié aux GPU. Nous l'utilisons au travers du benchmark officiel, sur lequel seuls les GeForce sont supportées. Il se compose de 4 scènes différentes à rendre, nous reportons ainsi le résultat de chacune dans le graphique suivant.

 

 

La prestation de la RTX 4090 tourne à la démonstration par rapport à la génération Ampere, dont le représentant le plus rapide (RTX 3090 Ti), est systématiquement devancé avec des écarts variant entre 76% et 139 % !

 

• V-Ray

Autre moteur de rendu compatible avec les GPU (mais pas uniquement), V-Ray est disponible pour de nombreux logiciels (3DS, etc.). Pour des raisons de licence, nous l'utilisons ici aussi au travers du benchmark officiel. Ce dernier peut-être effectué via un rendu CPU, mais aussi via CUDA ou RTX pour les GPU compatibles. Nous réalisons donc le test avec ces deux options.

 

 

Mesdames de la génération Ampere, choisissez donc votre poison, puisque tant avec CUDA (+91%) que RTX (+96%), la RTX 4090 donne la fessée à la RTX 3090 Ti, qui est pourtant la plus rapide des RTX série 30. 

 

• DaVinci Resolve

Finissons ces tests en utilisant DaVinci Resolve, une référence pour le traitement des vidéos. Dans un premier temps, nous réalisons un projet à partir de rushs ProRES en UHD. Nous appliquons ensuite divers effets (flou gaussien, effets de style, etc.) et encodons le tout en H.264 pour un usage Vimeo 2160P, dans un fichier .MOV. Nous utilisons pour les tests suivants un fichier brut ProRES en 8K (44 s pour limiter la taille déjà gigantesque) que nous allons exporter en 8K au format .MP4 en H.265, puis AV1 (pour les cartes disposant d'un encodeur dédié), afin de solliciter les encodeurs de nos GPU. A noter que pour l'AV1, nous réalisons le test deux fois, car le mode le plus rapide (faster) utilise les 2 encodeurs de la RTX 4090, alors que le plus lent (slower) n'en utilise qu'un seul. 

 

 

Notez que nous mesurons ici le temps d'export, mais pour une comparaison équitable, il ne faut pas se contenter de ce paramètre mais aussi de la qualité obtenue. Faute de temps, nous n'avons pas pu procéder à cette étape longue et fastidieuse, mais il nous parait important de le rappeler. Petit avantage aux verts pour notre projet Vimeo, on notera surtout la contre performance importante de l'ARC A770 LE, mais aussi l'écart significatif créé par la RTX 4090.

 

En encodage H.265, le double encodeur de cette dernière fait des merveilles, et dans le même temps la carte des bleus reprend des couleurs, en s'adjugeant la seconde place au nez et à la barbe de ses concurrents. Elle est aussi la seule avec la 4090 à disposer d'un encodeur AV1 qui se montre aussi performant que celui H.265. Le mode "slower" permet de comparer les résultats avec un seul encodeur actif côté Ada.

 

• Consommation & efficacité énergétique

Quid des puissances électriques absorbées lors de l'exécution de ces logiciels ? Le point intéressant ici, c'est la consommation plutôt contenue de la RTX 4090 lors de ces tâches, cela augure d'une efficacité énergétique remarquable. Notez également que pour DaVinci Resolve, nous mesurons la consommation lors de l'exécution de notre projet H.264, qui va solliciter également les unités de calcul. Pour de l'encodage pur (H.265 ou AV1 dans nos graphiques précédents), la consommation va être bien plus réduite (72 W pour l'ARC A770 et 95 W pour la RTX 4090). 

 

 

Confirmation, pour ce qui concerne l'efficacité énergétique lors de l'exécution de ces tâches, il y a la RTX 4090... et les autres ! 

 

 

Voilà pour les prestations en production, passons au verdict page suivante.



Un poil avant ?

La relève NUC Extreme chez Intel sera encore moins mini-PC-esque qu'avant

Un peu plus tard ...

L'Unreal Engine 5.1 plus très loin de débarquer

Les 143 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur qui draille en Île-de-France, le Lundi 21 Novembre 2022 à 16h50  
par Eric B. le Dimanche 20 Novembre 2022 à 18h14
Pas dans le test principal, désolé. C'est déjà la course pour boucler dans les temps avec cet échantillon en plus des jeux, par contre on réfléchit à des tests axés pro pour les GPU dans des dossiers dédiés.
Ok je comprend pas de souci.
Par contre cest sur que si cela se fait ça seras un gros plus.
Jai pas trouvé de trst pour mes usages.
Jai pris tout de même une rtx3060 vu les prix actuellement.
Mais des tests " pros " en, en montage vidéo, photos serais parfait.
Merci d'avance en tout cas
par Eric B., le Dimanche 20 Novembre 2022 à 18h14  
Pas dans le test principal, désolé. C'est déjà la course pour boucler dans les temps avec cet échantillon en plus des jeux, par contre on réfléchit à des tests axés pro pour les GPU dans des dossiers dédiés.
par Un ragoteur qui draille en Île-de-France, le Dimanche 20 Novembre 2022 à 08h46  
Bonjour.
Sympas cs tests avec des applications "pro".
Ce serais possible d'y ajouter des softs importants comme Premiere pro, After Effect, Lightroom, Photoshop et surtout DXO qui avec DeepPrime utilise énormément la carte graphique?
Possible aussi de faire des ajouts sur les test de la génération précédente ?
Merci
par D en Provence-Alpes-Côte d'Azur, le Mardi 15 Novembre 2022 à 22h04  
Je viens de tester une 4090 gainward phantom(non gs), avec un +200mhz sur le core et +500mhz sur la ram, la carte est très calme en forte charge uhd, impressionnant. ..
Les températures aussi aux alentours des 66 max.
Récupéré à 1800e livré sur ld/lc, j'espère ne pas avoir des problèmes sur le 12vpwr...Pas de gainward sur le megathread reddit, étrange..
par Eric B., le Lundi 14 Novembre 2022 à 11h19  
Je ne l'ai pas démontée, mais c'est un Monolithic Power Systems MP2891 d'après celui réalisé par TPU.
par Un ragoteur sigma-delta en Île-de-France, le Lundi 14 Novembre 2022 à 09h56  
Super test comme d'habitude.
Est-ce qu'il serait possible d'avoir la référence du contrôleur d'alimentation ?
Merci
par Eric B., le Mardi 08 Novembre 2022 à 15h15  
par Un adepte de Godwin au Québec le Mardi 08 Novembre 2022 à 14h37
Juste 18 fps de plus que la 3090 dans flight simulator... je vais attendre la 5090...
As-tu compris que c'est le CPU qui limite la 4090 sur ce test là (c'est écrit pourtant) ? Parce que tu peux attendre même la 7090 que ça n'y changerait absolument rien dans des situations comme celle-ci...
par Un adepte de Godwin au Québec, le Mardi 08 Novembre 2022 à 14h37  
Juste 18 fps de plus que la 3090 dans flight simulator... je vais attendre la 5090...
par Un ragoteur sans nom en Bourgogne-Franche-Comté, le Mercredi 02 Novembre 2022 à 15h26  
par YulFi le Mercredi 02 Novembre 2022 à 09h11
La conso est telle que je m'interroge sur la conso de la carte bloquée à 60 fps. A-t-elle du coup un appétit d'oiseau sur un jeu AAA ?
Un peu comme la fonction Radeon Chill ou limiter les fps in-game. On peut avoir une énorme carte mais par moment vouloir jouer en silence et/ou diminuer la chauffe, je ne trouve pas ça déconnant
Perso l'été je le fais, je bride à 60fps pour diminuer la chauffe quand il fait déjà presque 30°C dans la pièce.

Edit: J'ai en partie trouvé une réponse sur un petit lien tout mignon
Ils brident Cyberpunk à 90fps et la carte ne consomme "que" 215W, pas mal. La 3090 Ti dans le même cas consomme 416W outch !
C'est vrai pour toutes les cartes qui abaisseront leur tension en fonction de la charge demandée, si tant est que la carte ne soit pas déjà à son max à la fréquence d'images demandée. C'est facile à monitorer avec MSi afterburner avec lequel on peut afficher dans un coin de l'écran les informations que l'on veut parmi celles qui sont monitorées.
par Un #ragoteur connecté d'Occitanie, le Mercredi 02 Novembre 2022 à 13h11  
par Un ragoteur sans nom en Bourgogne-Franche-Comté le Mercredi 02 Novembre 2022 à 12h07
Et alors ? Je m'en tamponne totalement de ces considérations. Seul mon budget importe, le reste c'est leur problème.
Entièrement d'accord avec toi. Si certains acceptent de se faire pigeonner, ça les regarde. Le prix des cartes devraient suivre l'évolution du cout de la vie, point barre. Donc en 5 ans, à 3% d'augmentation par an en moyenne, ça nous fait 15%, et pas 150%. Les cartes graphiques sont l'exception dans l'écosystème PC. La conversion €/$ nous est défavorable d'environs 20% provisoirement, Nous n'y pouvons pas grand chose (à part avoir des politiques compétents, mais la aussi c'est la crise)
Il faut bien se rendre compte qu'une carte graphique aujourd'hui coute autant qu'un PC entier moyenne gamme. Il faut arrêter le délire.
Le boum du minage de l'Ethereum est terminé, retour à la case départ. Finit d'amortir les cartes en quelques mois et de faire du pognon avec ensuite, quelque soit le prix ou on pouvait la payer.
J'utilise mes cartes pour des usages pro et je trouve les prix scandaleux, pour un usage ludique c'est encore plus invraisemblable...
par Un ragoteur sans nom en Bourgogne-Franche-Comté, le Mercredi 02 Novembre 2022 à 12h07  
par Un rat goth à l'heure en Provence-Alpes-Côte d'Azur le Mercredi 02 Novembre 2022 à 09h51
450 / 550 lol on est en 2022 pas en 2017....
Entre la guerre, les tensions mondiales, le coût de conception de plus en plus durélevé, les prix de TMSC, et la chute de l'euro bon courage ....
Et alors ? Je m'en tamponne totalement de ces considérations. Seul mon budget importe, le reste c'est leur problème. Je peux espérer trouver une remplaçante plus performante dans les gammes 4060ti/4070 ou des 7700/xt convaincantes dans ces tarifs, même si je dois attendre encore 6 mois à 1an. Vu les MSRP et les tarifs actuels (certes 2 ans après leur sortie), c'est déjà trouvable.
Malheureusement, la 6750xt et la 3070 sont peu convaincantes (+ manque de VRAM avec la 3070 mal foutue), la 6800 tout juste abordable bien que trop proche de son msrp me fait de l'oeil comme jamais. J'attends de voir ce qu'il sort, tant que je ne suis pas dans l'urgence de changer.
par Un rat goth à l'heure en Provence-Alpes-Côte d'Azur, le Mercredi 02 Novembre 2022 à 09h51  
par Un ragoteur sans nom en Bourgogne-Franche-Comté le Samedi 15 Octobre 2022 à 19h32
Le GAP de prix et de conso, sans parler de la taille du bazar, sont eux aussi énormes. Je dirais plutôt indécents. J'ai payé ma 1080ti 678 euros au printemps 2017 grâce à une ristourne de mamazone. Elle me permet de jouer à presque tous les jeux en 1440p moyennant des compromis sur certaines options encore actuellement, presqu'en 2023. Elle est double slot ( oui j'ai une autre carte fille qui va rester en place tant que windows l'accepte ) et tire au max 250W de ma petite entreprise qui ne connaît pas la crise alim.

Je passe mon tour et attendrai les futures cartes à 450-550 euros de l'un ou l'autre des concepteurs (je mets Intel de côté en attendant mieux chez eux), si tant est qu'elles soient convaincantes.
450 / 550 lol on est en 2022 pas en 2017....
Entre la guerre, les tensions mondial, le coût de conception de plus en plus dur, les prix de TMSC, et la chute de l'euro bon courage ....