COMPTOIR
register

×

RTX 4090 FE

Test • Nvidia GeForce RTX 4090
RTX 4090 FE

• Verdict

Nous voici parvenus au terme de ce dossier, et il est indéniable que le caméléon a frappé un grand coup avec sa RTX 4090. Tout d'abord, sur la tête et le portefeuille de ses clients potentiels, avec un tarif particulièrement salé en Europe, du fait de la faiblesse de l'€uro, mais aussi, inutile de le cacher, d'un prix public en dollars tout sauf attractif. Alors certes, la RTX 3090 Ti avait déjà préparé les esprits à de telles tarifications, mais elle n'a pas rencontrée son public, vu les promotions qui ont suivies son lancement et qui sont toujours de rigueur. Mais il serait injuste d'associer les deux cartes uniquement du fait de leur prix officiel de lancement, tant elles proposent des prestations sans commune mesure. Autant, il était quasiment impossible de justifier le surcoût colossale réclamé pour la RTX 3090 Ti en comparaison d'autres références à peine moins performantes, autant rien ne s'approche (pour l'heure) d'une RTX 4090 en termes de performance. Détaillons donc tout cela.

 

RTX 4090 FE [cliquer pour agrandir]

 

 

• AD102

Première puce à étrenner la nouvelle architecture Ada Lovelace, AD102 est un monstre par bien des aspects. Si ce n'est pas le GPU le plus gros jamais conçu, sa taille reste malgré tout particulièrement élevée, avec plus de 600 mm². Mais c'est sa complexité qui le rend à ce point monstrueux, puisque plus de 76 Milliards de transistors s'entassent en son sein. Tout cela est rendu possible par le recours à la finesse de gravure 4 nm de TSMC, le procédé le plus performant actuellement disponible en production de masse, chez le fondeur Taïwanais. La densité est d'ailleurs remarquable, puisqu'elle progresse de 2,8 fois en comparaison du 8 nm Samsung, qu'utilisait Nvidia pour sa série Ampere grand public. Si les valeurs de performance du process ne sont jamais évoqués ouvertement par les concepteurs de GPU, nul doute que les gains sont là aussi très importants, permettant une inflation significative de la fréquence de fonctionnement, sans une explosion de la consommation en comparaison d'Ampere, avec pourtant 2,7 fois plus de transistors embarqués. Ces chiffres donnent le tournis et traduisent la complexité actuelle des GPU, dépassant à bien des égards celle des CPU.

 

ad102 mini

Si on s'intéresse à la microarchitecture pure, cette dernière est calquée sur Ampere pour bien des points. Toutefois, l'augmentation considérable du budget transistors allouables, a permis une série de changements cruciaux pour les performances. Le premier est la multiplication par 16 de la taille du cache L2. De quoi compenser la stagnation de la bande passante mémoire. La partie Ray Tracing a également profité de l'inflation du nombre de transistors disponibles, pour doubler le débit de calculs d'intersections avec les triangles, et inclure deux unités spécialisées, améliorant d'une part la gestion des transparences, et d'autre part la complexification géométrique, via le recours aux micro-meshes. A cela, il ne faut bien sûr pas oublier le SER, qui permet de réordonner les différentes tâches en Ray tracing, améliorant l'efficacité du traitement, tout du moins lorsque les développeurs s'en empareront, puisqu'une dimension logicielle est bien présente. Enfin, Nvidia ne communiquait pas beaucoup sur ses unités OFA, pourtant bien présentes depuis 2 générations au sein de ses GPU, mais leurs performances à présent suffisantes, ont permis la mise en œuvre du DLSS 3, qui s'appuie sur cette composante en sus des Tensor Cores, déjà sollicités depuis la toute première itération de l'upscaling du caméléon. Ces derniers progressent également, mais le caméléon n'est pas très disert sur le sujet.

 

Les résultats en termes de performances sont impressionnants, avec des gains du même ordre que ceux que l'on a connu lors de l'intronisation de Pascal. Dans un cas comme dans l'autre, le procédé de fabrication a connu un réel bond en avant, ce qui a permis une bonne partie des gains mesurés. On se retrouve à présent dans une situation pour le moins improbable il y a quelques mois, c'est à dire une limitation CPU dans de nombreux titres en UHD, et ce avec les détails graphiques au maximum. Le pire dans cette affaire, c'est qu'AD102 n'a pas encore donné son plein potentiel, puisque contrairement à la RTX 3090 en son temps, les désactivations sont notables sur la 4090 (-1/12 en puissance de calcul et - 25 % au niveau du cache L2). C'est peut-être ce qui a poussé aussi Nvidia à développer avec succès le DLSS 3, pour s'affranchir du mur qui se profilait. Paradoxalement, AMD sera peut-être son meilleur allié dans les prochains mois, avec ses Zen 4 intégrant 3D V-cache. Il sera aussi intéressant de voir comment vont se comporter les futures Radeon, puisque celles actuelles sont moins sensibles à la limitation CPU dans les définitions moindres, du fait d'un scheduling intégralement hardware coté GPU, déchargeant davantage le processeur central. En attendant de connaitre la réplique des rouges le mois prochain, il ne fait pas de doute qu'Ada dans sa déclinaison haut de gamme, est une microarchitecture particulièrement performante, marquant un saut générationnel très prononcé. Reste à voir comment Nvidia va la décliner pour des budgets davantage compatibles avec le commun des mortels, et si elle sera en mesure de conserver autant d'atouts, une fois l'impérieux régime en transistors, appliqué. 

 

 

• GEFORCE RTX 4090

Alors, que penser de la GeForce RTX 4090 ? Traitons toute de suite l'évidence, puisqu'à 1949 €, elle n'intéressera ou ne sera pas accessible à beaucoup de monde, c'est un fait. Tout du moins pour une approche purement gaming, en usage professionnel, un tel tarif étant bien moins problématique. Mais puisqu'il s'agit d'une GeForce, le caméléon a décidé d'en faire une carte vitrine pour l'heure, et à moins d'être un joueur (très) passionné et  (très) fortuné, elle ne restera pour beaucoup qu'un rêve inaccessible. Ce n'est en rien une nouveauté, puisque si elles n'en portent plus le nom, ces séries 90 s'apparentent clairement aux anciennes TITAN, dont la tarification n'a jamais été vraiment bon marché. Comble de malchance, l'€uro s'étant fortement déprécié par rapport au Dollar US, cela aggrave la tarification appliquée dans nos contrées. Il semble donc raisonnable d'attendre la concurrence ou des propositions plus accessibles, avant de craquer.   

 

Si on se concentre à présent sur la carte en tant que telle, en oubliant quelques instants son tarif, il est difficile de ne pas lui trouver de réelles qualités. La première se situe au niveau de ses performances, de très haut vol. Autant dire qu'aucun jeu ne lui résiste en UHD et rastérisation, mais encore plus fort, le Ray Tracing dans cette définition et sans l'appui du moindre upscaling, est jouable confortablement dans la plupart des situations ! En parlant d'upscaling, le DLSS 3, ou tout du moins ce que nous avons pu en voir dans les préversions, est plutôt impressionnant. Si visuellement,  il ne change à priori rien à ce que l'on peut connaitre depuis la version 2.x (qui est plutôt satisfaisante à ce niveau), il permet par contre des gains de performances très impressionnants, en particulier lorsque cela compte, comme en situation de limitation CPU. Vous l'aurez compris, en jeu cette carte est monstrueuse, d'autant qu'elle n'a pas encore exprimé son plein potentiel, du fait de cette fameuse limitation CPU.

 

Du côté des choses que l'on aime moins, le niveau de consommation très élevé n'est pas à négliger. Certes le caméléon a fait un excellent travail sur sa carte, la rendant pour le coup moins bruyante et plus fraiche que ses précédentes FE, il n'en demeure pas moins que dans un contexte d'accroissement du prix de l'énergie et de sensibilisation écologique, il est difficile de faire l'impasse sur le sujet. L'efficacité énergétique est toutefois en forte amélioration, démontrant la performance du nouveau procédé de fabrication 4N de TSMC, avec une enveloppe de puissance autorisée inchangée par rapport à la 3090 Ti, malgré une forte hausse de fréquence et une multiplication par 2,7 du nombre de transistors composant leur GPU respectif. Pour chipoter, on pourra trouver à redire quant à la non adoption par Nvidia des dernières normes PCIe 5.0 et DisplayPort 2.0, même si en pratique cela ne changera rien pour la quasi intégralité des usages. En résumé, cette carte est une bête, à qui rien ne résistera à l'heure actuelle, si vous avez les moyens et la volonté de dépenser autant, pour vous l'offrir.

 

amd 40 bequiet 40 Logo G Skill intel 40 asus 40 nvidia 40

Nous remercions naturellement nos partenaires pour la mise à disposition du matériel de test

 


• Les tarifs dans la vraie vie ?

 



Un poil avant ?

La relève NUC Extreme chez Intel sera encore moins mini-PC-esque qu'avant

Un peu plus tard ...

L'Unreal Engine 5.1 plus très loin de débarquer

Les 143 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur qui draille en Île-de-France, le Lundi 21 Novembre 2022 à 16h50  
par Eric B. le Dimanche 20 Novembre 2022 à 18h14
Pas dans le test principal, désolé. C'est déjà la course pour boucler dans les temps avec cet échantillon en plus des jeux, par contre on réfléchit à des tests axés pro pour les GPU dans des dossiers dédiés.
Ok je comprend pas de souci.
Par contre cest sur que si cela se fait ça seras un gros plus.
Jai pas trouvé de trst pour mes usages.
Jai pris tout de même une rtx3060 vu les prix actuellement.
Mais des tests " pros " en, en montage vidéo, photos serais parfait.
Merci d'avance en tout cas
par Eric B., le Dimanche 20 Novembre 2022 à 18h14  
Pas dans le test principal, désolé. C'est déjà la course pour boucler dans les temps avec cet échantillon en plus des jeux, par contre on réfléchit à des tests axés pro pour les GPU dans des dossiers dédiés.
par Un ragoteur qui draille en Île-de-France, le Dimanche 20 Novembre 2022 à 08h46  
Bonjour.
Sympas cs tests avec des applications "pro".
Ce serais possible d'y ajouter des softs importants comme Premiere pro, After Effect, Lightroom, Photoshop et surtout DXO qui avec DeepPrime utilise énormément la carte graphique?
Possible aussi de faire des ajouts sur les test de la génération précédente ?
Merci
par D en Provence-Alpes-Côte d'Azur, le Mardi 15 Novembre 2022 à 22h04  
Je viens de tester une 4090 gainward phantom(non gs), avec un +200mhz sur le core et +500mhz sur la ram, la carte est très calme en forte charge uhd, impressionnant. ..
Les températures aussi aux alentours des 66 max.
Récupéré à 1800e livré sur ld/lc, j'espère ne pas avoir des problèmes sur le 12vpwr...Pas de gainward sur le megathread reddit, étrange..
par Eric B., le Lundi 14 Novembre 2022 à 11h19  
Je ne l'ai pas démontée, mais c'est un Monolithic Power Systems MP2891 d'après celui réalisé par TPU.
par Un ragoteur sigma-delta en Île-de-France, le Lundi 14 Novembre 2022 à 09h56  
Super test comme d'habitude.
Est-ce qu'il serait possible d'avoir la référence du contrôleur d'alimentation ?
Merci
par Eric B., le Mardi 08 Novembre 2022 à 15h15  
par Un adepte de Godwin au Québec le Mardi 08 Novembre 2022 à 14h37
Juste 18 fps de plus que la 3090 dans flight simulator... je vais attendre la 5090...
As-tu compris que c'est le CPU qui limite la 4090 sur ce test là (c'est écrit pourtant) ? Parce que tu peux attendre même la 7090 que ça n'y changerait absolument rien dans des situations comme celle-ci...
par Un adepte de Godwin au Québec, le Mardi 08 Novembre 2022 à 14h37  
Juste 18 fps de plus que la 3090 dans flight simulator... je vais attendre la 5090...
par Un ragoteur sans nom en Bourgogne-Franche-Comté, le Mercredi 02 Novembre 2022 à 15h26  
par YulFi le Mercredi 02 Novembre 2022 à 09h11
La conso est telle que je m'interroge sur la conso de la carte bloquée à 60 fps. A-t-elle du coup un appétit d'oiseau sur un jeu AAA ?
Un peu comme la fonction Radeon Chill ou limiter les fps in-game. On peut avoir une énorme carte mais par moment vouloir jouer en silence et/ou diminuer la chauffe, je ne trouve pas ça déconnant
Perso l'été je le fais, je bride à 60fps pour diminuer la chauffe quand il fait déjà presque 30°C dans la pièce.

Edit: J'ai en partie trouvé une réponse sur un petit lien tout mignon
Ils brident Cyberpunk à 90fps et la carte ne consomme "que" 215W, pas mal. La 3090 Ti dans le même cas consomme 416W outch !
C'est vrai pour toutes les cartes qui abaisseront leur tension en fonction de la charge demandée, si tant est que la carte ne soit pas déjà à son max à la fréquence d'images demandée. C'est facile à monitorer avec MSi afterburner avec lequel on peut afficher dans un coin de l'écran les informations que l'on veut parmi celles qui sont monitorées.
par Un #ragoteur connecté d'Occitanie, le Mercredi 02 Novembre 2022 à 13h11  
par Un ragoteur sans nom en Bourgogne-Franche-Comté le Mercredi 02 Novembre 2022 à 12h07
Et alors ? Je m'en tamponne totalement de ces considérations. Seul mon budget importe, le reste c'est leur problème.
Entièrement d'accord avec toi. Si certains acceptent de se faire pigeonner, ça les regarde. Le prix des cartes devraient suivre l'évolution du cout de la vie, point barre. Donc en 5 ans, à 3% d'augmentation par an en moyenne, ça nous fait 15%, et pas 150%. Les cartes graphiques sont l'exception dans l'écosystème PC. La conversion €/$ nous est défavorable d'environs 20% provisoirement, Nous n'y pouvons pas grand chose (à part avoir des politiques compétents, mais la aussi c'est la crise)
Il faut bien se rendre compte qu'une carte graphique aujourd'hui coute autant qu'un PC entier moyenne gamme. Il faut arrêter le délire.
Le boum du minage de l'Ethereum est terminé, retour à la case départ. Finit d'amortir les cartes en quelques mois et de faire du pognon avec ensuite, quelque soit le prix ou on pouvait la payer.
J'utilise mes cartes pour des usages pro et je trouve les prix scandaleux, pour un usage ludique c'est encore plus invraisemblable...
par Un ragoteur sans nom en Bourgogne-Franche-Comté, le Mercredi 02 Novembre 2022 à 12h07  
par Un rat goth à l'heure en Provence-Alpes-Côte d'Azur le Mercredi 02 Novembre 2022 à 09h51
450 / 550 lol on est en 2022 pas en 2017....
Entre la guerre, les tensions mondiales, le coût de conception de plus en plus durélevé, les prix de TMSC, et la chute de l'euro bon courage ....
Et alors ? Je m'en tamponne totalement de ces considérations. Seul mon budget importe, le reste c'est leur problème. Je peux espérer trouver une remplaçante plus performante dans les gammes 4060ti/4070 ou des 7700/xt convaincantes dans ces tarifs, même si je dois attendre encore 6 mois à 1an. Vu les MSRP et les tarifs actuels (certes 2 ans après leur sortie), c'est déjà trouvable.
Malheureusement, la 6750xt et la 3070 sont peu convaincantes (+ manque de VRAM avec la 3070 mal foutue), la 6800 tout juste abordable bien que trop proche de son msrp me fait de l'oeil comme jamais. J'attends de voir ce qu'il sort, tant que je ne suis pas dans l'urgence de changer.
par Un rat goth à l'heure en Provence-Alpes-Côte d'Azur, le Mercredi 02 Novembre 2022 à 09h51  
par Un ragoteur sans nom en Bourgogne-Franche-Comté le Samedi 15 Octobre 2022 à 19h32
Le GAP de prix et de conso, sans parler de la taille du bazar, sont eux aussi énormes. Je dirais plutôt indécents. J'ai payé ma 1080ti 678 euros au printemps 2017 grâce à une ristourne de mamazone. Elle me permet de jouer à presque tous les jeux en 1440p moyennant des compromis sur certaines options encore actuellement, presqu'en 2023. Elle est double slot ( oui j'ai une autre carte fille qui va rester en place tant que windows l'accepte ) et tire au max 250W de ma petite entreprise qui ne connaît pas la crise alim.

Je passe mon tour et attendrai les futures cartes à 450-550 euros de l'un ou l'autre des concepteurs (je mets Intel de côté en attendant mieux chez eux), si tant est qu'elles soient convaincantes.
450 / 550 lol on est en 2022 pas en 2017....
Entre la guerre, les tensions mondial, le coût de conception de plus en plus dur, les prix de TMSC, et la chute de l'euro bon courage ....