COMPTOIR
  
register

×

Réglages pilotes NVIDIA

Test • Nvidia GeForce RTX 4090
Réglages pilotes NVIDIA
Réglages pilotes AMD

• Protocole de test

Afin de mettre en situation nos cartes tout en permettant de les départager au mieux, nous réduisons au maximum les autres points de limitation des moteurs 3D. Nous avons donc opté pour une configuration particulièrement musclée avec un Core i9 de génération Alder Lake. Nous désactivons l'HT afin de privilégier la répétabilité des mesures (et une fréquence en jeu plus élevée, l'enveloppe de puissance étant moins sollicitée) et utilisons une grande quantité de mémoire vive pour éviter toute limitation à ce niveau. Nous activons le Resizable BAR dans le bios afin de profiter de cette fonctionnalité pour les cartes le supportant.

 

• Hardware
Intel Core i9-12900KS (HT Off)
ASUS MAXIMUS Z690 Hero
G.Skill Trident Z5 [2 x 16 Go 6000@36-36-36-2T]
Corsair MP 600 - 1 To (OS) / Corsair MP 600 Core - 4 To (Jeux)
BeQuiet! Dark Power Pro 12 - 1200 W
Asus PG43UQ

 

prot 12900ks 4 prot asus z690 hero 4 prot gskill trident z5 4 prot bq dpp12 4

 

pg43uAsus nous a fourni un moniteur ROG Swift PG43UQ pour nos tests. Ce modèle permet de coupler une très confortable diagonale en UHD, avec un taux de rafraîchissement élevé, ce qui n'est pas si courant dans cette définition. L'Adaptive Sync est désactivé, mais nous utilisons la fréquence de rafraîchissement 144 Hz pour les cartes capables d'assurer un tel débit en UHD. Nous ajoutons également la mesure de puissance à 60 Hz au repos, puisque certaines cartes ont à ce niveau, un comportement totalement différent entre cette fréquence "standard" et celles plus élevées.

 

Nous avons réuni pour ce test l'échantillon de cartes suivantes, avec entre parenthèses les fréquences GPU et mémoire maximales en MHz. Pour rappel, la fréquence GPU variera plus ou moins largement à la baisse, pour les cartes dotées d'un "boost" par rapport à cette valeur indiquée, selon la charge, température et/ou consommation. Cette indication max n'est donc là qu'à titre purement informatif et ne correspond pas forcément à la valeur des fréquences appliquées durant les tests (plus de détails un peu plus bas). Pour rappel, la MSi RX 6950 XT Gaming X Trio est un modèle overclocké par défaut et dispose donc d'un avantage comparatif vis-à-vis des autres références, respectant scrupuleusement les spécifications de leur concepteur.

 

AMD Radeon RX 6800 (2232/1988)

AMD Radeon RX 6800 XT (2425/1988)

AMD Radeon RX 6900 XT (2532/1988)

MSI RX 6950 XT Gaming X Trio (2620/2238)

NVIDIA GeForce RTX 3080 Founders Edition (1980/1188)

NVIDIA GeForce RTX 3080 Ti Founders Edition (1965/1188)

NVIDIA GeForce RTX 3090 Founders Edition (2025/1219)

NVIDIA GeForce RTX 3090 Ti Founders Edition (2070/1313)

NVIDIA GeForce RTX 4090 Founders Edition (2745/1313)

gpu_boost.jpg

 

Petit aparté concernant GPU Boost et Powertune : nous avons indiqué pour information les fréquences maximales atteignables par les cartes à notre disposition, notons qu'en pratique lors d'une séance de jeu soutenue, l'augmentation de la température GPU et/ou la consommation atteignant les limites fixées par les constructeurs, vont conduire à une baisse plus ou moins sensible des fréquences de fonctionnement. C'est pourquoi nous veillons à "bien faire chauffer" les cartes entre chaque session de bench et ne commençons les mesures de performances des cartes disposant de ces mécanismes de contrôle que lorsque la température de fonctionnement se stabilise, impliquant une baisse des fréquences pour celles ne disposant pas d'un refroidisseur capable de maintenir (avec les réglages par défaut) une température inférieure à ces seuils sous forte charge. Lorsque ce n'est pas possible (comme dans le cas de benchs "automatisés"), nous répétons ces derniers jusqu'à atteindre ces températures lors des passes suivantes et ne comptabilisons les résultats qu'à partir de ce moment.

 

• Software

Windows 11 Pro

AMD Adrenalin 22.10.1

NVIDIA 521.90 (presse)

Nous utilisons Windows 11, ce qui implique nécessairement une version 64-bit afin d'exploiter une quantité conséquente de mémoire vive et ne pas limiter les jeux qui en auraient besoin à ce niveau. Les dernières mises à jour de l'OS (hormis l'update 22H2 trop récente et avec quelques soucis initiaux) et de DirectX sont bien sûr installées avant de procéder aux séries de tests des cartes graphiques (pas d'évolution logicielle, hormis les pilotes bien entendu, entre toutes les cartes composant l'échantillon retenu) .

 

Côté pilotes, nous employons les derniers disponibles au moment des mesures. Les réglages par défaut sont utilisés pour tous les constructeurs : ils impliquent une optimisation du filtrage trilinéaire et de la Tesselation (uniquement les RADEON pour cette dernière), qui conduit à limiter le facteur maximal de cette dernière, afin d'éviter une amplification géométrique risquant d'engorger le GPU. Voici ce que cela donne pour les cartes du caméléon :

 

Réglages pilotes NVIDIA [cliquer pour agrandir]

Réglages par défaut des pilotes GeFORCE

 

Notez que le panneau de contrôle d'AMD introduit avec les pilotes Crimson est toujours d'actualité avec les Adrenalin 2022. C'est toujours une franche réussite en termes de design et de réactivité, par contre l'accès à certaines fonctionnalités nous semble plus fastidieux. En définitive l'ergonomie nous parait meilleure côté vert, par contre le visuel est largement supérieur côté rouge. Voici les réglages par défaut des RADEON :

 

Réglages pilotes AMD [cliquer pour agrandir]

Réglages par défaut des pilotes RADEON

 

• Protocole

La configuration est installée dans un spacieux boîtier Cooler Master Cosmos II, disposant d'un ventilateur 200 mm en façade, un 140 mm à l'arrière et deux 140 mm au sommet. Concernant les différents benchmarks utilisés, nous exécutons ces derniers au minimum 3 fois et retenons le meilleur score de la série. Pour les performances en jeu cette fois, les résultats ont été obtenus via Frameview 1.4.8127.31856317 (une interface graphique pour PresentMon) sur un déplacement reproductible, et correspondent à la moyenne de 3 "passes" minimum. La température de la pièce est maintenue à 21°C durant tous les tests.

 

L'échantillon de test est composé au total de 26 jeux, ils utilisent pour la plupart un moteur 3D différent, afin de mesurer l'efficacité de nos cartes dans diverses situations. Cela nous permet de tester 20 jeux en rastérisation et 15 utilisant le Ray Tracing. Nous essayons de suivre l'actualité vidéoludique en remplaçant régulièrement des références par de nouvelles, en nous assurant que les titres choisis conviennent à cet exercice (répétabilité, absence de limitation, etc.). Nous avons retenu la définition 3840 x 2160 (UHD) qui sied à ces cartes. Enfin, les mesures sont réalisées avec des niveaux de qualité précisés lors de la description de chaque jeu testé ou dans les graphiques.



Un poil avant ?

La relève NUC Extreme chez Intel sera encore moins mini-PC-esque qu'avant

Un peu plus tard ...

L'Unreal Engine 5.1 plus très loin de débarquer

Les 143 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur qui draille en Île-de-France, le Lundi 21 Novembre 2022 à 16h50  
par Eric B. le Dimanche 20 Novembre 2022 à 18h14
Pas dans le test principal, désolé. C'est déjà la course pour boucler dans les temps avec cet échantillon en plus des jeux, par contre on réfléchit à des tests axés pro pour les GPU dans des dossiers dédiés.
Ok je comprend pas de souci.
Par contre cest sur que si cela se fait ça seras un gros plus.
Jai pas trouvé de trst pour mes usages.
Jai pris tout de même une rtx3060 vu les prix actuellement.
Mais des tests " pros " en, en montage vidéo, photos serais parfait.
Merci d'avance en tout cas
par Eric B., le Dimanche 20 Novembre 2022 à 18h14  
Pas dans le test principal, désolé. C'est déjà la course pour boucler dans les temps avec cet échantillon en plus des jeux, par contre on réfléchit à des tests axés pro pour les GPU dans des dossiers dédiés.
par Un ragoteur qui draille en Île-de-France, le Dimanche 20 Novembre 2022 à 08h46  
Bonjour.
Sympas cs tests avec des applications "pro".
Ce serais possible d'y ajouter des softs importants comme Premiere pro, After Effect, Lightroom, Photoshop et surtout DXO qui avec DeepPrime utilise énormément la carte graphique?
Possible aussi de faire des ajouts sur les test de la génération précédente ?
Merci
par D en Provence-Alpes-Côte d'Azur, le Mardi 15 Novembre 2022 à 22h04  
Je viens de tester une 4090 gainward phantom(non gs), avec un +200mhz sur le core et +500mhz sur la ram, la carte est très calme en forte charge uhd, impressionnant. ..
Les températures aussi aux alentours des 66 max.
Récupéré à 1800e livré sur ld/lc, j'espère ne pas avoir des problèmes sur le 12vpwr...Pas de gainward sur le megathread reddit, étrange..
par Eric B., le Lundi 14 Novembre 2022 à 11h19  
Je ne l'ai pas démontée, mais c'est un Monolithic Power Systems MP2891 d'après celui réalisé par TPU.
par Un ragoteur sigma-delta en Île-de-France, le Lundi 14 Novembre 2022 à 09h56  
Super test comme d'habitude.
Est-ce qu'il serait possible d'avoir la référence du contrôleur d'alimentation ?
Merci
par Eric B., le Mardi 08 Novembre 2022 à 15h15  
par Un adepte de Godwin au Québec le Mardi 08 Novembre 2022 à 14h37
Juste 18 fps de plus que la 3090 dans flight simulator... je vais attendre la 5090...
As-tu compris que c'est le CPU qui limite la 4090 sur ce test là (c'est écrit pourtant) ? Parce que tu peux attendre même la 7090 que ça n'y changerait absolument rien dans des situations comme celle-ci...
par Un adepte de Godwin au Québec, le Mardi 08 Novembre 2022 à 14h37  
Juste 18 fps de plus que la 3090 dans flight simulator... je vais attendre la 5090...
par Un ragoteur sans nom en Bourgogne-Franche-Comté, le Mercredi 02 Novembre 2022 à 15h26  
par YulFi le Mercredi 02 Novembre 2022 à 09h11
La conso est telle que je m'interroge sur la conso de la carte bloquée à 60 fps. A-t-elle du coup un appétit d'oiseau sur un jeu AAA ?
Un peu comme la fonction Radeon Chill ou limiter les fps in-game. On peut avoir une énorme carte mais par moment vouloir jouer en silence et/ou diminuer la chauffe, je ne trouve pas ça déconnant
Perso l'été je le fais, je bride à 60fps pour diminuer la chauffe quand il fait déjà presque 30°C dans la pièce.

Edit: J'ai en partie trouvé une réponse sur un petit lien tout mignon
Ils brident Cyberpunk à 90fps et la carte ne consomme "que" 215W, pas mal. La 3090 Ti dans le même cas consomme 416W outch !
C'est vrai pour toutes les cartes qui abaisseront leur tension en fonction de la charge demandée, si tant est que la carte ne soit pas déjà à son max à la fréquence d'images demandée. C'est facile à monitorer avec MSi afterburner avec lequel on peut afficher dans un coin de l'écran les informations que l'on veut parmi celles qui sont monitorées.
par Un #ragoteur connecté d'Occitanie, le Mercredi 02 Novembre 2022 à 13h11  
par Un ragoteur sans nom en Bourgogne-Franche-Comté le Mercredi 02 Novembre 2022 à 12h07
Et alors ? Je m'en tamponne totalement de ces considérations. Seul mon budget importe, le reste c'est leur problème.
Entièrement d'accord avec toi. Si certains acceptent de se faire pigeonner, ça les regarde. Le prix des cartes devraient suivre l'évolution du cout de la vie, point barre. Donc en 5 ans, à 3% d'augmentation par an en moyenne, ça nous fait 15%, et pas 150%. Les cartes graphiques sont l'exception dans l'écosystème PC. La conversion €/$ nous est défavorable d'environs 20% provisoirement, Nous n'y pouvons pas grand chose (à part avoir des politiques compétents, mais la aussi c'est la crise)
Il faut bien se rendre compte qu'une carte graphique aujourd'hui coute autant qu'un PC entier moyenne gamme. Il faut arrêter le délire.
Le boum du minage de l'Ethereum est terminé, retour à la case départ. Finit d'amortir les cartes en quelques mois et de faire du pognon avec ensuite, quelque soit le prix ou on pouvait la payer.
J'utilise mes cartes pour des usages pro et je trouve les prix scandaleux, pour un usage ludique c'est encore plus invraisemblable...
par Un ragoteur sans nom en Bourgogne-Franche-Comté, le Mercredi 02 Novembre 2022 à 12h07  
par Un rat goth à l'heure en Provence-Alpes-Côte d'Azur le Mercredi 02 Novembre 2022 à 09h51
450 / 550 lol on est en 2022 pas en 2017....
Entre la guerre, les tensions mondiales, le coût de conception de plus en plus durélevé, les prix de TMSC, et la chute de l'euro bon courage ....
Et alors ? Je m'en tamponne totalement de ces considérations. Seul mon budget importe, le reste c'est leur problème. Je peux espérer trouver une remplaçante plus performante dans les gammes 4060ti/4070 ou des 7700/xt convaincantes dans ces tarifs, même si je dois attendre encore 6 mois à 1an. Vu les MSRP et les tarifs actuels (certes 2 ans après leur sortie), c'est déjà trouvable.
Malheureusement, la 6750xt et la 3070 sont peu convaincantes (+ manque de VRAM avec la 3070 mal foutue), la 6800 tout juste abordable bien que trop proche de son msrp me fait de l'oeil comme jamais. J'attends de voir ce qu'il sort, tant que je ne suis pas dans l'urgence de changer.
par Un rat goth à l'heure en Provence-Alpes-Côte d'Azur, le Mercredi 02 Novembre 2022 à 09h51  
par Un ragoteur sans nom en Bourgogne-Franche-Comté le Samedi 15 Octobre 2022 à 19h32
Le GAP de prix et de conso, sans parler de la taille du bazar, sont eux aussi énormes. Je dirais plutôt indécents. J'ai payé ma 1080ti 678 euros au printemps 2017 grâce à une ristourne de mamazone. Elle me permet de jouer à presque tous les jeux en 1440p moyennant des compromis sur certaines options encore actuellement, presqu'en 2023. Elle est double slot ( oui j'ai une autre carte fille qui va rester en place tant que windows l'accepte ) et tire au max 250W de ma petite entreprise qui ne connaît pas la crise alim.

Je passe mon tour et attendrai les futures cartes à 450-550 euros de l'un ou l'autre des concepteurs (je mets Intel de côté en attendant mieux chez eux), si tant est qu'elles soient convaincantes.
450 / 550 lol on est en 2022 pas en 2017....
Entre la guerre, les tensions mondial, le coût de conception de plus en plus dur, les prix de TMSC, et la chute de l'euro bon courage ....