COMPTOIR
register

×

RTX 2080 Ti

Test • NVIDIA GeFORCE RTX 2080 / 2080 Ti
RTX 2080 Ti

• Verdict

Compte tenu de l'absence de jeux supportant à l'heure actuelle le RTX, ce verdict pourra être amené à évoluer suivant l'évolution de ce sujet. En effet, une grande partie de l'intérêt de ces nouveaux modèles, réside dans le support de ces nouvelles technologies. L'absence d'adoption ou des performances insuffisantes une fois activées, limiteraient d'autant l'intérêt et donc la justification du surcoût par rapport à la génération précédente. La prudence reste donc de mise à l'heure actuelle.

 

Nous voici au bout de ce dossier, la réponse à la question posée en préambule, concernant la légitimité d'un tel tarif, n'est pas simple, ou à tout le moins ne peut pas se résumer à un simple oui ou non. Nous allons détailler cela dans les lignes qui suivent. Avant d'aborder ce sujet, une remarque quant à la réalisation de ce test, qui ne fut, il est vrai, pas une sinécure. La principale raison, il faut bien l'avouer, vient de nos disponibilités, mais la mise à disposition très tardive des cartes, pilotes et certains applicatifs ne nous ont pas facilité la tâche, lorsqu'il s'agit de tester un panel de cartes et de logiciels importants... Nous pouvons comprendre la volonté légitime de NVIDIA d'éviter au maximum les fuites, il n'empêche que cela complique fortement la tâche, tout comme la dissociation en 2 dossiers sur un laps de temps très court. Ceci étant dit (3615 my life de testeur), passons à notre avis sur cette nouvelle génération en commençant par l'architecture.

 

RTX 2080 Ti [cliquer pour agrandir]

 

• turing

TU102

Lors de notre dossier consacré à l'architecture Turing,  nous avons noté des évolutions relativement marquées des unités de calcul. On pense par exemple au traitement concomitant des entiers et réels, mais aussi à la prise en charge de précisions réduites à haute vitesse. Si ces évolutions ne se ressentent pas dans tous les jeux, certains moteurs tirent dès maintenant partie de ces caractéristiques et permettent aux nouvelles venues de créer des écarts significatifs vis-à-vis de la génération Pascal. L'architecture plus flexible, semble davantage "tout terrain" et se permet d'exceller dans les traditionnels points forts du concurrent. Par contre, certains titres ne tirent aucune partie de Turing, ce qui conduit actuellement à un écart moyen, moins important que ce à quoi nous pouvions nous attendre, vu les progrès de l'architecture. Il est fort probable qu'à mesure que de nouveaux jeux ou patchs sortent, Turing soit capable d'accentuer son avance sur la génération précédente. Qui plus est, les tests en HDR, du fait de son support natif au niveau du pipeline vidéo, lui permettent d'accentuer les écarts avec Pascal, qui souffrait d'une baisse de performance dans ces conditions. Le niveau de performance atteint dans l'absolu est dans tous les cas de très haut niveau, les nouvelles cartes lancées ne souffrent d'ailleurs d'aucune concurrence. Mais réduire Turing à de simples chiffres serait occulter complètement les apports côté IA, dont est issu le DLSS, augmentant là-aussi significativement les performances. Enfin, son rendu hybride, est capable d'améliorer considérablement l'aspect visuel des jeux par l'apport du Ray Tracing. Certes, le hardware est ici en avance sur le software, mais pour avoir vu avec nos propres yeux ces apports, il est difficile de considérer cela comme un simple ajout gadget. Les développeurs feront ou non le succès de cette technologie, mais vu l'accueil enthousiaste de nombre d'entre-eux, dont certains traditionnellement proches du concurrent, il est fort probable que l'adoption soit en marche. Les plus prudents attendront toutefois de voir si la mayonnaise prend.

 

Turing est clairement un pari sur l'avenir de la part de NVIDIA, on ne peut que saluer cette décision d'innover plutôt que de se contenter de gérer son avance, comme avait pu le faire un autre géant (bleu cette fois, avec le résultat qu'on connait aujourd'hui). Il aurait aussi pu se contenter d'élargir quelque peu Pascal et produire probablement des GPU aussi puissants dans les jeux actuels que Turing, mais sans les inconvénients liés à l'ajout de transistors "inutiles" au départ. Reste aussi à savoir si la "puissance" disponible du côté des nouveautés sera suffisante pour les exploiter de manière optimale, cela n'a pas toujours été le cas dans le passé. Quoi qu'il en soit, ce côté "futuriste" a des contreparties non négligeables, la principale étant le coût de production des puces. En effet, qui dit nouvelles fonctionnalités, dit nouvelles ressources la plupart du temps. C'est ici le cas, et pas des moindres, ce qui conduit à des puces gigantesques, faute de progrès sensibles du procédé de fabrication. Les TU102 et TU104 animant les cartes testées ce jour, sont en définitive significativement plus gros que le GP102 des GTX 1080 Ti, précédent flagship.

 

Conséquence plus que prévisible de ce fait et de l'absence de concurrence dans ce créneau, le tarif des GeForce RTX est en hausse notable, rendant ces dernières bien moins accessibles que ne pouvaient l'être les cartes précédentes. L'équation est imparable et frustrera de nombreux acquéreurs potentiels, qui ne pourront pas dépenser une telle somme, ou même s'y résoudre. Le seuil de consentement à l'achat étant variable toutefois selon les individus (certains achètent des smartphones à tarif plus élevé encore, le dernier iPhone à 1650€ dans sa version Max 512 Go par exemple), difficile de dire quel sera le niveau des ventes, le très haut de gamme étant de toute façon réduit en termes de volume, et le rapport performances/prix pas forcément l'argument principal de la décision. Compte tenu des tarifs déjà exorbitants pour la plupart, le caméléon s'est contenté de quantités mémoire inchangées, ce qui pourra décevoir (et limiter potentiellement la durée de vie de ces cartes), mais aurait pu conduire à des tarifs plus élevés en cas de doublement. Ça reste toutefois très difficile à digérer dans l'absolu, vu le prix unitaire des cartes. La question est aussi de savoir si NVIDIA sera capable de réduire le ticket d'entrée de cette génération avec une éventuelle série xx60, sans en dénaturer pour autant les points forts. Voilà pour notre avis sur l'architecture, qu'en est-il des cartes à présent ?

 

 

• GeForce RTX 2080 & 2080 Ti

Faut-il ou non craquer pour une RTX 2080 Ti ? Vous avez les moyens et consentez à une telle dépense, vous avez besoin de puissance / vous voulez le nec plus ultra et cela ne vous dérange pas de changer régulièrement de carte graphique ? Alors oui, vous pouvez y aller sans hésiter, il n'existe pas mieux à l'heure actuelle pour les jeux contemporains et probablement pas avant de long mois. Cela réduit drastiquement la frange de clients potentiels, d'autant que certains pourront arguer qu'un SLi de 1080 Ti est plus puissant pour un peu plus cher (au point où nous en sommes). Certes, mais le multi-GPU n'est pas dénué d'inconvénients, dont une variabilité des gains très importante selon les titres.  Qui plus est, vous ne pourrez profiter des raffinements visuels du Ray Tracing au fur et à mesure de leur adoption par les nouveaux jeux. Tout est question de priorité de l'utilisateur, à titre personnel nous opterions plutôt pour la nouveauté, mais ce choix s'accompagne d'une sorte de foi en l'avenir du RTX.

 

Quid de la RTX 2080 cette fois ? Elle est légèrement devant la 1080 Ti en moyenne, elle peut toutefois créer des écarts plus importants selon les situations, et dispose de ce côté "davantage tournée" vers l'avenir face à sa devancière, qui ne peut espérer, elle, de progrès significatifs, que ce soit en performance ou qualité visuelle. Mais la grand-mère conserve des atouts, dont une tarification plus douce actuellement, et davantage de mémoire vidéo. Là aussi, tout dépendra des priorités de chacun. C'est facile pour le testeur qui responsabilise le lecteur ! Blague à part, il nous semble plus pertinent de s'orienter vers la nouvelle venue, mais peut-être pas systématiquement. Une promotion ramenant la 1080 Ti à vil prix, ferait sans aucun doute pencher la balance de son côté. Il peut aussi être intéressant de patienter pour un éventuel tassement des tarifs de la RTX 2080 et profiter de ses apports à moindre coût. 

 

Un mot pour finir sur les Founders Edition. C'est en l'état une semi-déception nous concernant, mais peut-être pas pour toujours... En cause, les nuisances sonores au repos qui nous paraissent totalement déconnectées du niveau de prix des cartes, et donc des attentes légitimes des utilisateurs quant aux moindres détails qualitatifs. NVIDIA indique travailler à résoudre ce problème, la surconsommation au repos a été corrigée, mais rien du côté de la ventilation dans ces conditions. Il est clair qu'en l'état, cela fait pour le moins désordre. Pour le reste, la finition est exemplaire et générera sans aucun doute des coups de cœur visuels pour certains. Le niveau sonore en charge est sous contrôle, même si des constructeurs tiers feront probablement mieux à ce niveau. Surtout, le refroidisseur permet de rester systématiquement sous la température cible de GPU Boost 4.0, de quoi profiter de performances optimales avec ses fréquences en hausse par rapport aux modèles premiers prix.


amd 40 bequiet 40 Logo G Skill logo Intel nvidia 40

Nous remercions naturellement nos partenaires pour la mise à disposition du matériel de test

 



Un poil avant ?

Live Twitch • Une quête avec des trolls poilus dedans !

Un peu plus tard ...

Le chipset Z390 (ré)officialisé le 8 octobre ?

Les 126 ragots
Les ragots sont actuellement
ragots réservés aux QI élevésouverts aux ragoteurs logués
par Eric B., le Mercredi 27 Février 2019 à 07h03  
Moi ce que je trouve étrange c'est ton commentaire : tu compares une carte graphique au design de référence (et donc avec une fréquence GPU sensiblement impactée) à la tienne fortement overclockée et couplée avec un CPU plus rapide pour ce genre de tâches (sachant que le score CPU est pris en compte dans le calcul du score global reporté dans le graphique et que la désactivation de l'HT sur le notre réduit encore davantage les performances dans le test CPU) et tu t'étonnes (faussement ?) de valeurs différentes... Autant comparer des choux et des carottes. Ce qui compte dans ce test spécifique (qui n'est d'ailleurs présent qu'à titre informatif, le verdict n'est établi que vis-à-vis des résultats in game), c'est la hiérarchie mesurée entre cartes sachant que les conditions d'exécution sont identiques (ce n'est pas ton cas), pas le score global dans l'absolu.
par Mika2012, le Mardi 26 Février 2019 à 13h36  
Je trouve les résultats du test bizarre.
J'ai un I7 8700K et une GTX 1080 Ti et j'ai un score 3D MarK de 10536...en QHD 1440*2560. Soit l'équivalent de la 2080...
Bon Ok le processeur est à 5.2Ghz et la Carte graphique à 2.2Ghz...
Mais quand même.
par Eric B., le Mardi 15 Janvier 2019 à 18h58  
Nous voulons bien t'aider à comprendre d'où provient le différentiel de performance, mais pour cela il faut être plus factuel :
* Préciser la configuration (CPU OC ? / fréquence et qté DDR4)
* Préciser davantage les réglages
* Comment sont mesurées les performances ? (durant un séance de jeu via fraps ou équivalent ? En solo ou en multi ? Avec le benchmark intégré ? Sur un replay perso ?
* L'idéal c'est de réaliser un log des fréquences de la carte graphique (via GPU-Z par exemple) durant ta session de jeu (et également l'usage CPU / fréquence si rien d'anormal côté GPU)
par DeathofWarQc, le Mardi 15 Janvier 2019 à 18h26  
J'ai l'impression d'avoir parler dans le vent mais bon mdr si tu veux x3
par Thibaut G., le Lundi 14 Janvier 2019 à 22h27  
par DeathofWarQc le Lundi 14 Janvier 2019 à 22h12
Si si je lis tres bien mdr
Je joue pareil que sur les test tout au max sauf txaa et x4 1440p, avec g-sync et un i7 8700k
Meme si je serai un casual jouant sur du 1080p je devrais taper dans du 150fps au moins, la c'est tout le contraire.
Je me plaindrais pas si c'etais que 10 fps alors que la je parle de pratiquement 50% de perf en moins.
On est pas tous des jean billy tu sais xP
donc des conditions de test différentes, une machine différente, des réglages différents. On ne peut pas comparer directement, c'était le sens de mon message et tu le confirmes. Rien que ça ne te permettra pas de savoir d'où viennent tes contre performances. jean Billy ou pas, c'est assez simple de le comprendre, on ne peut comparer qu'à iso réglages et iso machine.
par DeathofWarQc, le Lundi 14 Janvier 2019 à 22h12  
par Thibaut G. le Samedi 12 Janvier 2019 à 15h03
et si tu lisais les conditions des tests avant ? Il y a 500% de chances qu'on ne teste pas de la même manière, la comparaison de chiffres directe est inutile, tu ne précises même pas la définition de test ni le niveau de détails que tu utilises.
Si si je lis tres bien mdr
Je joue pareil que sur les test tout au max sauf txaa et x4 1440p, avec g-sync et un i7 8700k
Meme si je serai un casual jouant sur du 1080p je devrais taper dans du 150fps au moins, la c'est tout le contraire.
Je me plaindrais pas si c'etais que 10 fps alors que la je parle de pratiquement 50% de perf en moins.
On est pas tous des jean billy tu sais xP
par Thibaut G., le Samedi 12 Janvier 2019 à 15h03  
par DeathofWarQc le Samedi 12 Janvier 2019 à 14h35
100fps sur GTA V xD avec ma 2080 MSI trio X OC je depasse pas les 40fps avec des pics a 70
et si tu lisais les conditions des tests avant ? Il y a 500% de chances qu'on ne teste pas de la même manière, la comparaison de chiffres directe est inutile, tu ne précises même pas la définition de test ni le niveau de détails que tu utilises.
par DeathofWarQc, le Samedi 12 Janvier 2019 à 14h35  
100fps sur GTA V xD avec ma 2080 MSI trio X OC je depasse pas les 40fps avec des pics a 70
par Eric B., le Mardi 13 Novembre 2018 à 07h30  
Nous avons fait un dossier architecture distinct, les réponses s'y trouvent. Pour information, des ordonnanceurs hardware il y en a dans les architectures NVIDIA depuis belle lurette au niveau des blocs de traitement au sein des SM.

Comme tu évoque les async compute, j'imagine que tu veux parler du Multi Engine tel qu'implémenté au sein de DX12 (ou Vulkan), c'est à dire le traitement des files d'attente de rendu, si possible de manière concomitante. Pour cela il faut des processeurs de commande suffisamment évolués, sinon c'est aux développeurs ou au pilote de faire les tâches de synchronisation.

Turing marque effectivement un gros progrès à ce niveau du fait du rendu hybride, toutefois cela ne se traduira pas forcément par des gains similaires à ceux visibles sur les Radeon pour une raison simple : ce fonctionnement permet d'améliorer le taux de charge des unités de calcul, toutefois, si ce dernier est élevé par défaut, le gain potentiel est fortement réduit.

Les GPU NVIDIA depuis Maxwell ont un taux d'occupation par défaut supérieur à ce que l'on trouve chez AMD, c'est pour ça qu'en général il faut aux cartes d'AMD une puissance de calcul brute supérieure pour égaler leurs concurrentes sous DX11, du fait de ce différentiel. C'est pour ça aussi que les cartes d'AMD profitent plus de DX12 qui leur permet (si implémenté et possible) d'améliorer le taux d'occupation de leurs unités.

L'avantage pour Turing face aux précédentes archi vertes, c'est que si le développeur ne fait pas le travail d'optimisation spécifique au GPU, ses processeurs de commande évitent les pénalités de synchronisation et peuvent profiter de gains potentiels.
par TwoFace, le Lundi 12 Novembre 2018 à 10h55  
Au fait ce serait bien de rajouter dans le test des cartes, si les turing ont un ordonnanceur hardware et s'il y a l'async compute bien intégré ??? une lacune des Pascal VS AMD...
Message de wahidovic123 supprimé par un modérateur : HS
par Sarge, le Mardi 16 Octobre 2018 à 17h29  
Eh bien, le RTX (le vrai) a 60 FPS...ce n'est pas pour demain la vieille ! Heureusement qu'Nvidia a pigeonné trouvé des investisseurs clients pour développer les prochaines cartes qui elles, pourront faire tourner du RTX, du vrai !
Merci pour cette maj.