COMPTOIR
  
register

Test • Nvidia GeForce RTX 4080

• Verdict

Nous voici parvenus au terme de ce dossier, et il est indéniable que le caméléon a réussi avec AD103 à conserver une grande partie de l'ADN de son GPU haut de gamme, animant la RTX 4090. En conséquence, la RTX 4080 est une carte très performante, capable de devancer de manière sensible la génération précédente. L'adjonction du DLSS 3 (pour les jeux le supportant) lui ouvre qui plus est la porte de performances redoutables en UHD dans les jeux les plus gourmands avec RT actif. Pour ne rien gâcher, sa consommation est bien plus raisonnable que celle de sa grande sœur, la rendant plus facile à intégrer sans changement d'alimentation. Enfin, à son niveau de performance, elle est moins sujette au phénomène de limitation CPU que sa grande sœur, nécessitant un modèle très véloce dans ce domaine, pour lui permettre de s'exprimer pleinement. Un maître achat alors ? Eh bien non ! En cause une tarification excessive des verts, accentuée en Europe par la faiblesse conjoncturelle de l'€uro, d'autant que la concurrence arrive très prochainement. Détaillons donc tout cela.

 

fe box

 

 

• AD103

Seconde puce à étrenner l'architecture Ada Lovelace, AD103 est un GPU bien moins ambitieux que ne peut l'être son grand frère. Pour réduire les coûts, pas d'autres options que de limiter la surface du die pour multiplier leur nombre par Wafer. C'est d'autant plus vrai avec une approche monolithique sur un process aussi onéreux que ne peut l'être le 4 nm TSMC. Il faut donc faire des arbitrages et c'est souvent ici que les problèmes commencent. Car garder l'équilibre du GPU est primordial, sous peine de générer des goulots d'étranglement souvent fatals aux performances. Qui plus est, certains éléments ne peuvent pas forcément être réduits (certaines interfaces, Display et Media Engine, etc.). Le premier à faire les frais de la cure d'amincissement est le bus mémoire, réduit d'un tiers à 256-bit. Le cache L2 suit le même chemin, passant ainsi de 96 Mo à 64 Mo. Arrive enfin le tour des unités de calcul, et là le caméléon n'y va pas avec le dos de la cuillère, en réduisant de 55 % leur nombre respectif dans un GPU complet. De quoi parvenir à une puce 38% plus petite et moins énergivore.

 

ad102 mini

C'est ainsi qu'est né ce nouveau GPU, et indubitablement, de tels arbitrages ont de quoi faire peur. Pourtant, dans les faits, AD103 dans sa version RTX 4080, propose 73 % des performances de sa grande sœur en UHD. Qu'est qui explique cette perte moins lourde qu'anticipée à la simple lecture des caractéristiques des deux GPU ? Principalement le fait que ces arbitrages concernent les puces qui vont être intégralement gravées, alors que celles utilisées auront le droit à des désactivations respectives dans des proportions différentes : l'AD102 de la RTX 4090 = 89% des unités présentes actives et 75% du cache L2, alors que l'AD103 de la RTX 4080 = 95% des unités actives et 94% du L2. Comme nous l'indiquions lors de notre article dévolu à la RTX 4090, Ada Lovelace version AD102 n'a pas encore dévoilé son plein potentiel. Le verra-t-on sur une GeForce ? Seul l'avenir nous le dira. Quoi qu'il en soit et pour revenir au sujet du jour, AD103 dans sa variante RTX 4080 est capable de devancer sensiblement un GA102 intégral, et ce avec une puissance électrique réduite de 29 %. C'est indubitablement une belle réussite, qu'il faut mettre sur le compte du process pour le gain de fréquence (sans faire exploser la consommation) et pour l'augmentation considérable du cache L2 compensant la réduction de la bande passante mémoire, du fait d'une densité bien supérieure, permettant d'allouer autant de transistors pour cet usage.

 

L'implémentation RT est quant à elle toujours aussi efficace, les RT Cores de troisième génération se montrant diablement efficaces, sans compter les gains potentiels à attendre du SER, lorsque ce dernier sera utilisé à bon escient par les développeurs (nul doute que la proximité de l'équipe pilote des verts avec ces derniers devrait aider à cette adoption). Nvidia ayant conservé l'unité OFA de dernière génération, le DLSS 3 est donc totalement compatible avec cette RTX 4080 et pourrait d'ailleurs s'avérer encore plus utile sur cette dernière que pour sa grande soeur. Un point intéressant pour l'avenir, concerne la riposte de la concurrence à ce dernier, puisqu'AMD a annoncé lors du lancement de RDNA 3, un FSR 3 qui semble reprendre lui aussi la technique de génération d'images. D'après Nvidia, le DLSS 3 est limité à Ada, car il est nécessaire de disposer d'une unité OFA performante, afin d'éviter les différents artefacts liés à cette technologie si elle n'est pas couplée à une analyse précise des images précédentes. Si AMD y parvient sans une telle unité, comment les verts pourront justifier le fait de réserver le DLSS 3 à Ada ? Tout ceci nécessitera bien entendu une analyse méticuleuse des résultats, lorsque le FSR 3 sera disponible, en 2023.

 

 

• GEFORCE RTX 4080

Que penser de la GeForce RTX 4080 ? À 1469 €, c'est tout sauf une carte accessible. Alors certes, l'€uro s'est déprécié, certes le process de fabrication 4 nm de TSMC est probablement bien plus coûteux que le 8 nm de Samsung. Il n'en reste pas moins qu'une série 80 à 1199 $ (pour faire disparaitre l'effet de change) c'est 71,5 % d'augmentation par rapport à la RTX 3080. Que la 4080 coûte plus cher que sa devancière à produire, certainement. De cet ordre de grandeur, cela nous parait bien improbable. Ainsi, si le procédé est plus coûteux, il ne faut pas oublier non plus qu'AD103 est 40 % plus petit que GA102 (qui équipe la RTX 3080). Les 16 Go de GDDR6X coûtent-ils vraiment plus cher que 10 Go il y a 2 ans, certes moins rapides, mais inaugurant cette nouvelle mémoire ? Le PCB pour un bus 256-bit est probablement moins complexe que pour un bus 320-bit. Tout ceci n'est que conjecture de notre part, mais il nous parait légitime de s'interroger sur le pourquoi d'une telle inflation, qui ne semble pas uniquement due aux seuls coûts de fabrication de la carte.

 

La raison la plus probable est le stock de GPU et de cartes Ampere qui reste sur les bras des verts et de ses partenaires. La solution idéale pour écouler tout cela, serait de réellement brader ces cartes pour faciliter leur écoulement, mais comme cela concerne un bon paquet d'argent, on comprend aisément la réticence des acteurs. La solution adoptée pour l'heure, est donc de faire cohabiter les deux générations, en coiffant la précédente par Ada, quitte à proposer une RTX 4080 anormalement plus chère que sa devancière, pour éviter toute cannibalisation des cartes d'ancienne et nouvelle génération entre elles. Cela conduit à des aberrations telles qu'un rapport perf/prix moins bon sur la 4080 que la 4090. Nous ne sommes pas fans de ces indices, trop volatils, mais en se basant sur le niveau de performances en UHD, la RTX 4090 obtient 9,46 $ / point contre 9,74 $ / point pour la 4080. Historiquement, le très haut de gamme se paie généralement au prix fort (les derniers % de performances coûtant très cher), comment expliquer qu'il se dégrade en descendant en gamme ? Nvidia s'efforce donc de comparer la dernière née à la RTX 3080 Ti (plutôt que la 3080), dont le ratio perfs/prix était bien moins bon, du fait de son lancement en pleine pénurie.

 

Il ne faut pas non plus omettre l'arrivée très prochaine de la concurrence, avec des RX 7900 annoncées moins chères que la RTX 4080. Nous ne pouvons que vous inviter à patienter quelques semaines, afin de connaitre les prestations respectives et ainsi juger en connaissance de cause. Si elles tiennent leurs promesses, la situation deviendra rapidement très délicate pour le caméléon, tout du moins si la disponibilité suit côté rouge. Nous vous invitons également à regarder attentivement l'évolution des prix des générations RDNA 2 et Ampere, puisque ce sont des cartes encore tout à fait capables, et à tarif adapté, elles seront probablement préférables à des nouveautés trop chèrement payées. En définitive, la GeForce RTX 4080 est une excellente carte à bien des égards, beaucoup plus raisonnable que sa grande sœur au niveau des contraintes qu'elle impose, elle ne pâtit "que" d'un tarif excessif, que nous espérons juste provisoire, le temps de la disparition des stocks d'Ampere. En attendant, difficile de faire l'impasse sur cette tarification que nous jugeons abusive.

 

amd 40 bequiet 40 Logo G Skill intel 40 asus 40 nvidia 40

Nous remercions naturellement nos partenaires pour la mise à disposition du matériel de test

 


• Les tarifs dans la vraie vie ?

 



Un poil avant ?

Ventes de jeux vidéo : toujours du Call of, mais...

Un peu plus tard ...

Adaptateur 12VHPWR : deux fabricants seulement les fournissent, pour deux design différents

Les 100 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur sans nom en Île-de-France, le Samedi 19 Novembre 2022 à 22h26  
par Scrabble le Samedi 19 Novembre 2022 à 12h43
Tu confond le mot "normalement" avec le mot "habituellement"
Le fait que le rapport perfs/prix des GPU n'évolue presque plus, c'est quelque chose de nouveau, effectivement, mais ça n'en fait pas quelque chose d'anormal
kaz à raison, je ne sais pas ce que tu cherches encore mis à part passer pour un "je ne sais quoi".

par Scrabble, le Samedi 19 Novembre 2022 à 12h43  
par Kahz le Vendredi 18 Novembre 2022 à 21h54
En conclusion, c'est une bonne carte, mais pas à ce prix là... comme dirais Gamers Nexus, il y a "stagnation" des perfs, puisque augmentation des perfs = augmentation du prix.
Si tu payes plus, tu as mieux, il est maintenant juste possible de payer encore plus pour avoir encore mieux. Normalement, une nouvelle gamme c'est que pour le même prix, tu as mieux que la gamme précédente.
Tu confond le mot "normalement" avec le mot "habituellement"
Le fait que le rapport perfs/prix des GPU n'évolue presque plus, c'est quelque chose de nouveau, effectivement, mais ça n'en fait pas quelque chose d'anormal
par Kahz, le Vendredi 18 Novembre 2022 à 21h54  
En conclusion, c'est une bonne carte, mais pas à ce prix là... comme dirais Gamers Nexus, il y a "stagnation" des perfs, puisque augmentation des perfs = augmentation du prix.
Si tu payes plus, tu as mieux, il est maintenant juste possible de payer encore plus pour avoir encore mieux. Normalement, une nouvelle gamme c'est que pour le même prix, tu as mieux que la gamme précédente. Mais effectivement, ils ont l'intention de faire cohabiter les 2 gammes... Business is Business

J'espère vraiment qu'AMD va réussir à faire à Nvidia ce qu'ils ont fait à Intel... Le marché du CPU est bien plus intéressant maintenant qu'il y a de la concurrence !
par Alffir, le Jeudi 17 Novembre 2022 à 21h18  
par Eric B. le Jeudi 17 Novembre 2022 à 11h15
En fait c'est toujours un dilemme, mais j'ai fait mon deuil depuis un moment de ces retours en arrière au-delà de la Gen -1 (sauf exception). Pourquoi ? Tout simplement parce que la charge que nous appliquons à une carte contemporaine n'est pas celle qui conviendrait à une carte Gen-2/-3.
Je sais très bien que c'est difficile d'avoir un réglage qui convient à toutes les cartes, c'est pour ça que je dis que ça aurait plus sa place pour un dossier spécial que pour un test qui sort le jour du NDA.

Je ne parle pas de ma 2070S, mais une RTX2080Ti ne passerait pas moins bien qu'une RX6800, notamment en RT.

Faudrait presque se fixer 60 ou 120 FPS pour toutes les cartes, et regarder quelle résolution maximum permet chaque carte.
par anteraks21, le Jeudi 17 Novembre 2022 à 18h47  
par Un rat goth à l'heure en Provence-Alpes-Côte d'Azur le Mercredi 16 Novembre 2022 à 20h01
Oui il faut attendre 10 jours quel horreur n'est-ce pas bouhhh bouhhh et quand tu auras les précommandes AMD pour 3 semaines d'attente tu diras hip hip hourraaa je vais l'acheter

Trop lol sérieux...
Pour AMD ça sera directement sur leur site comme pour la rtx 4080 qui a été disponible il y a 3 jours. Je passe toujours sur des cartes FE car la garantie est de 3 ans.
par Eric B., le Jeudi 17 Novembre 2022 à 13h01  
par lulu-nico ?? le Jeudi 17 Novembre 2022 à 11h41
En parlant de vram tu as eu des limitations dur les cartes de ce tests ?
Non, je n'ai rien remarqué de tel.
par lulu-nico, le Jeudi 17 Novembre 2022 à 11h41  
par Eric B. le Jeudi 17 Novembre 2022 à 11h15
En fait c'est toujours un dilemme, mais j'ai fait mon deuil depuis un moment de ces retours en arrière au-delà de la Gen -1 (sauf exception). Pourquoi ? Tout simplement parce que la charge que nous appliquons à une carte contemporaine n'est pas celle qui conviendrait à une carte Gen-2/-3.
Avec ta 2070S, tu vas tout naturellement baisser le niveau de détails pour privilégier le confort d'usage avec les production contemporaine gourmandes, je me trompe ? C'est légitime et logique. Du coup appliquer une charge totalement inadaptée va conduire parfois à un effondrement des perfs (saturation mémoire, etc.) faisant croire à la nécessité de changer, alors que ce n'est pas forcément utile (passer de Ultra à élevé par exemple ne dénature pas sensiblement le jeu dans de nombreux cas).
Et si on réduit cette fois la charge, ce sont les cartes contemporaines qui vont se tourner les pouces voir être limitées par le CPU, retirant la pertinence du test... Bien sûr cela ne touche pas tous les jeux, mais déjà que beaucoup de lecteurs ne lisent pas le texte hors graphiques, ça me parait quelque part un chouia malhonnête de procéder ainsi, poussant à la consommation là où ce n'est pas forcément utile.
En conclusion, le transgénérationnel n'est pas si aisé lorsque l'on veut garder la pertinence du test, ce que nous cherchons à faire systématiquement.
En parlant de vram tu as eu des limitations dur les cartes de ce tests ?
Encore bravo pour le test c'est le plus complet sue j'ai vu sur le web
Vous êtes l'un des seuls site à avoir refait avec le 13900k
J'ai vu des tests ou la 4090 n'est que 25 % devant la 4080 si on croit ça son prix devient correct ça change tout
par Eric B., le Jeudi 17 Novembre 2022 à 11h15  
par Alffir le Jeudi 17 Novembre 2022 à 08h46
Seul "critique", plutôt que faire 3080Ti/3090/3090Ti, ça serait pas préférable d'ajouter une carte de la génération précédente ?
.
En fait c'est toujours un dilemme, mais j'ai fait mon deuil depuis un moment de ces retours en arrière au-delà de la Gen -1 (sauf exception). Pourquoi ? Tout simplement parce que la charge que nous appliquons à une carte contemporaine n'est pas celle qui conviendrait à une carte Gen-2/-3.

Avec ta 2070S, tu vas tout naturellement baisser le niveau de détails pour privilégier le confort d'usage avec les productions contemporaines gourmandes, je me trompe ? C'est légitime et logique. Du coup appliquer une charge totalement inadaptée va conduire parfois à un effondrement des perfs (saturation mémoire, etc.) faisant croire à la nécessité de changer, alors que ce n'est pas forcément utile (passer de ultra à élevé par exemple, ne dénature pas sensiblement le jeu dans de nombreux cas).

Et si on réduit cette fois la charge, ce sont les cartes contemporaines qui vont se tourner les pouces voir être limitées par le CPU, retirant la pertinence du test... Bien sûr cela ne touche pas tous les jeux, mais déjà que beaucoup de lecteurs ne lisent pas le texte hors graphiques, ça me parait quelque part un chouia malhonnête de procéder ainsi, poussant à la consommation là où ce n'est pas forcément utile.

C'est comme tester un THG en FHD ou une entrée de gamme en UHD, cela n'a pas de sens puisqu'elles ne sont pas prévues pour ça, du moins à leur lancement pour le THG. En conclusion, le transgénérationnel n'est pas si aisé lorsque l'on veut conserver la pertinence du test, ce que nous nous efforçons de faire systématiquement.
par Manu, le Jeudi 17 Novembre 2022 à 09h37  
par Un ragoteur qui pipotronne en Communauté Valencienne le Jeudi 17 Novembre 2022 à 08h12
Je ne serais pas étonné de voir des chutes de prix massives très rapidement sur ces cartes.
Mais vu comme cela part en ce moment, ont ils vraiment intérêt à baisser les prix ? Peut être suite à la réplique des rouges, qui sait...
En attendant, ils vont se faire pas mal de biftons
par Alffir, le Jeudi 17 Novembre 2022 à 08h46  
Encore merci pour vos tests toujours complets et facilement lisibles.

Seul "critique", plutôt que faire 3080Ti/3090/3090Ti, ça serait pas préférable d'ajouter une carte de la génération précédente ?

Bonne carte, mauvais prix, j'en achèterai une pour remplacer ma 2070S dans 4 ans quand la RTX6080 sortira.
par Un ragoteur qui pipotronne en Communauté Valencienne, le Jeudi 17 Novembre 2022 à 08h12  
Sauf que c'est sensé être une nouvelle génération, avec ces tarifs on se retrouve plutôt avec une extension de la gamme actuel vers le haut.

Je ne serais pas étonné de voir des chutes de prix massives très rapidement sur ces cartes.
par anteraks21 le Mercredi 16 Novembre 2022 à 18h47
La conclusion sur les tarifs de la RTX4000 n'est pas valable pour les pays hors CE. La tarification US de la RTX 4080 et 4090 est respectivement de 1200$ pour la 1er et 1600$ pour la seconde. Si on compare avec la RTX 3090 Ti qui est à 1100$ on se retrouve avec des RTX4000 bien mieux placées en prix car le % d'augmentation est inférieure à l'augmentation des performances.
Pour synthétiser le truc en prennent le RT QHD nous avons par rapport à la rtx 3090 Ti :

RTX 4080 + 25% en perf et +9% en tarif
RTX 4090 +61% en perf et +45% en tarif.

On pourrait faire la même analogie avec les prix EU mais rien de comparable car aux US le prix psychologique reste encore au dessus eu égard au niveau de vie (+30% pour les US)
Message de Un ragoteur sans nom en Île-de-France supprimé par un modérateur : HS