COMPTOIR
  
register

×

RTX 3090 Founders Edition

Test • NVIDIA GeFORCE RTX 3090
RTX 3090 Founders Edition
ga102 t

• Verdict

Nous voici parvenus au terme de ce dossier voyant la RTX 3090 s'emparer du titre de la carte graphique la plus rapide en jeu, une semaine après la prise de pouvoir de sa petite sœur. L'écart séparant les deux cartes (une quinzaine de pourcents), ne justifie en aucun cas la différence de tarification, pour un usage ludique uniquement. Celui qui par contre, a également un besoin de puissance pour des logiciels d'infographie (en particulier ceux friands de larges quantités de mémoire vidéo), pourra y trouver une utilité cumulée, justifiant peut-être le surcoût. Détaillons donc tout cela.

 

RTX 3090 Founders Edition [cliquer pour agrandir]

La plus grosse de toutes, c'est eeeeelle !

 

  

• GA102

ga102 t [cliquer pour agrandir]

Cette seconde déclinaison de GA102, permet de voir Ampere sous un jour un peu plus précis, s'agissant ici d'une version complète ou presque (98%), du plus gros GPU destiné aux GeForce. On notera d'ailleurs à  ce sujet, que seule la TITAN RTX avait eu droit à cette attention lors de la génération Turing, raison de plus pour penser que la RTX 3090 remplace bel et bien cette dernière et non la RTX 2080 Ti, malgré des tarifs similaires. Il ne serait donc pas étonnant de voir débouler un modèle intermédiaire entre les 2 cartes déjà testées, cette fameuse RTX 3080 à 20 Go régulièrement annoncée par des leaks, ne serait-elle pas une future Ti, destinée à ennuyer AMD et son big Navi ? Dans un gros mois nous devrions être fixés. Pour revenir à Ampère, l'écart le séparant de Turing est moindre que celui qui séparait à l'époque Pascal de Maxwell, la RTX 3090 le prouve aisément. Nous l'évoquions déjà lors du dossier destiné à la RTX 3080, les gains par rapport à la 2080 et à tarif équivalent sont indiscutables, mais à puces équivalentes, ils sont moins flamboyants. La raison de cela ? Selon nous, le procédé de fabrication 8 nm de Samsung, s'avère "trop juste" pour une puce aussi amitieuse que GA102, embarquant tout de même plus de 28 milliards de transistors, entrainant des fréquences moindres qu'avec un process plus performant, tout en affichant une consommation excessive. Les raisons d'un tel choix de la part du caméléon ? Lui seul les connait, on peut toutefois se risquer à quelques hypothèses, que nous détaillerons un peu plus bas. L'ennui d'une telle approche, c'est de devoir composer avec un handicap face au concurrent, si ce dernier adopte un procédé plus performant. Ce n'était pas réellement un problème précédemment, puisque l'accès anticipé au 7 nm par AMD, le confinait a de "petits" GPU, pour éviter des coûts de production trop élevés, et donc incapables de lutter dans le haut de gamme.

 

Ce sera probablement une tout autre affaire cette année, ce procédé se démocratisant davantage, même si le gap à combler par les rouges reste important, et que le différentiel entre les process respectifs sera moindre qu'il ne l'était : le passage du N7 au N7P (ou N7+) ne devrait pas apporter autant que la transistion du 12 nm TSMC vers le 8 nm Samsung. Reste à connaitre toutefois les gains intrinsèques au niveau de l'architecture RDNA2. Pour revenir au sujet du jour, GA100, la puce dédiée intégralement au compute, est bien gravée par TSMC en 7 nm. Pourquoi diable ne pas avoir opté de même pour GA102, et éventuellement utiliser la gravure 8 nm de Samsung pour les puces moins complexes ? Peut-être une histoire de coûts, la marge étant bien plus élevée côté gamme professionnelle, les surcoûts de productions sont plus faciles à répercuter par une hausse des tarifs,  jugés déjà prohibitifs par un particulier, mais pas pour une société. On peut tout aussi bien imaginer une "non sécurisation" des allocations de production (bien supérieure à celle de GA100) par Nvidia auprès de TSMC. Ce dernier faute de disponibilité sur ses lignes, ne pouvant alors répondre au besoin du caméléon en termes de délais et volumes, le contraignant à se tourner vers un autre fondeur et process. La vérité n'est connue que de ces acteurs, et comme toujours impossible à déterminer avec certitude, vu le côté confidentiel de ces points. Voilà pour notre avis sur le dernier GPU des verts, reste à voir ce qu'il en sera de la concurrence mais aussi de GA104. En effet, cette série de puces (xx104) est généralement parmi les plus réussies du caméléon (on se rappelle de GF104 surnageant au sein de la génération Fermi), avec une approche davantage orienté gaming, soignant pour le coup l'efficacité. Rendez-vous dans quelques semaines, pour en savoir davantage.

 

 

• GeFORCE RTX 3090 Founders Edition

Annoncée à un tarif de 1499 $ pour la Founders Edition, la RTX 3090 FE est proposée à 1549 € sur le magasin en ligne du caméléon. C'est plus du double du prix demandé pour la RTX 3080 FE, avec un écart dans le domaine ludique limité à une quinzaine de pourcents. Le sommet de gamme n'a jamais été très pertinent pour jouer, la RTX 3090 en est un autre exemple flagrant. Mais il serait injuste de se limiter à ce seul critère, puisque la carte dispose tout de même d'avantages plus marquants. Le principal est sans conteste, sa quantité de mémoire embarquée à 24 Go. Si d'un point de vue ludique, c'est clairement exagéré, pour un usage plus sérieux, c'est une autre affaire. Alors bien-sûr, tous ne tireront pas parti de cette caractéristique, mais c'est un élément à ne pas négliger dans la balance. Un mot d'ailleurs sur le jeu en 8K, autre destination d'une telle carte selon Nvidia. Nous n'avons pas pu vérifier ce point, faute d'écran Ad Hoc. Il existe bien la technique DSR pour simuler une telle chose, mais lorsque Nvidia évoque une telle définition, il l'associe forcément au DLSS. Cela fait sens vu la puissance nécessaire pour une telle quantité de pixels à calculer, seulement, il est indispensable de pouvoir vérifier la qualité visuelle résultante, et donc disposer d'un réel afficheur 8K plutôt que de simuler uniquement la charge.

 

Cette RTX 3090 est clairement une carte vitrine pour le jeu, et un accès moins onéreux qu'une Quadro pour les applications davantage "sérieuses". Elle se positionne donc clairement comme une TITAN, mais alors pourquoi ne pas l'avoir nommée ainsi ? Interrogé à ce sujet, Nvidia nous explique que les TITAN ne peuvent être vendues que sous la marque Nvidia, empêchant le développement de modèle custom par ses partenaires. On pourra arguer qu'à l'époque de Maxwell, des TITAN étaient vendues sous d'autres marques, avec des astuces pour contourner le refroidisseur d'origine (ce dernier étant vendu démonté avec la carte qui en utilisait un spécifique), mais il s'agissait alors de GTX TITAN. Difficile de s'y retrouver dans tout cela, les vérités étant successives. Quoi qu'il en soit, cette RTX 3090 FE est une carte démesurée à bien des égards. Son embonpoint physique est toute même profitable, puisqu'il permet malgré une consommation encore plus élevée que celle de la RTX 3080, des prestations thermiques de premier ordre, y compris en lui lâchant la bride. Sa finition et son esthétisme en font un objet désirable, c'est indéniable, mais la raison pousse à conseiller pour un usage strictement ludique, une RTX 3080 FE, finalement proche en termes de performance, bien moins onéreuse et tout aussi réussie en FE côté design . 

 

amd 40 bequiet 40 Logo G Skill logo Intel asus 40 nvidia 40

Nous remercions naturellement nos partenaires pour la mise à disposition du matériel de test

 


• Les tarifs dans la vraie vie ?

 



Un poil avant ?

Les premières cartes Quadro Ampere apparaissent sur la toile

Un peu plus tard ...

Comptoiroscope • Sam sans se prendre au sérieux et en 4K

Les 128 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur qui draille en Île-de-France, le Jeudi 01 Octobre 2020 à 18h03  
Merci pour ces précisions.
par Thibaut G., le Mercredi 30 Septembre 2020 à 22h48  
par Reflections, le Mercredi 30 Septembre 2020 à 22h26
c'était pas 13 mhz avant?
depuis Turing, c'est 15
par Reflections, le Mercredi 30 Septembre 2020 à 22h26  
par Eric B., le Mercredi 30 Septembre 2020 à 04h43
Non, un bin = un « pas » de fréquence, soit 15 MHz (la fréquence du GPU évolue de 15 en 15 MHz). C'est vrai que j'ai omis de le repréciser ici, c'est à présent corrigé.
c'était pas 13 mhz avant?
par Eric B., le Mercredi 30 Septembre 2020 à 04h43  
Non, un bin = un « pas » de fréquence, soit 15 MHz (la fréquence du GPU évolue de 15 en 15 MHz). C'est vrai que j'ai omis de le repréciser ici, c'est à présent corrigé.
par Un ragoteur qui draille en Île-de-France, le Mardi 29 Septembre 2020 à 23h44  
Vous avez testés deux cartes 3090FE pour les essais overclocking (deux bins) ?
par CYCGalaxy, le Lundi 28 Septembre 2020 à 19h40  
par Eric B., le Lundi 28 Septembre 2020 à 05h58
Cela fait bien longtemps que nous ne publions plus la consommation totale de la machine et ce pour une raison simple : elle ne permet pas une comparaison fiable entre cartes graphiques de la consommation, puisque le CPU entre en jeu et plus une carte graphique est capable de débiter d'i/s, plus le CPU sera sollicité pour l'alimenter (sans compter les variations liées à des processus se lançant en tâche de fond).

Pour revenir à tes 700 W concernant la consommation totale, elle dépend comme l'a écrit Thibaut, directement du CPU utilisé. Interrogé à ce sujet, j'avais répondu en commentaire lors du dossier dédié à la RTX 3080 FE. Donc non, avec un Core i9-10900K (@ 5GHz / HT Off) et la RTX 3090 FE, on est très loin de tes allégations (pourquoi ne pas demander simplement plutôt que de tomber dans l'exagération ?), puisqu'elle oscille aux environs de 490 W.
Il faut vraiment le vouloir pour en arriver a 700W. Les grosses alimentation sont fait pour faire réver comme la RTX 3090, cela ne concerne qu'une minorité d'utilisateurs...

Moi et ma curiosité insolite. A quand un test de température selon le quartier, la région, l'étage habité ? D'ailleurs, ils vendent des frigos adaptés ou autres dans certains pays d'Afrique en raison de la chaleur, il y a t'il des modèles de cartes graphiques plus conseillés dans ces pays ?
par Un rat goth à l'heure en Île-de-France, le Lundi 28 Septembre 2020 à 18h47  
par Eric B., le Lundi 28 Septembre 2020 à 08h38
On pourrait tester, mais pourquoi dans ce cas ne pas opter directement pour une carte avec un TGP de cet ordre ? C'est pour voir le niveau d'efficience à une puissance donnée ?
Bah je suppose qu'une 2080 Ti est plus puissante qu'une 2070 à la même conso, et donc "oui" pour ta seconde question. (J'ai une alim de 520W plat que je ne veux pas changer, et je ne veux pas avoir à mettre la ventilation de mon boitier à fond (plus un coté écolo). Mais je veux le max de perf sur Cyberpunk 2077 xD...)
par Eric B., le Lundi 28 Septembre 2020 à 08h38  
par Un hardeur des ragots en Île-de-France, le Dimanche 27 Septembre 2020 à 04h42
Bonjour, tout d'abord, merci pour vos super tests !
Je serai très intéressé par un test de performance (juste sur un jeu), avec la consommation des cartes limitée à 200W max. Est-ce possible (pour vos prochains test) ? et est-ce que cela intéresserait d'autres personnes ?
On pourrait tester, mais pourquoi dans ce cas ne pas opter directement pour une carte avec un TGP de cet ordre ? C'est pour voir le niveau d'efficience à une puissance donnée ?
par Eric B., le Lundi 28 Septembre 2020 à 05h58  
par Ragoti Ragota, le Lundi 28 Septembre 2020 à 01h07
je note que le comptoir ne publie pas la consommation totale de la bécane qui doit allégrement dépasser les 700w en charge.
Cela fait bien longtemps que nous ne publions plus la consommation totale de la machine et ce pour une raison simple : elle ne permet pas une comparaison fiable entre cartes graphiques de la consommation, puisque le CPU entre en jeu et plus une carte graphique est capable de débiter d'i/s, plus le CPU sera sollicité pour l'alimenter (sans compter les variations liées à des processus se lançant en tâche de fond).

Pour revenir à tes 700 W concernant la consommation totale, elle dépend comme l'a écrit Thibaut, directement du CPU utilisé. Interrogé à ce sujet, j'avais répondu en commentaire lors du dossier dédié à la RTX 3080 FE. Donc non, avec un Core i9-10900K (@ 5GHz / HT Off) et la RTX 3090 FE, on est très loin de tes allégations (pourquoi ne pas demander simplement plutôt que de tomber dans l'exagération ?), puisqu'elle oscille aux environs de 490 W.
par Ragoti Ragota, le Lundi 28 Septembre 2020 à 01h07  
par Thibaut G., le Samedi 26 Septembre 2020 à 21h33
en quoi la consommation de la bécane comme tu dis a un quelconque rapport avec celle de la carte ? Le but n'est il pas de savoir ce que pompe la carte à celui qui voudra la monter dans sa machine ? Il y a 36 miilions de machines, et la conso des CPU est faite dans les articles dédiés. CPU+GPU, tu as une grande idée.
Je me réfère a votre configuration de test, bien qu'il y ait 36 millions de machines comme tu l'indiques prendre en compte la consommation générale est pour beaucoup d'entre nous un point important surtout avec ce genre de carte.
j'entends déjà d'ici :"on s'en fout de la consommation a ce niveau de prestation". Faux, me référent a mon ancienne config (GTX680 +i7 3770 et nombreux raffinements) qui m'avait coûté cher le niveau de consommation était pour le moins plus que acceptable, je m'était d'ailleurs rendu sur les test du comptoir et de feu Hardware.fr.
Si tu renvois chacun de tes lecteurs a des articles gpu+cpu afin d'avoir une idée de conso de sa future config ben c'est pas très urbain de ta part et comme on est des feignasses de la recherche grâce au comptoir cela me donne de l'eau a mon moulin pour insister de revoir comme avant dans chaque test de CG la conso globale de la "bécane" pour se faire une idée de combien cela va nous coûter chaque mois en actions EDF.
Cordialement, fab.
par Un hardeur des ragots en Île-de-France, le Dimanche 27 Septembre 2020 à 04h42  
Bonjour, tout d'abord, merci pour vos super tests !
Je serai très intéressé par un test de performance (juste sur un jeu), avec la consommation des cartes limitée à 200W max. Est-ce possible (pour vos prochains test) ? et est-ce que cela intéresserait d'autres personnes ?
par Thibaut G., le Samedi 26 Septembre 2020 à 21h33  
par Ragoti Ragota, le Samedi 26 Septembre 2020 à 20h42
je note que le comptoir ne publie pas la consommation totale de la bécane qui doit allégrement dépasser les 700w en charge.
10ans plus tard Nvidia réédite l'exploit de la gtx480 EDF édition les températures en moins.
en quoi la consommation de la bécane comme tu dis a un quelconque rapport avec celle de la carte ? Le but n'est il pas de savoir ce que pompe la carte à celui qui voudra la monter dans sa machine ? Il y a 36 miilions de machines, et la conso des CPU est faite dans les articles dédiés. CPU+GPU, tu as une grande idée.