Test • NVIDIA GeFORCE RTX 3090 |
————— 24 Septembre 2020
Test • NVIDIA GeFORCE RTX 3090 |
————— 24 Septembre 2020
Nous voici parvenus au terme de ce dossier voyant la RTX 3090 s'emparer du titre de la carte graphique la plus rapide en jeu, une semaine après la prise de pouvoir de sa petite sœur. L'écart séparant les deux cartes (une quinzaine de pourcents), ne justifie en aucun cas la différence de tarification, pour un usage ludique uniquement. Celui qui par contre, a également un besoin de puissance pour des logiciels d'infographie (en particulier ceux friands de larges quantités de mémoire vidéo), pourra y trouver une utilité cumulée, justifiant peut-être le surcoût. Détaillons donc tout cela.
La plus grosse de toutes, c'est eeeeelle !
Cette seconde déclinaison de GA102, permet de voir Ampere sous un jour un peu plus précis, s'agissant ici d'une version complète ou presque (98%), du plus gros GPU destiné aux GeForce. On notera d'ailleurs à ce sujet, que seule la TITAN RTX avait eu droit à cette attention lors de la génération Turing, raison de plus pour penser que la RTX 3090 remplace bel et bien cette dernière et non la RTX 2080 Ti, malgré des tarifs similaires. Il ne serait donc pas étonnant de voir débouler un modèle intermédiaire entre les 2 cartes déjà testées, cette fameuse RTX 3080 à 20 Go régulièrement annoncée par des leaks, ne serait-elle pas une future Ti, destinée à ennuyer AMD et son big Navi ? Dans un gros mois nous devrions être fixés. Pour revenir à Ampère, l'écart le séparant de Turing est moindre que celui qui séparait à l'époque Pascal de Maxwell, la RTX 3090 le prouve aisément. Nous l'évoquions déjà lors du dossier destiné à la RTX 3080, les gains par rapport à la 2080 et à tarif équivalent sont indiscutables, mais à puces équivalentes, ils sont moins flamboyants. La raison de cela ? Selon nous, le procédé de fabrication 8 nm de Samsung, s'avère "trop juste" pour une puce aussi amitieuse que GA102, embarquant tout de même plus de 28 milliards de transistors, entrainant des fréquences moindres qu'avec un process plus performant, tout en affichant une consommation excessive. Les raisons d'un tel choix de la part du caméléon ? Lui seul les connait, on peut toutefois se risquer à quelques hypothèses, que nous détaillerons un peu plus bas. L'ennui d'une telle approche, c'est de devoir composer avec un handicap face au concurrent, si ce dernier adopte un procédé plus performant. Ce n'était pas réellement un problème précédemment, puisque l'accès anticipé au 7 nm par AMD, le confinait a de "petits" GPU, pour éviter des coûts de production trop élevés, et donc incapables de lutter dans le haut de gamme.
Ce sera probablement une tout autre affaire cette année, ce procédé se démocratisant davantage, même si le gap à combler par les rouges reste important, et que le différentiel entre les process respectifs sera moindre qu'il ne l'était : le passage du N7 au N7P (ou N7+) ne devrait pas apporter autant que la transistion du 12 nm TSMC vers le 8 nm Samsung. Reste à connaitre toutefois les gains intrinsèques au niveau de l'architecture RDNA2. Pour revenir au sujet du jour, GA100, la puce dédiée intégralement au compute, est bien gravée par TSMC en 7 nm. Pourquoi diable ne pas avoir opté de même pour GA102, et éventuellement utiliser la gravure 8 nm de Samsung pour les puces moins complexes ? Peut-être une histoire de coûts, la marge étant bien plus élevée côté gamme professionnelle, les surcoûts de productions sont plus faciles à répercuter par une hausse des tarifs, jugés déjà prohibitifs par un particulier, mais pas pour une société. On peut tout aussi bien imaginer une "non sécurisation" des allocations de production (bien supérieure à celle de GA100) par Nvidia auprès de TSMC. Ce dernier faute de disponibilité sur ses lignes, ne pouvant alors répondre au besoin du caméléon en termes de délais et volumes, le contraignant à se tourner vers un autre fondeur et process. La vérité n'est connue que de ces acteurs, et comme toujours impossible à déterminer avec certitude, vu le côté confidentiel de ces points. Voilà pour notre avis sur le dernier GPU des verts, reste à voir ce qu'il en sera de la concurrence mais aussi de GA104. En effet, cette série de puces (xx104) est généralement parmi les plus réussies du caméléon (on se rappelle de GF104 surnageant au sein de la génération Fermi), avec une approche davantage orienté gaming, soignant pour le coup l'efficacité. Rendez-vous dans quelques semaines, pour en savoir davantage.
Annoncée à un tarif de 1499 $ pour la Founders Edition, la RTX 3090 FE est proposée à 1549 € sur le magasin en ligne du caméléon. C'est plus du double du prix demandé pour la RTX 3080 FE, avec un écart dans le domaine ludique limité à une quinzaine de pourcents. Le sommet de gamme n'a jamais été très pertinent pour jouer, la RTX 3090 en est un autre exemple flagrant. Mais il serait injuste de se limiter à ce seul critère, puisque la carte dispose tout de même d'avantages plus marquants. Le principal est sans conteste, sa quantité de mémoire embarquée à 24 Go. Si d'un point de vue ludique, c'est clairement exagéré, pour un usage plus sérieux, c'est une autre affaire. Alors bien-sûr, tous ne tireront pas parti de cette caractéristique, mais c'est un élément à ne pas négliger dans la balance. Un mot d'ailleurs sur le jeu en 8K, autre destination d'une telle carte selon Nvidia. Nous n'avons pas pu vérifier ce point, faute d'écran Ad Hoc. Il existe bien la technique DSR pour simuler une telle chose, mais lorsque Nvidia évoque une telle définition, il l'associe forcément au DLSS. Cela fait sens vu la puissance nécessaire pour une telle quantité de pixels à calculer, seulement, il est indispensable de pouvoir vérifier la qualité visuelle résultante, et donc disposer d'un réel afficheur 8K plutôt que de simuler uniquement la charge.
Cette RTX 3090 est clairement une carte vitrine pour le jeu, et un accès moins onéreux qu'une Quadro pour les applications davantage "sérieuses". Elle se positionne donc clairement comme une TITAN, mais alors pourquoi ne pas l'avoir nommée ainsi ? Interrogé à ce sujet, Nvidia nous explique que les TITAN ne peuvent être vendues que sous la marque Nvidia, empêchant le développement de modèle custom par ses partenaires. On pourra arguer qu'à l'époque de Maxwell, des TITAN étaient vendues sous d'autres marques, avec des astuces pour contourner le refroidisseur d'origine (ce dernier étant vendu démonté avec la carte qui en utilisait un spécifique), mais il s'agissait alors de GTX TITAN. Difficile de s'y retrouver dans tout cela, les vérités étant successives. Quoi qu'il en soit, cette RTX 3090 FE est une carte démesurée à bien des égards. Son embonpoint physique est toute même profitable, puisqu'il permet malgré une consommation encore plus élevée que celle de la RTX 3080, des prestations thermiques de premier ordre, y compris en lui lâchant la bride. Sa finition et son esthétisme en font un objet désirable, c'est indéniable, mais la raison pousse à conseiller pour un usage strictement ludique, une RTX 3080 FE, finalement proche en termes de performance, bien moins onéreuse et tout aussi réussie en FE côté design .
Nous remercions naturellement nos partenaires pour la mise à disposition du matériel de test
|
Un poil avant ?Les premières cartes Quadro Ampere apparaissent sur la toile | Un peu plus tard ...Comptoiroscope • Sam sans se prendre au sérieux et en 4K |