COMPTOIR
register

×

ga102 t

Test • NVIDIA GeFORCE RTX 3080
ga102 t

• Verdict

Nous voici parvenus au terme de ce dossier et indiscutablement, la RTX 3080 devient la carte graphique la plus rapide commercialisée à ce jour. L'écart par rapport à la précédente génération xx80 est plus marqué qu'il ne le fut il y a deux ans, et les tarifs sur fond d'appréciation de l'€uro face au Dollar, plus raisonnables à gamme équivalente. En venant d'une carte de série 10 (Pascal) ou équivalent, l'écart sera pour le coup très significatif, y compris avec une GTX 1080 Ti, pouvant justifier une upgrade, pour ceux désireux d'augmenter significativement leurs performances en très haute définition. En comparant cette fois la RTX 3080 à la précédente reine alias RTX 2080 Ti, les écarts varient selon les définitions et options entre 20 et 40 % (Ray Tracing actif), pour un tarif pratiquement divisé par 2. Si le remplacement ne se justifie pas, la nouvelle venue devient toutefois le choix le plus pertinent, pour ceux cherchant des performances de haut vol, même si certaines contreparties non négligeables devront être acceptées. Reste également à connaitre le niveau de la concurrence, puisque AMD a d'ores et déjà programmé la date du 28/10 pour dévoiler ses propres produits, et distille régulièrement des informations, pour tenter de détourner les projecteurs de son concurrent. Détaillons donc tout cela en débutant par le GPU inaugurant une nouvelle architecture grand public des verts.

 

rtx30

Les trois RTX 30 d'ores et déjà annoncées 

 

 

• GA102

ga102 t [cliquer pour agrandir]

Turing constituait une microarchitecture de rupture par rapport à Pascal/Maxwell, chargée de poser les bases du futur, en intégrant tout un tas de fonctionnalités telles que les Ray Tracing, VRS, utilisation IA pour upscaling, etc. En étant première et unique durant des mois (années) sur ces sujets, cette architecture est devenue la base de travail pour de nombreux développeurs. De ce fait, il est intéressant de noter que DX12, s'appuyant à l'origine sur Mantle, suivait les contours de l'architecture GCN d'AMD, son concepteur. DXR et donc par extension DX12 Ultimate, devrait de son côté avoir plus d'affinité avec le caméléon. Reste à voir ce qu'il en sera en pratique, AMD gardant captifs 2 des 3 principaux consoliers. Mais trêve de spéculations sur le futur et revenons à Ampere qui est de son côté, ce que nous pourrions appeler une optimisation de Turing. Le caméléon a identifié les points faibles (unité de calcul d'intersection triangles/rayons dans les RT Cores, puissance brute en FP32), et retouché  en conséquence ces derniers. En résulte un beau bébé de 28 milliards de transistors, qui voit sa flexibilité et sa puissance de calcul en virgule flottante, exploser. Bien sûr, comme nous l'avons détaillé, cette dernière dépendra totalement du type de tâche à réaliser (% d'entiers à calculer) pour pouvoir s'exprimer, mais le potentiel est bel et bien là pour certaines charges, et ce même si les verts ont tendance à l'exagérer d'un point de vue marketing. Selon l'usage qu'en feront les développeurs, son avantage sur Turing pourrait donc éventuellement croître à l'avenir.

 

Nvidia a également travaillé de concert avec Micron (déjà partenaire pour la GDDR5X), afin de développer un nouveau type de mémoire, doublant le débit par pin à iso fréquence. De quoi accompagner la montée en puissance du GPU, sans avoir à élargir le bus mémoire. Toutes ces améliorations sont pour le moins impressionnantes sur le papier, mais ne se retrouvent pas toujours en pratique. En effet, les verts ont beau jeu de parler de plus grand saut en performance, lorsqu'ils comparent 2080 et 3080. Mais le fait est, qu'elles ne sont pas animées par les mêmes gammes de puce (xx104 pour la première et xx102 pour la seconde). Si on compare à gamme équivalente (GA102 vs TU102), les différences sont moins reluisantes, même si des bridages différents, nuisent à une comparaison précise. Qui plus est, la consommation augmente significativement (+50 W pour la 3080 FE / 2080 TI FE soit 19%) sur GA102, tel que configuré pour les RTX 3080. En cause, vraisemblablement un procédé de fabrication trop juste pour une telle débauche de transistors, contraignant Nvidia à limiter les fréquences et augmenter l'enveloppe de puissance allouée, afin de laisser la puce s'exprimer, pour creuser un écart significatif de performances. Une telle consommation n'est pas sans conséquence, mais les verts se sont démenés pour les gommer au maximum, en travaillant particulièrement ses cartes de référence. Pour clôturer ce sujet, on notera également que la marge restante pour l'overclocking est réduite à portion congrue.

 

 

• GeFORCE RTX 3080 Founders Edition

Annoncée à un tarif de 699 $ pour la Founders Edition, la RTX 3080 FE est proposée à 719 € sur le magasin en ligne du caméléon. C'est exactement le MRSP de la RTX 2080 hors Founders Edition, cette dernière overclockée de série, ayant été commercialisée à 799$. C'est également le prix de lancement du refresh SUPER, FE incluse cette fois. À ce prix, c'est bien clair, elle n'a pour l'heure aucune rivale en termes de performances. Sale temps pour les acquéreurs récents de RTX 2080 Ti, même si l'upgrade vers la 3080 depuis cette dernière, nous parait plus que dispensable, compte tenu de l'écart les séparant. Les modèles des partenaires disponibles en France seront probablement un peu plus chers, au moins au début, le temps que l'effet nouveauté s'estompe, la disponibilité croisse et la concurrence entre modèles agisse. Pour revenir à la Founders Edition, c'est une vraie réussite, avec une finition exemplaire, des températures sous contrôle ainsi que des nuisances sonores maîtrisées. Toutefois, comme toute RTX 3080, sa consommation très importante nécessitera deux points de vigilance pour le futur acquéreur. Une alimentation conséquente (Nvidia recommande 750 W) et de bonne qualité, ainsi qu'un boitier bien ventilé/conçu pour évacuer la chaleur dégagée en charge, sous peine de voir la carte devenir réellement bruyante, sans compter l'échauffement des autres composants.

 

Reste un point en suspens qu'il est impossible de ne pas aborder, faut-il investir dès maintenant où attendre la réplique d'AMD, sous forme des RX 6000 lancées dans un mois et demi ? Connaitre toutes les forces en présence est frappé au coin du bon sens, lorsqu'il s'agit d'investir plusieurs centaines d'euros. Bien malin qui peut prédire aujourd'hui les prestations et tarifs des futures cartes rouges. Vont-elles être capables de mener la vie difficile à cette RTX 3080 côté performances ? Quel sera leur niveau de consommation et de bruit ? Quand aura lieu la disponibilité réelle ? Le mieux reste encore d'attendre patiemment leur annonce officielle, en gardant la tête froide. Si par contre vous deviez sauter le pas sans attendre pour quelques raisons que ce soit (carte graphique HS ou vendue, fan des verts, etc.), il est fort peu probable que vous soyez déçus par les prestations proposées par la RTX 3080, en particulier dans sa version Founders Edition, tout en récupérant au passage une clé pour Watch Dogs Legion (sortie le 29/10). Un dernier mot sur les 10 Go de mémoire embarqués, qui pourraient en inquiéter certains quant à l'avenir. Nous n'avons pas rencontré le moindre cas de limitation à ce niveau lors de tous nos tests, y compris en UHD options au maximum. Rien ne dit que cela ne sera pas le cas dans de futurs jeux, mais pour l'heure, ce n'est clairement pas un problème. 

 

amd 40 bequiet 40 Logo G Skill logo Intel asus 40 nvidia 40

Nous remercions naturellement nos partenaires pour la mise à disposition du matériel de test

 


• Les tarifs dans la vraie vie ?

 



Un poil avant ?

Live Twitch • Tell Me Why, du narratif posé

Un peu plus tard ...

NVIDIA donne ses ambitions pour ARM et son architecture


Sur le comptoir, au ~même sujet

 
 
 
 
 
 
 
 
 
 
 
 

Les 354 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Sosombre en Provence-Alpes-Côte d'Azur, le Mercredi 16 Août 2023 à 09h59  
@Scrabble C'est quel jeux qui te demande + de 10 go de Vram ? (tu joue dans quel résolution et espère combien d'image par seconde ? )
par Scrabble, le Mardi 15 Août 2023 à 22h03  
Honneur à vous d'avoir parlé de la limitation à 10Go de VRAM, et oui, trois ans après, c'est devenu un problème
par RagoteuseTX ON en Nouvelle-Aquitaine, le Jeudi 17 Février 2022 à 16h49  
Les modèles des partenaires disponibles en France seront probablement un peu plus chers, au moins au début, le temps que l'effet nouveauté s'estompe, la disponibilité croisse et la concurrence entre modèles agisse

Bilan après aujourd'hui, malheureusement non

Sinon retour d'expérience de mon coté après 1 an, elle marche toujours aussi bien et je ne me suis jamais sentie limitée par les jeux en TAF (je fais aussi de la VR et jamais eu de soucis)

Pour ceux qui seraient tentés d'en prendre une (si vous avez du bol pendant les drops, apparemment c'est toujours autant la merde ) allez y vous serez pas déçus et bon courage pour le drop
par Eric B., le Samedi 10 Octobre 2020 à 15h29  
Il n'y a pas de graph DX11 vs DX12, donc je vois pas bien duquel tu parles. Si tu as des problèmes de graph, la première chose à faire c'est de rafraichir le cache de ton navigateur. Si ça ne règle pas tes soucis, utilises le bouton "signaler un truc" en précisant la plateforme utilisée pour consulter et le navigateur.
par Un adepte de Godwin du Grand Est, le Samedi 10 Octobre 2020 à 09h55  
euh il est complètement buggé l article, impossible de voir les graph dx11 vs dx12, ça affiche à chaque fois le premier graphique
par predator06, le Mercredi 30 Septembre 2020 à 14h37  
par Eric B. le Mercredi 30 Septembre 2020 à 13h26
D'accord merci pour les explications.
par Eric B., le Mercredi 30 Septembre 2020 à 13h26  
Je dirais que l'instabilité est surtout très variable selon les jeux. Les causes de cette dernière ne sont pas toujours évidentes à déterminer, elle peut venir de pilotes encore jeunes, ne permettant pas d'exploiter au mieux le nouveau matériel. Elle peut aussi venir d'une limitation CPU (Project CARS 3 par exemple où c'est flagrant), conduisant à un comportement erratique durant l'épisode de limitation. Tu as également les cas sporadiques sans raison apparente, qui sont souvent dus à une brève et intense sollicitation du système en tâche de fond par un autre processus que le jeu. C'est pourquoi je répète régulièrement à ceux qui me réclament les i/s mini que ça n'a pas de sens de les afficher isolément, puisqu'ils peuvent être tout à fait exceptionnels et avoir pour cause une toute autre raison que les CPU ou GPU testés.
par predator06, le Mardi 29 Septembre 2020 à 18h05  
merci pour le dossier. Concernant l'évolution des i/s, après lecture des résultats, je m'attendais à un petit paragraphe pour conclure sur le sujet. On note parfois une augmentation de l'instabilité des i/s par rapport aux 2080ti & radeon 7
par Un champion du monde embusqué, le Mardi 29 Septembre 2020 à 12h18  
Y'a pas à chier, la conso est dégueulasse...

Dommage, car avec Pascal nvidia avait fait un beau résultat et au final on se retrouve avec une nouvelle génération ressemblant au R600, comme on pouvait s'y attendre au vu des fuites avant le lancement.

Bon, on peut relativiser en prenant en compte le fait que le flagship n'est tout simplement pas utile, mais vient alors le spectre du consumérisme forcené.

Plus qu'à voir ce que pourra proposer AMD, mais ça devrait être passable également.
par Eric B., le Mardi 29 Septembre 2020 à 06h58  
par Une ragoteuse à forte poitrine en Auvergne-Rhône-Alpes le Lundi 28 Septembre 2020 à 18h37
Donc pour CDH tout va bien dans le meilleur des monde pour Ampère.
Tu es content et te sens mieux Anteraks69 ? La prochaine fois que tu veux poster en anonyme, prends au moins le temps de changer d'IP... Ideal t'a répondu sur la plupart des sujets, je ne vais donc pas en remettre une couche, je me permets juste d'ajouter un point qui t'a semble-t-il échappé : les problèmes de choix des condensateurs de découplage semblent survenir aux environs des 2 GHz, or, nous avons testé une 3080 FE qui ne fonctionne pas à cette fréquence, même sous charge légère. Je rappelle aussi à toute fin utile, que la carte est spécifiée pour un boost de 1,71 GHz, la fréquence en charge 3D variant entre 1920 MHz et 1770 MHz (moyenne à 1775 MHz sous charge lourde). Du coup pour obtenir 2 GHz il faut absolument overclocker (et là nous sommes effectivement vite limité mais c'est bel et bien écrit !), et cette opération n'est jamais garantie... Sur les customs vendues pour des fréquences plus élevées par défaut, c'est une autre histoire, mais cela n'entre pas en compte dans le cadre de cette publication, nous dédions des dossiers spécifiques à ces modèles, Guillaume qui les réalise t'as d'ailleurs répondu à plusieurs reprises sur la news traitant du sujet, n'est-ce pas ? Quant à la consommation, chauffe, verdict, tout est parfaitement décrit dans les pages dédiées, rien n'est éludé, faut-il encore prendre le temps de les lire. Mais vu la tonalité de ton msg, tu n'as pas l'air de t'embarrasser de choses factuelles, c'est bien dommage et décevant.
par Eric B., le Mardi 29 Septembre 2020 à 06h53  
par Excelisator le Mardi 29 Septembre 2020 à 00h05
...et L'antialiasing en 4K, c'est comme la différence entre 96 et 192Khz en audio.
Tu n'as pas l'impression de confondre définition et résolution des fois ? Parce que ne pas avoir besoin d'AA en UHD sur un 27" ok, sur un 32" c'est bien moins vrai et au-delà je ne t'en parle pas.
par Excelisator, le Mardi 29 Septembre 2020 à 00h05  
Conclusion : Tri-SLI de 1080.
ah non, on peut pas.
et L'antialiasing en 4K, c'est comme la différence entre 96 et 192Khz en audio.