COMPTOIR
  
register

Comparatif • Les GPU - Q3 2015

• Verdict

Il est bien évident qu'il est impossible de déterminer au travers d'un tel dossier un gagnant ou une gagnante dans l'absolu. En effet, même si nous nous sommes limités aux GPU 28 nm destinées aux gammes Performance et Enthusiast, la tarification des différentes cartes varie entre moins de 200 € et plus de 1000 €, sans compter celles qui ne sont plus commercialisées ! Mais là n'était pas l'objectif d'un tel dossier, son intérêt réside dans le grand nombre de références testées et la variété des situations permettant à l'acquéreur éventuel de comparer les différentes prestations et ainsi juger selon son budget et ses priorités. Nous nous permettrons toutefois quelques mots d'ordre général sur la situation du marché des GPU.

furyx logo esthetique

La Fury X, nouvelle carte haut de gamme d'AMD !

 

AMD traverse une passe difficile, plus La Palisse que ça tu meurs ! En effet, si GCN, son architecture lancée avec Tahiti et le 28 nm début 2012, rendait la vie difficile au caméléon et son "Kepler", ce n'est plus le cas depuis l'avènement de Maxwell. AMD a pourtant légèrement révisé GCN au travers de retouches apportées par Hawaii puis Tonga. Las, l'efficacité n'a pas suivi celle du concurrent ce qui avec la stagnation des process de fabrication a été très pénalisant pour l'ex-fondeur qui s'est vu contraint de pousser ses GPU très près de leur limite. Conséquence, la consommation a explosé et la marge d'overclocking s'est avérée très limitée. Pire, avec des caractéristiques à tomber sur le papier, la dernière puce Fiji s'est avérée incapable de reprendre la couronne à un GM200 pourtant largement bridé par NVIDIA au travers de son design de référence, comme en atteste le niveau atteint par la 980 Ti alternative de Gainward. Difficile d'ignorer qu'à priori le caméléon joue sur du velours, un GM200 complet et autorisé à consommer davantage proposerait des performances encore plus impressionnantes, malheureusement pour le consommateur, AMD n'a pas pu pousser NVIDIA dans ses retranchements.

 

C'est là que le bât blesse, d'aucuns s'inquiètent d'une disparition d'AMD et des effets néfastes que cela entrainerait sur les tarifs, mais ne vivons-nous pas pour bonne part déjà cela ? Bien entendu, une telle chose n'est aucunement souhaitable, pour autant peut-on réellement parler de concurrence lorsque les marchés CPU et à présent GPU, sont dominés à ce point par un des 2 acteurs ? Finalement cette situation semble déjà du pain béni pour Intel ou NVIDIA qui peuvent se permettre des tarifs leur assurant des marges très confortables, mais aussi des ventes conséquentes. Car ces sociétés ne peuvent se permettre de fixer des tarifs bien plus élevés que ceux déjà pratiqués, sans impacter fortement le volume du marché et par voie de conséquence, leur chiffre d'affaire. Car il existe un frein à leur appétit pour les marges, c'est ce que l'on nommera le consentement à l'achat : au-dessus d'un certain niveau, le consommateur potentiel ne trouve plus d'intérêt à un tel investissment et NVIDIA l'a largement atteint avec la Titan Z proposée à un tarif délirant qui lui valu un echec cuisant nécessitant une baisse substantielle quelques mois plus tard. Bref, il semble bien que les concurrents d'AMD se satisfassent largement de la situation actuelle au contraire des éventuels acquéreurs...

 

Un mot sur les R9 300, en particulier les 390 : difficile de trouver des arguments positifs pour ces dernières ! Certes elles proposent un rapport performances/prix compétitif face aux GTX 900, mais impossible d'oublier qu'il s'agit de R9 200 poussées dans leurs retranchements (cf. leur consommation) et avec une mémoire doublée, ce qui au vu des performances du GPU s'avère totalement inutile ou presque. Le problème de ce renommage vient du fait qu'il s'accompagne d'une augmentation sensible des tarifs totalement injustifiable face à la précédente gamme. Transformer une 290X en 390X ressemble fort à un enfumage en règle alors que l'on aurait parfaitement compris qu'elle se retrouve en 380/X à tarif similaire aux 290/X. Bref, le niveau de concurrence actuelle coûte cher au consommateur, pourtant le salut d'AMD ne viendra pas à notre avis de "vendre du vieux comme du neuf pour plus cher". Certes c'est dur, mais c'est pourtant ce que fait AMD avec cette gamme. Certains ne se gêneront pas pour pousser des cris d'orfraies et nous accuser d'être responsables de la déchéance de ce dernier avec de tels propos, pour autant ce ne sont pas nos mots (qui ont de plus une portée toute relative) qui pèsent sur les comptes de la société, mais les conséquences de ses choix multiples et ce depuis de longues années.

 

 

 

GTX 960

La TITAN X, une vitrine technologique soignée !

 

Il y a par contre des raisons objectives d'espérer un retour au premier d'AMD dans les GPU. Tout d'abord, l'accès aux nouveaux process de gravure devrait lui libérer les mains afin de concevoir un GPU plus équilibré que ne fut Fiji. Ceci ainsi que son expérience acquise dans la mise au point de la HBM et de l'interposer associé promet de belles choses pour l'an prochain. La mainmise sur le marché des consoles lui assure également des revenus constants, véritable bouée de sauvetage dans un marché PC en berne. Effet découlant de ce dernier, son architecture GPU (pour peu qu'elle ne s'éloigne pas trop à l'avenir de celles des SOC intégrés aux consoles) devrait être la base de développement de nombre de jeux multi-plateformes compensant largement le programme Gamework de son concurrent et ce sans avoir à investir dans une armée d'ingénieurs assistant les studios de développement pour tirer profit de son matériel. Enfin, l'avènement de DX12 devrait là-aussi lui être profitable du fait de son expérience avec Mantle mais aussi du retard qui est le sien face aux pilotes du concurrent dans les cas de limitation CPU sous DX11, comme nous avons pu le constater à plusieurs reprises durant ce test.

 

NVIDIA dispose de son côté d'un part de marché GPU (hors IGP) de 75%, toutefois rien n'est jamais acquis dans ce domaine comme le passé nous l'a enseigné à plusieurs reprises. En effet, au lancement de la toute première GeFORCE, l'avance de ce dernier était telle (et sans comparaison avec l'écart actuel) qu'il semblait impossible que la société puisse perdre le leadership un jour. Pourtant, patatras, les GeFORCE FX se sont prises les pieds dans le tapis pendant que les RADEON 9x00 excellaient. Plus récemment, les GeFORCE 8 avec l'avènement de DX10 ont propulsé à nouveau NVIDIA largement devant son concurrent (devenu alors AMD), pourtant les RADEON 5xxx au lancement de DX11 ont ré-inversé les situations respectives. Ce rapide coup d'oeil sur l'histoire des GPU montre qu'une situation n'est jamais figée ad vitam aeternam et le caméléon a souvent péché par ego dans ces situations en sous-estimant son concurrent, en sera-t-il de même à l'avenir ?

 

Il ne faut pas non plus oublier que la situation favorable dans laquelle il se trouve, découle aussi de ses difficultés passées : la consommation gargantuesque de Fermi a imposé une remise en question dans l'orientation du développement des futures architectures du caméléon et il a fallu passer par l'étape Kepler avant d'aboutir à Maxwell. La stagnation du process de gravure a d'ailleurs été une circonstance inattendue permettant de mettre en évidence plus rapidement les bienfaits des choix opérés pour la dernière architecture de NVIDIA. Bref, laissons du temps à AMD, qui a été confronté plus tard au même problème, pour tenter de corriger une des failles actuelles de son architecture. Ajoutons que cette consommation plus élevée est également pour partie due à une flexibilité accrue de ses puces qui se paie cash à ce niveau (en transistors) mais qui pourrait lui apporter un avantage dans certains cas avec DX12 (support du Tiers 3). Toutefois, le caméléon dispose lui aussi d'un avantage quant au niveau de prise en charge de cette nouvelle API, par le biais d'un jeu de fonctionnalités plus étendu (12_1).

 

En guise de conclusion, ce n'est pas faire injure à AMD que de reconnaître la supériorité actuelle de l'architecture Maxwell sur GCN. Pour autant, cette dernière vend chèrement sa peau et AMD joue de son traditionnel performances/prix pour conserver à ses modèles un réel intérêt. Si les R9 390X/390 font grincer des dents pour les raisons que nous venons d'évoquer, l'acquisition d'une R9 290x/290 (tant qu'elles sont commercialisées), parait toujours très pertinente dans le cadre d'un haut de gamme à budget "limité" du côté rouge. Chez la concurrence, à un niveau de performance similaire, c'est toujours la GTX 970 qui fait office de maître achat et ce malgré toute la polémique qui a pu avoir lieu la concernant, ses prestations restent excellentes à tous niveaux pour le tarif demandé. 2015 est une année charnière avant la transition vers un procédé de gravure bien plus fin qui devrait permettre l'explosion du nombre de transistors et donc des performances l'an prochain. A cela s'ajoutera, tout du moins on l'espère, la démocratisation de la HBM 2 doublant la bande passante et la densité pour des capacités embarquées bien supérieures aux 4 Go des Fury. En conséquence, il parait opportun de différer l'acquisition d'un très haut de gamme, ce conseil ne s'adressant pas, bien-sûr, à ceux changeant de GPU tous les ans et désireux d'obtenir le top à chaque fois. Ils pourront sans souci s'orienter vers une GTX 980Ti alternative, qui devrait régner jusqu'à 2016 à moins de lorgner vers le multi-GPU... Plus bas dans la gamme, c'est entre les R9 380 et GTX 960 que cela se jouera, avec cette fois un avantage en terme de performances à la première nommée, la seconde jouissant à nouveau d'une consommation bien plus maitrisée. Les versions 4 Go, tant de l'une que de l'autre, peuvent avoir une certaine pertinence dans l'optique de les faire "durer" un petit peu plus, mais le surcoût demandé doit rester raisonnable (une dizaine de pourcents maximum).

 


Logo AsusLogo G Skilllogo Intellogo NVIDIALogo AntecLogo MSIxfx 40

Nous remercions naturellement nos partenaires pour la mise à disposition du matériel de test, et nous mêmes pour nos achats, parce qu'on le vaut bien té !



Un poil avant ?

Et cette migration vers Windows 10 alors ?

Un peu plus tard ...

MSi tease sa Z170A XPOWER Gaming, et elle pète grave (sauf son nom)

Les 77 ragots
Les ragots sont actuellement
verrouillage dossierouverts aux ragoteurs logués
par seb4771, le Dimanche 17 Janvier 2016 à 09h41  
par Wh!te Sh4dow le Dimanche 17 Janvier 2016 à 00h28
Parmi tous les GPUs testés ici, lequel se rapproche le plus des performances de la GTX 680 ? Est-ce que ce serait la GTX 770 ? Merci !
C'est quasiment ça, tu y gagnes d'un coté pour un peu - de perfs de l'autre.
en upgrade de toute façon 680 => 970 direct si tu veux rester chez nvidia, les autres cartes inférieures apporteront rien en perfs (juste en conso).
par Wh!te Sh4dow, le Dimanche 17 Janvier 2016 à 00h28  
Parmi tous les GPUs testés ici, lequel se rapproche le plus des performances de la GTX 680 ? Est-ce que ce serait la GTX 770 ? Merci !
par Eric B., le Dimanche 22 Novembre 2015 à 07h58  
par Un ragoteur midediouuuuu d'Alsace le Vendredi 20 Novembre 2015 à 23h52
j'ai plutot l'impression qu'il y a eu des optimisations au niveau des drivers parce qu'il semblerait que j'ai bien plus de fps dans project car
et quand je vois 36fps pour une fury x je dis lol je paris que c'est 2 voir 3 fois plus
Le dossier a bientôt 4 mois, les pilotes utilisés tout autant. Attention toutefois, la scène de test se déroule durant un orage ce qui a un impact très important sur les perfs de toutes les cartes !
par Un ragoteur midediouuuuu d'Alsace le Vendredi 20 Novembre 2015 à 23h59
héhé sauf que tahiti est toujours la et fait tout tourner en HD , ho
(un cross de 7970 ghz a 300 fais tout tourner depuis 3 ans donc), regardons les choses avec un peu de recul aussi et analysons l'historique
Oui et ? Il n'a jamais été écrit qu'une 7970 GHz ne permettait plus de jouer en HD (cela dépend des jeux et concessions au niveau des options mais ça reste très correct on est d'accord), juste que l'archi GCN n'avait rien à envier en efficacité à Kepler qui est sortie en "même temps", mais face à Maxwell ce n'est plus vrai.
par Un ragoteur midediouuuuu d'Alsace le Samedi 21 Novembre 2015 à 00h09
j'aurais bien vu la 7990 la dedans aussi
Nous aussi mais impossible de s'en faire prêter une.
par Un ragoteur midediouuuuu d'Alsace, le Samedi 21 Novembre 2015 à 00h09  
j'aurais bien vu la 7990 la dedans aussi
par Un ragoteur midediouuuuu d'Alsace, le Vendredi 20 Novembre 2015 à 23h59  
"En effet, si GCN, son architecture lancée avec Tahiti et le 28 nm début 2012, rendait la vie difficile au caméléon et son "Kepler"

héhé sauf que tahiti est toujours la et fait tout tourner en HD , ho
(un cross de 7970 ghz a 300 fais tout tourner depuis 3 ans donc), regardons les choses avec un peu de recul aussi et analysons l'historique
par Un ragoteur midediouuuuu d'Alsace, le Vendredi 20 Novembre 2015 à 23h52  
j'ai plutot l'impression qu'il y a eu des optimisations au niveau des drivers parce qu'il semblerait que j'ai bien plus de fps dans project car
et quand je vois 36fps pour une fury x je dis lol je paris que c'est 2 voir 3 fois plus
par Eric B., le Mercredi 04 Novembre 2015 à 14h41  
Je ne comprends pas grand chose à ton message ou tout du moins ce que tu aurais souhaité. On compare bien des cartes dotées des premières archi 28nm (Tahiti, Pitcairn, GK104, GK110) à celles équipées des puces utilisant les dernières archi 28nm (Fiji, Tonga, GM204, GM200), donc je ne vois pas bien pourquoi tu écris que ce n'est pas le cas.

De plus, en quoi une carte de référence serait mieux placée pour comparer les archi ? AMD les pousse à leur limite (au détriment de la consommation et nuisances sonores, hors carte wc), NVIDIA laisse généralement beaucoup plus de marge du fait de GPU Boost 2.0 qui bride les performances pour garder les nuisances sonores et consommation sous contrôle, bref difficile de comparer objectivement les archi par le biais de telles cartes qui ont des "philosophies" si différentes.

Pour le reste, je ne vois pas bien où est la pertinence/intérêt à regrouper ces dernières dans un graph dédié ? Toutes les cartes de référence à notre disposition sont présentes dans les graph demandés (fps/w, conso, moyenne), donc libre à toi de ne regarder que leur score si se sont les seules qui t'intéressent. En définitive, j'ai bien du mal à voir des reproches avérés ou des souhaits d'évolution pertinents.
par Un rat goth à lheure embusqué, le Mercredi 04 Novembre 2015 à 12h53  
J'aurais apprécié sur la fin un graph qui reprend une carte de référence de chaque archi pour comparer les archi en elle même.
en lisant l'intro du dossier je me suis dis "ouai super on va pouvoir comparer les premieres archi 28nm au derniere" et ben en fais non.

avec tes données tu pourrais nous sortir un graph avec un GK106/104/110 un GM206/204/200 et Nothern/southern island?
l'ideal serait :
un graph moyenne de fps sur tout les test
un graph de conso
un graph efficacité : fps/watt

apres pour il faut choisir le meilleur represantant de chaque archi....
- 7870 / 280X / 380 / 390X / Fury X
- 660Ti / 780Ti / 960 / 980 / 980Ti
par Eric B., le Samedi 31 Octobre 2015 à 10h55  
Je suis incapable de répondre précisément à cette question, seuls les constructeurs savent précisément quand ils lanceront leurs nouveaux produits et encore, s'ils ne sont pas confrontés à des soucis de production. Ce qui est sûr, c'est que pour ceux qui peuvent, il est effectivement préférable d'attendre l'année prochaine.
par Castavins, le Vendredi 30 Octobre 2015 à 22h00  
" 2015 est une année charnière avant la transition vers un procédé de gravure bien plus fin qui devrait permettre l'explosion du nombre de transistors et donc des performances l'an prochain. "

Pour acheter une carte graphique middle game faudrait-il attendre un ans (next gen) avant d'en acheter une qui durera longtemps (comme une gtx 460 oc 30% qui m'a servi 5ans) ?
par Eric B., le Vendredi 11 Septembre 2015 à 14h54  
Pour répondre rapidement, je ne pense pas qu'une 290X sera obsolète plus rapidement qu'une 390X ou 980, ce ne sont pas 10% de performances qui changeront la donne lorsque la carte n'assurera plus le framerate nécessaire à une expérience de jeu confortable. Reste éventuellement la quantité de mémoire doublée pour les 390/390X, mais historiquement cela n'a jamais vraiment été un véritable avantage pratique dans le temps, la puissance de traitement du GPU venant limiter bien avant la quantité de mémoire.

Je n'adhère pas du tout aux raisons avancées pour tenter de justifier le surcout de la 390X face à la 290X : il s'agit de la même carte rebadgée avec une mémoire doublée et surcadencée, rien qui justifie une telle inflation si ce n'est effectivement renflouer les caisses. C'est compréhensible qu'AMD tente de le faire mais je ne vois aucune raison légitime de cautionner cela en n'informant pas nos lecteurs (qui s'en sont rendu compte tout seul pour la plupart) de cet enfumage en règle et les inviter à préférer une série 200 bien moins chère. Par contre, comme je l'ai écrit précédemment, si on arrive à mettre la main sur une 390 moins chère qu'une 290X, aucune raison pour le coup de ne pas préférer la première.
par Sciroccu, le Mercredi 09 Septembre 2015 à 17h38  
C'est sur aussi que la 390 semble être un bon compromis à tout ça.
Au final comme tu l'as dit Amd a mis des "nouvelles" cartes en face des GTX900 et a globalement gardé la même ligne de conduite qu'avant : des cartes un peu moins abouties (consos élevées pour les R300 ou qtté de memoire limitée pour les fury par ex...) mais globalement moins chères que leur alternatives Nvdia.
Tout en essayant quand même de faire des bénéfices pour redresser leur situation financière délicate : je ne vois pas pourquoi ils auraient positionné cette carte, la 390x (qui est proche en perfs de la 980), au prix d'une 290x. Les consommateurs peuvent être déçus mais aucune entreprise ne fait ça (et certainement pas Nvidia) du coup ça ne me choque pas plus que ça. C'est sans doute sur le haut de gamme qu'ils ont le plus de marge je pense qu'ils auraient tort de s'en priver, après c'est sur qu'il faut surtout réussir à vendre les produits...