COMPTOIR
  
register

×

Évolution marché du gpu de 2002 à 2018 (Crédit : 3DCenter.org)

AMD vs NVIDIA : un aperçu de l'évolution du marché de 2002 à 2018
Évolution marché du gpu de 2002 à 2018 (Crédit : 3DCenter.org)

Alors que nous venons tout juste de voir l'état du marché du GPU entre 2017 et 2018 grâce à Jon Peddie, une période marquée par une continuité de la domination de NVIDIA et un léger recul d'AMD, on pourrait naturellement aussi souhaiter s'interroger sur l'évolution du duel AMD vs NVIDIA au fil des dernières années. Ce n'est pas tous les jours qu'il nous sera donné l'occasion de faire un retour en arrière de 16 ans et revisiter un peu cette péripétie du GPU depuis 2002, un petit moment d'histoire - surtout commerciale - qui implique évidemment obligatoirement la recherche des données appropriées au préalable et leur compilation, et avouons-le c'est un travail qui ne donne pas particulièrement envie.

 

Heureusement pour nous, 3DCenter.org existe et a récemment mis à jour son travail fastidieux d'assemblage en bonne et due forme des chiffres du marché du GPU depuis l'époque des Radeon 9000 et des GeFORCE FX aux Radeon Vega et GeFORCE 1000, c'est parfait aussi pour un petit moment de nostalgie pour ceux et celles qui tâtaient déjà bien l'informatique à ces époques-là et avaient les moyens de le faire, et accessoirement encore des cheveux sur la tête. Sans plus attendre, voilà ce que cela donne :

 

Évolution marché du gpu de 2002 à 2018 (Crédit : 3DCenter.org) [cliquer pour agrandir]

Oh, une chicha !

 

Ainsi, AMD aura été en mesure une seule fois de réclamer plus de 50% du marché, c'était en 2004 avec l'aide des Radeon 800 face aux GeFORCE 6 de NVIDIA, suivi d'une certaine parité - mais toujours à l'avantage d'AMD - durant l’époque des GeFORCE 7 et des Radeon X1000. Cette petite phase de répit aura cependant brutalement pris fin avec l'arrivée des GeFORCE 8 dont beaucoup se souviendront sans aucun doute, ainsi que du flop relatif des Radeon HD2900. Seules les Radeon HD5000 auront ensuite su produire un joli petit rebond pour le couple AMD/ATI (après le rachat en 2006, du shopping qui s'était avéré très coûteux), elles avaient d'ailleurs aussi été les dernières cartes graphiques Radeon à porter le blason ATI, la marque ayant ensuite été abandonnée par AMD peu après en 2010. RIP Ruby !

Depuis, NVIDIA n'a eu de cesse de prendre le large accompagné de GeFORCE toujours plus performantes, mais aussi d'un marketing extrêmement bien huilé. AMD avait ensuite atteint son point le plus bas avec la série des Radeon R300. Depuis, les affaires semblent toutefois aller en s'arrangeant petit à petit, mais n'oublions pas que le minage est lui aussi passé par là entre-temps.

 

La suite de cette histoire ne demande maintenant plus qu'à être écrite, NVIDIA d'un côté avec des GeFORCE RTX en position pour prendre d’assaut le marché très prochainement a priori en coude à coude avec un Pascal immortel, et AMD de l'autre aux plans hélas un peu flou et dont on attendrait donc surtout les Radeon Navi de pied ferme quelque part en 2019... si Lisa et TSMC le veulent ! Enfin, pour conclure ce déballage de vieux dossiers, terminons avec le rappel de cette brève de 2007 intitulée "NVIDIA futur leader des cartes graphiques ?", un titre qui en dit long : une prédiction involontaire ou éclairée de notre Pascal à nous ?

 

amd vs nvidia sw

Un poil avant ?

Deux nouveaux CPU chez AMD, les 2300X et 2500X

Un peu plus tard ...

Assassin's Creed Odyssey : 27 minutes de gameplay et configurations recommandées

Les 47 ragots
Les ragots sont actuellement
ragots réservés aux QI élevésouverts aux ragoteurs logués
par Zack, le Vendredi 14 Septembre 2018 à 15h51  
par bouba81, le Vendredi 14 Septembre 2018 à 14h31
Pour avoir eu une Fury et une GTX 1070 en même temps, je t'assure qu'il n'y a qu'une considération "masturbabench" qui peut les distinguer (à 5% près) sur mes jeux favoris.
La Fury Nitro se vendait 230 balles pendant des mois chez matos.net/topachat/rueducommerce/grosbill quand la GTX 1070 ne se touchait pas en dessous de 380 roros. Je vois donc là une alternative AMD plutôt MEGA intéressante sur le secteur haut de gamme 2017...non?
Pas faux ouai, le fait qu'elle soit d'une ancienne génération, plus le batage marketing de l'autre coté a de toute façon joué en la défaveur d'AMD.

par Jemporte, le Vendredi 14 Septembre 2018 à 14h41  
par Zack, le Vendredi 14 Septembre 2018 à 13h56
Non quand Polaris est sortie, la déception c'était le fait de ne pas du tout tenir la longueur vs pascal. La seul alternative d'AMD pour pas se planter c'était d'avoir un tarif agressif, mais qui revenait aux tarifs de la serie 9xx d'nvidia pour des perfs quasi identique. Amd avait a ce moment la du retard sur Nvidia, l'échec vient de la.
Les Polaris 10 RX480 à 230 euros en 8Go était des GPU plus petits que ceux de Nvidia. Ils sont un peu plus puissants que les GTX 1070/1080 en calcul et un peu moins en jeu. Les GTX 1060 6Go (surtout pas les 3Go) peuvent les accrocher sur certains jeux DX11, et grâce aux optimisations Nvidia par jeu, mais ce sont en fait des cartes sensiblement moins puissantes, et néanmoins ces cartes ne sont pas des 1/2 carte GTX1070/1080 mais plutôt des 3/4.
Tout ça pour dire qu'entre une GTX 1060, RX480, GTX 1070 et GTX 1080, il n'y a pas d'énorme différence. La moins chère fait l'affaire et si on veut la garder longtemps valable, il faut avoir 8Go.
Il faut noter que la faible taille des Polaris 10 (RX480/580) les rend très rentable et faciles à écouler à moindre prix. Le gros problème a été le minning et la spéculation des revendeurs, et puis la hausse très substantielle de la VRAM qui rendait du coup le prix de fabrication de ces GPU de taille moyenne, plus secondaire.
Pour Vega, c'est une toute autre affaire car AMD a introduit toutes sortes de possibilités et de fonctionnalités dont on se sert toujours pas dans les jeux, mais ça va venir avec le temps.
par bouba81, le Vendredi 14 Septembre 2018 à 14h31  
par Zack, le Vendredi 14 Septembre 2018 à 14h17
Et dans le secteur haut de gamme ? Car ceux voulant vraiment upgrader, c'était une 1070/1080 qu'ils recherchaient, et amd n'avait rien a proposer.
Pour avoir eu une Fury et une GTX 1070 en même temps, je t'assure qu'il n'y a qu'une considération "masturbabench" qui peut les distinguer (à 5% près) sur mes jeux favoris.
La Fury Nitro se vendait 230 balles pendant des mois chez matos.net/topachat/rueducommerce/grosbill quand la GTX 1070 ne se touchait pas en dessous de 380 roros. Je vois donc là une alternative AMD plutôt MEGA intéressante sur le secteur haut de gamme 2017...non?
par Zack, le Vendredi 14 Septembre 2018 à 14h17  
par AntiZ, le Vendredi 14 Septembre 2018 à 14h11
Les prix étaient quasiment identiques pour Pascal et Polaris.

Ce que les gens voulaient, c'était l'équivalent d'une GTX 970 à moins de 200E day one chez AMD, mais même Pascal ne leur a pas offert ça.
Mais une GTX 1060 à 300E, tout va bien par contre pour acheter.
Et dans le secteur haut de gamme ? Car ceux voulant vraiment upgrader, c'était une 1070/1080 qu'ils recherchaient, et amd n'avait rien a proposer.
par AntiZ, le Vendredi 14 Septembre 2018 à 14h11  
par Zack, le Vendredi 14 Septembre 2018 à 13h56
Non quand Polaris est sortie, la déception c'était le fait de ne pas du tout tenir la longueur vs pascal. La seul alternative d'AMD pour pas se planter c'était d'avoir un tarif agressif, mais qui revenait aux tarifs de la serie 9xx d'nvidia pour des perfs quasi identique. Amd avait a ce moment la du retard sur Nvidia, l'échec vient de la.
Les prix étaient quasiment identiques pour Pascal et Polaris, avec l'avantage pour AMD.

Ce que les gens exigeaient honteusement chez AMD, c'était l'équivalent d'une GTX 970 à moins de 200E day one pour les customs, mais même Pascal ne leur a pas offert ça.
Mais une GTX 1060 à 280E, tout va bien par contre pour acheter.

GeForce GTX 1070 8 Go et GTX 1060 6 Go : les cartes d'Asus et Gainward en test face aux Founders Edition de Nvidia
par Zack, le Vendredi 14 Septembre 2018 à 13h56  
par AntiZ, le Vendredi 14 Septembre 2018 à 13h45
En 2016, il y avait Pascal et Polaris, et tout le monde a sorti l'excuse de la consommation.

Par contre, le haut de gamme n'est certainement pas représentatif des celles en dessous. Il n'y a que les kikitoudur et les casuZ qui font une telle comparaison amateuriste.
Non quand Polaris est sortie, la déception c'était le fait de ne pas du tout tenir la longueur vs pascal. La seul alternative d'AMD pour pas se planter c'était d'avoir un tarif agressif, mais qui revenait aux tarifs de la serie 9xx d'nvidia pour des perfs quasi identique. Amd avait a ce moment la du retard sur Nvidia, l'échec vient de la.
par AntiZ, le Vendredi 14 Septembre 2018 à 13h45  
par Zack, le Vendredi 14 Septembre 2018 à 13h06
y a un "léger" détail que tu sembles oublier, y a un an d'écart entre ta vega et la 1070. Ce qui est valable pour toi au moment de ton achat ne l'était pas un an avant. Quand la 1070 est sortie y avait quoi du coté d'AMD ? C'est même valable pour toute la serie 1000 hein ...
En 2016, il y avait Pascal et Polaris, et tout le monde a sorti l'excuse de la consommation.

Par contre, le haut de gamme n'est certainement pas représentatif des celles en dessous. Il n'y a que les kikitoudur et les casuZ qui font une telle comparaison amateuriste.
par Zack, le Vendredi 14 Septembre 2018 à 13h06  
par Sarge, le Vendredi 14 Septembre 2018 à 08h50
Oh oui, je m'en souviens !! Punaise, un an que j'ai ma Vega 56 FE de chez MSI et je n'ai toujours pas vu ma facture augmenter et mes performance en jeu descendre... Les tests parlent d'eux même, elle est au coude à coude d'une 1070 et parvient même aller titiller une 1070 Ti.. L'année dernière, je cherchais une CG pour environ 400-500 balles et comme chez nvidia il aime surcoter leurs cartes, sans compter qu'il était bloqué avec leur architecture qu'ils mettent au goût du jour depuis mathusalem...je suis passé chez l'ennemi (n'ayant rien à perdre, surtout à 400 balles) et je pense y rester pour très longtemps ! Et puis, on en parle du FreeSync ? Soi-disant moins bon que G-Sync ? Ce système est tellement mauvais que je pense partir sur FreeSync 2 HDR...alors c'est dire. Non vraiment du matos de m*rde chez AMD, je n'ai certainement pas hâte de voir ce que va donner la coopération avec TSMC, sur la suite de Vega 10.
y a un "léger" détail que tu sembles oublier, y a un an d'écart entre ta vega et la 1070. Ce qui est valable pour toi au moment de ton achat ne l'était pas un an avant. Quand la 1070 est sortie y avait quoi du coté d'AMD ? C'est même valable pour toute la serie 1000 hein ...
par Sarge, le Vendredi 14 Septembre 2018 à 08h50  
par AntiZ, le Mercredi 12 Septembre 2018 à 15h02
Ils s'en foutent, mais s'en servent comme justification. L'hypocrisie totale quoi.
D'ailleurs, ça a été l'argument numéro 1 contre AMD en 2016. Il suffit d'aller voir sur Dealabs et très probablement dans les commentaires CDH de l'époque.
Oh oui, je m'en souviens !! Punaise, un an que j'ai ma Vega 56 FE de chez MSI et je n'ai toujours pas vu ma facture augmenter et mes performance en jeu descendre... Les tests parlent d'eux même, elle est au coude à coude d'une 1070 et parvient même aller titiller une 1070 Ti.. L'année dernière, je cherchais une CG pour environ 400-500 balles et comme chez nvidia il aime surcoter leurs cartes, sans compter qu'il était bloqué avec leur architecture qu'ils mettent au goût du jour depuis mathusalem...je suis passé chez l'ennemi (n'ayant rien à perdre, surtout à 400 balles) et je pense y rester pour très longtemps ! Et puis, on en parle du FreeSync ? Soi-disant moins bon que G-Sync ? Ce système est tellement mauvais que je pense partir sur FreeSync 2 HDR...alors c'est dire. Non vraiment du matos de m*rde chez AMD, je n'ai certainement pas hâte de voir ce que va donner la coopération avec TSMC, sur la suite de Vega 10.
par HaVoC, le Mercredi 12 Septembre 2018 à 22h09  
par Jemporte, le Mercredi 12 Septembre 2018 à 20h34
On peut se contenter de FP32 seulement. Oui mais pourquoi faire du Raytracing ? On peut se débrouillez sans...
Il n'y a que des taches assez particulières qui bénéficient de la double précision, à quoi ça sert de mettre des FP64 si elles n'apportent aucun gain à part dans des taches types HPC ? . Le RayTracing accéléré rien que pour le gain de temps niveau rendu, ou l'illumination dans les jeux ça fait gagner un temps fou niveau développement etc

Les champs d'application du RayTracing sont tellements plus vaste que la double précision ...
par Jemporte, le Mercredi 12 Septembre 2018 à 20h55  
par Matthieu S., le Mercredi 12 Septembre 2018 à 16h49
Autant que je sache c'est une compilation des données fournie par Jon Peddie pour ses analyses du marché du GPU dédié. Dans le contexte de la brève, l'intérêt du graphe n'est pas d'évaluer l'évolution de la demande, mais de constater l'évolution des parts de marché de l'un et de l'autre, et pis c'est tout...si les OEM préfèrent NVIDIA à AMD ou l'inverse c'est tout simplement que l'un d'entre eux est plus doué en négociation et capable de jouer les bonnes cartes. Idem pour la vente au détail...
De toute manière une image des équipements GPU n'a strictement aucun intérêt. L'iGPU et l'APU sont une sorte de bonus économique pour pouvoir afficher (c'est cool, mêmes pas besoin de carte graphique) accompagnant certains CPU, avec des capacité web et bureautique simples.
Intel, avec ses iGPU (et AMD) prend une part de marché par défaut. Elle ne pèse rien économiquement (si ce n'est pas nuisance) et ne pèse rien en terme d'intérêt envers l'affichage de qualité. Pour être franc, Intel ferait mieux de remplacer ses iGPU par 2 cores supplémentaires et laisser ses iGPU sur ses Celerons et Pentiums; on en serait ravis.
Voilà ce genre d'analyse bancale où tout est dans le titre "Intel prend des parts de marché à AMD et Nvidia", alors qu'il n'a rien pris, juste vendu plus de CPU que l'année d'avant alors que les gens intéressés se sont déjà équipé en cartes dernière gen...
lien
Le pire c'est que ce genre d'analyse, lue par ces Masters d'économie qui font le pluie et le beau temps en Bourse, est capable d'être interprété comme une victoire pour Intel.
par Jemporte, le Mercredi 12 Septembre 2018 à 20h34  
par HaVoC, le Mercredi 12 Septembre 2018 à 16h50
T'es sur que tu confond pas la demi précision et la simple précision ? Car bon depuis le temps qu'on a des architecture gérant la double précision, je comprends pas pourquoi l'avoir abandonné sur nombre d'architectures récentes

Fermi gérait les FP64, Kepler à part le GK110 non, Maxwell / Pascal / Turing non plus.

Coté AMD, pareil, GCN 1 et 2 uniquement le hdg, GCN 3/4 ne gère pas les FP64, GCN 5 Vega faut attendre V20 ... Bref faut nous expliquer vraiment en quoi la FP64 est réellement utile hors HPC.
On peut se contenter de FP32 seulement. Oui mais pourquoi faire du Raytracing ? On peut se débrouillez sans...
Le problème c'est qu'on doit gagner un pouillème sur 90% des usages en enlevant des FP64 optimisés (les 1/16 sur le FP32 sur les cartes AMD sont pas nuls, juste pas terribles) pour une même taille GPU. Maintenant si on veut sortir un GPU propre, multi-usages, dans la haut de gamme, il faut lui adjoindre une bonne capacité FP64. Nvidia l'a fait sur le GP100 et GV100 mais à des prix délirants. Donc il y a bien des FP64 en Pascal et en Volta (et pour rappel le GV100 existe en variante Titan V, même GPU un peu castré et sans pilote Pro).
D'ailleurs, alors que Fuji et même Polaris faisaient leur trou, AMD continuait à faire valoir ses GPU Hawai (et même Tahiti), pour une bonne raison.
Par ailleurs ne pas oublier que le FP64 n'est qu'un petit plus en terme de dessin de GPU lié à l'addition de deux unités FP32 capables de fusionner en FP64, quand c'est optimisé. Ce n'est pas comme les tensors, les RTX, et FP16 chez Nvidia, des unités séparées.
Idem pour le FP16 sur Vega, c'est une unité FP32 faisant 2 calculs FP16 en parallèle.