COMPTOIR
  
register

×

radeon+geforce evolution 1998-2018

Die Hard(ware) 1998-2018 : une histoire de taille, de gravure et de TDP
radeon+geforce evolution 1998-2018

Avant-hier, nous avions pu découvrir grâce à une intéressante compilation de l'évolution commerciale du marché du GPU depuis 2002 entre les deux acteurs principaux que sont AMD(ATI) et NVIDIA, l’inconvénient c'est que celle-ci ne racontait pas l'histoire des GPU en eux-mêmes et plus précisément de ce qui les anime : leur die ! De 1998 à 2018, ce fut un long chemin, bien que ces 20 années ne représentent pas la péripétie du GPU en entier, les premières puces graphiques étant apparues aux alentours des années 1970.

Le notion de GPU telle que nous la connaissons aujourd'hui a ensuite été popularisée par NVIDIA en 1999 avec le lancement de la GeFORCE 256 DDR, une carte vantée par le marketing - comme quoi rien n'a vraiment changé -  de ce géant en devenir comme "le premier (vrai) GPU au monde". Pour l'anecdote, ATI avait en parallèle tenté l'aventure du terme VPU ou Visual Processing Unit.

 

L'évolution des GPU au cours de ces 20 dernières années a naturellement aussi été accompagnée - pour ne pas dire rendue possible - par la progression et les améliorations des procédés de gravure. En 1998, à l'époque de DirectX6, l'industrie en était encore au 350nm. Si le rythme de ces évolutions s'est logiquement considérablement ralenti ces derniers temps, on ne peut qu'admirer le chemin parcouru avec le 12nm aujourd'hui présent dans nos GPU, et très bientôt le 7nm !

Est-ce que cela signifie pour autant que nos GPU sont actuellement plus petits qu'ils ne l'étaient il y à 20 ans ? Pas systématiquement. En effet, les GPU modernes les plus puissants n'auront en réalité jamais été aussi imposants, comme peuvent en témoigner les GeFORCE RTX et Quadro RTX et leur GPU Turing de 754mm² au plus grand, pas  très éloigné du record établi par la Tesla V100 et son GPU Volta GV100 de 815mm². En comparaison, la GTX 1080Ti et Radeon Vega 64 respectivement 471mm² et 486mm² paraîtraient presque petits. Il faut cependant relativiser, après tout une GTX280 (GT200) mesurait 576mm² en 2008, les progrès réalisés depuis sont indéniables de tout point de vue. 

 

radeon+geforce evolution 1998-2018 [cliquer pour agrandir]

Cliquez pour agrandir, ou sinon par là pour l'image originale.

 

Il eut été intéressant d'y ajouter l'évolution du TDP des GPU au fil des années, l'un des arguments de la réduction du procédé de gravure étant une consommation réduite et mieux gérée. En pratique, c'est un fait, mais l'augmentation en parallèle de la puissance du GPU "nullifie" bien souvent visuellement les gains en termes de consommation, même si l'on se retrouve toutefois généralement à TDP équivalent avec un GPU plus puissant grâce à l'évolution vers un meilleur procédé. Au départ, les fabricants ne communiquaient apparemment pas des masses sur la consommation de leurs engins et ne partageaient pas toujours cette donnée, ce n'est que relativement récemment que celle-ci s'est transformée en un élément de comparaison, pertinente ou non.

 

Justement, pour achever ce petit mémo historique, voici un petit tableau avec un bref aperçu des TDP et des procédés de gravure d'une sélection de GPU Radeon et GeFORCE (avec un "intrus" en bonus) anciens et récents (données obtenues à partir de la base de données GPU de TechPowerUP et de Hardware Museum), pour la plupart les cartes graphiques les plus imposantes des constructeurs à un moment donné au fil de l'évolution de leur gamme et des technologies !

 

GPUAnnéeTDPGravure
ATI All-In-Wonder Radeon 256 DDR 2000 ~30W 180nm
NVIDIA GeFORCE 256 DDR 2000 ~20W 220nm
3DFX Voodoo4 4800 2000 ~15W 250nm
Radeon 8500 2001 ? 150nm
GeFORCE 4Ti 2002 ~33W 150nm
GeFORCE FX5800 Ultra 2003 ~44-75W 130nm
Radeon 9800PRO 2003 ~47-60W 150nm
Radeon X800 XT 2005 ~54-63W 130nm
GeFORCE 6800 XT 2005 50W 130nm
GeFORCE 7800 GTX 2005 86W 110nm
Radeon X1900XTX 2006 135W 90nm
GeFORCE 8800GTX 2006 155W 90nm
Radeon 2900XT 2007 215W 80nm
GeFORCE GTX 280 2008 236W 65nm
Radeon HD4800 (X2) 2008 150W (286W) 55nm
Radeon HD5870 2009 188W 40nm
GeFORCE GTX 480 2010 250W 40nm
GeFORCE GTX 580 2010 244W 40nm
Radeon HD 6970 2010 250W 40nm
Radeon HD7970 GHz 2012 300W 28nm
GeFORCE GTX Titan 2014 300W 28nm
GeFORCE GTX Titan X 2015 250W 28nm
Radeon R9  Fury 2015 275W 28nm
GeFORCE GTX 1080Ti 2017 250W 16nm
Radeon RX Vega 64 2017 295W 14nm
RTX 2080 Ti 2018 250W 12nm
Un poil avant ?

TrendForce : délais des CPU mobile 14nm d'Intel à l'horizon, au profit de Ryzen Mobile ?

Un peu plus tard ...

Hard du Hard • boitiers externes à la rescousse de nos oreilles

Les 22 ragots
Les ragots sont actuellement
ragots réservés aux QI élevésouverts aux ragoteurs logués
par Thibaut G., le Dimanche 16 Septembre 2018 à 20h32  
par Jemporte, le Dimanche 16 Septembre 2018 à 19h46
Et pour le DirectXR, il va falloir regarder ce qui est déjà compatible, parce que globalement toutes les cartes DirectX 12 sont capables d'afficher en DXR hardware (si le fabriquant veut bien sortir le pilote). Il faut voir à partir de quelle quelle vitesse c'est considéré suffisamment accéléré pour être potable. mon avis c'est que les Vega sont capables, et que les GTX 1080 Ti en seraient capables (en Full HD) si Nvidia ne voulait pas à tout prix justifier ses RTX.
Pour info, M$ a développé DXR sur la base d'une parfaite compatibilité hardware avec DX 12.
quand on raconte ce genre de choses, la moindre des choses est de le prouver. Parce que les Vega pros sont capables de faire du RT dans des proportions infimes et certainement pas compatibles avec le jeu, tu en déduis que toutes en hardware le sont. La vérité c'est que tu divagues, eric t'ayant mis à mal sur l'archi turing parce que justement tu balançais des choses fausses, tu viens sur ce billet pour faire la même chose. Arrête stp
par Jemporte, le Dimanche 16 Septembre 2018 à 19h46  
Et pour le DirectXR, il va falloir regarder ce qui est déjà compatible, parce que globalement toutes les cartes DirectX 12 sont capables d'afficher en DXR hardware (si le fabriquant veut bien sortir le pilote). Il faut voir à partir de quelle quelle vitesse c'est considéré suffisamment accéléré pour être potable. mon avis c'est que les Vega sont capables, et que les GTX 1080 Ti en seraient capables (en Full HD) si Nvidia ne voulait pas à tout prix justifier ses RTX.
Pour info, M$ a développé DXR sur la base d'une parfaite compatibilité hardware avec DX 12.
par Jemporte, le Dimanche 16 Septembre 2018 à 19h39  
Sur le tableau des évolution que j'avais suivi à l'époque.
Grosse erreur d'abord : les pitcairn HD 7850/70, et les cap Verde 7730/50/70 (le 7790 est un Bonaire qui sort plus tard) et les Tahiti 7950/7970/7790 sont tous des DirectX 12 avant l'heure.
Tahiti (HD 7950/70 et plus tard le 7790) est dispo début 2012 annoncé fin 2011.
Pitcairn (HD 7850 et 7870) est dispo au printemps 2012.
Les Cap Verde Radeon HD 7750/7750 au début 2012 puis plus tard les 7730 puis encore après le 7790 qui est un Bonaire (donc fin 2012 !) et seulement renommage plus tard en R7 260.
Les R7 250 Oland sortent courant 2012 sur mobile bien avant leur dortie desktop (qu'on trouve encore). Idem pour Tonga R7 285, sortis presqu'un an plus tôt sur mobile.
Tout ce petit monde GCN 1.0 et plus, est compatible DirectX 12 Hardware. Et pour la bonne raison que AMD a calqué l'API Mantle à l'origine de DirectX 12 (puis Vulkan s'en est inspiré ), sur son architecture GCN.
Donc tous ces GPU affichés en bleu devraient l'être en vert.
Autre erreur : la GTX 750 Ti, même si c'est une architecture Maxwell, ne supporte pas le DX12. C'est une sorte de carte pré-Maxwell. Il faut une série 9xx pour le DX12. En gros, sous DX12 ça tourne en mode DX11. Et donc devrait être affichée bleue.
Autre erreur : les GPU Playsation 4 et Xbox One sont bien des GCN. La Xbox One supporte le Direct X12 alors que la Playsation 4 en supporterait les fonctionnalités, ce qui devraitêtre constaté sous Vulkan qui a été porté sur Playsation 4. Donc devrait être affichés verts.
par Jemporte, le Dimanche 16 Septembre 2018 à 16h48  
par Matthieu S., le Dimanche 16 Septembre 2018 à 00h15
Non, il me semble qu'aucune carte du tableau ou de l'image n'est en VESA, c'était de l'AGP x4, et le bus VESA (1992) n'a pas survécu très longtemps face au PCI. Au début des années 2000, c'était donc essentiellement AGP vs PCIe, jusqu'en 2008.

Sinon, il n'y a pas de parallèle avec les CPU parce que ce n'est pas vraiment le sujet ici, tout simplement... Bon, tu noteras tout même la présence de certaines références sur le graph, probablement voulus comme éléments de comparaison
Exact. Autant pour moi, j'avais oublié l'AGP, et c'est bien à l'AGP que je faisais référence. C'est effectivement de l'AGP mais pas de première génération, qui avait un slot différent. Donc ATI Rage 128 en AGP n'allait pas sur le même slot que les ATI Radeon 8500 en AGP 2x ou 4 x (m'en rappelle plus de la transition). Je me souviens avoir été surpris lors d'un upgrade.
Certaines cartes ont existé en AGP, et en PCI ou en PCIe en même temps (à ma connaissance aucune en PCI et PCIe en même temps).
Pour les CPU, on peut effectivement en trouver sur le graphe.
par cabou83, le Dimanche 16 Septembre 2018 à 08h50  
Dans votre tableau il manque la GTX680 avant la titan et la R9 290X après la titan.
De plus c'est marrant mais la HD6970 consomme moins que la GTX570 alors que le TDP de la GTX580 soit plus petit c'est genre juste drôle...
par Matthieu S., le Dimanche 16 Septembre 2018 à 00h15  
par Jemporte, le Samedi 15 Septembre 2018 à 20h38
Se rappeler aussi que les premières cartes de la liste étaient à bus VESA et non PCI express, plus ou moins raccordées directement au CPU (le GPU qui grillait risquait d'emporter avec lui le CPU).

Sinon les GPU sans un parallèle avec les CPU...
En 2000, on avait, à la suite des tout à fait honorables K6-2, les K7 chez AMD contre l'apparition des usines à gaz, les PIV chez Intel.
On connait la suite : des années après, Intel a été obligé de ressortir en catastrophe des Core issus des Pentium Pro des 95 et leur suite (PII et PIII), suivi de leur variante améliorée, les Core 2, signant le retour d'Intel dans la course.
Intel a par contre toujours eu une longueur d'avance en matière de finesse de gravure par la suite, et AMD, "grâce" à Glofo une longueur de retard, sur le marché.
Non, il me semble qu'aucune carte du tableau ou de l'image n'est en VESA, c'était de l'AGP x4, et le bus VESA (1992) n'a pas survécu très longtemps face au PCI. Au début des années 2000, c'était donc essentiellement AGP vs PCIe, jusqu'en 2008.

Sinon, il n'y a pas de parallèle avec les CPU parce que ce n'est pas vraiment le sujet ici, tout simplement... Bon, tu noteras tout même la présence de certaines références sur le graph, probablement voulus comme éléments de comparaison
par Jemporte, le Samedi 15 Septembre 2018 à 20h38  
Se rappeler aussi que les premières cartes de la liste étaient à bus VESA et non PCI express, plus ou moins raccordées directement au CPU (le GPU qui grillait risquait d'emporter avec lui le CPU).

Sinon les GPU sans un parallèle avec les CPU...
En 2000, on avait, à la suite des tout à fait honorables K6-2, les K7 chez AMD contre l'apparition des usines à gaz, les PIV chez Intel.
On connait la suite : des années après, Intel a été obligé de ressortir en catastrophe des Core issus des Pentium Pro des 95 et leur suite (PII et PIII), suivi de leur variante améliorée, les Core 2, signant le retour d'Intel dans la course.
Intel a par contre toujours eu une longueur d'avance en matière de finesse de gravure par la suite, et AMD, "grâce" à Glofo une longueur de retard, sur le marché.
par Pascal M., le Samedi 15 Septembre 2018 à 08h24  
par AntiZ, le Vendredi 14 Septembre 2018 à 13h54
@CDH:

C'est prévu que le prochain système de commentaire sera indenté et foldabl/collapsable comme à la reddit ?

Si oui, oh putaing !
logiquement oui
par AntiZ, le Vendredi 14 Septembre 2018 à 13h54  
@CDH:

C'est prévu que le prochain système de commentaire sera indenté et foldabl/collapsable comme à la reddit ?

Si oui, oh putaing !
par Scrabble, le Vendredi 14 Septembre 2018 à 13h45  
La définition du TDP est sujette à controverse, je n'épiloguerai pas là dessus. En revanche, la puissance thermique dissipée est toujours strictement égale à la puissance électrique consommée, ça c'est un fait irréfutable. Après, on est d'accord que tu as des variations dans le temps dans la puissance consommée/dissipée, c'est un fait. Quand je parle de consommation, je parle de la consommation maximale, évidement, pas de la consommation instantanée.
par Fromage Fondu, le Vendredi 14 Septembre 2018 à 13h37  
par Scrabble, le Vendredi 14 Septembre 2018 à 12h53
TDP et consommation c'est la même chose, l'énergie thermique à dissiper est toujours strictement égale à l'énergie électrique consommée.
Faux.
TDP = ce que tu as besoin de dissiper en terme de chaleur (valeur fixe pour un GPU stock, non OC manuellement)
Consommation: varie constamment en fonction de la fréquence et de la charge du GPU.

Un GPU peut avoir un TDP de 100W et n'en consommé que 10W s'il est idle, tout comme il peut en consommer 150W lors d'un pic d'utilisation.
Mais s'il consomme plus de Watt que le TDP pendant un long moment, il va throttle pour aligner la conso sur le TDP et ainsi éviter la surchauffe.

Aussi: Si tu achète une alim de 400W parce que la somme des TDP de tes composants est inférieure à 400W, ton pc risque de crasher lors de charges importantes car ta consommation dépassera largement 400W
par Scrabble, le Vendredi 14 Septembre 2018 à 13h36  
par Fromage Fondu, le Vendredi 14 Septembre 2018 à 13h31

Heureusement que non ! (des trolls vont dire que tu a un GPU AMD)
Tu es en train de décrire le fonctionnement d'une résistance électrique, pas d'un GPU.
Renseigne toi avant de dire des absurdités, sur le plan thermique, un GPU a le même bilan énergétique qu'une résistance, toute la puissance électrique est dissipée en chaleur. C'est un principe de base de la thermodynamique.