Hardware Rétro : il était une fois la GV-3D1 multiGPU de GIGABYTE... |
————— 04 Février 2020 à 09h48 —— 14768 vues
Hardware Rétro : il était une fois la GV-3D1 multiGPU de GIGABYTE... |
————— 04 Février 2020 à 09h48 —— 14768 vues
Les confrères germains de Computerbase se prêtent régulièrement au jeu de la nostalgie en ressortant certains de leurs (nombreux) très vieux dossiers hardware, de quoi se replonger dans un passé finalement pas encore si lointain et de se souvenir des prouesses (ou pas) d'une autre époque. Aujourd'hui, c'est la fameuse carte GV-3D1 de GIGABYTE qui a brièvement été déterrée de sa tombe le temps d'une petite commémoration. Par contre, si la GV-3D1 ne vous évoque aucun souvenir, c'est assez normal. En fait, il s'agissait d'une carte multiGPU un peu obscure lancée en 2005 et qui unissait deux 6600 GT sur un seul PCB. Son truc, c'est qu'elle n'a jamais été commercialisée individuellement, mais uniquement en bundle avec la carte mère GA-K8NXP-SLI (socket 939) et cette dernière était même indispensable pour profiter de la carte graphique en mode SLI, qui ne pouvait en fait fonctionner correctement avec aucune autre mobale de l'époque, fut-elle certifiée SLI !
Ah, la mode d'une autre époque...
Sur le plan technique, c'était donc deux puces NV43 de NVIDIA - qu'on vous invite à resituer sur la superbe compilation 1998-2018 partagée sur cette brève - sur un même PCB, chacune accompagnée de 128 Mo de GDDR3 branchés sur un bus 128-bit. Chaque GPU moulinait selon les spécifications de NVIDIA à 500 MHz, tandis que la mémoire planait à 560 MHz au lieu de 500. Enfin, l'alimentation de la carte se faisait via une prise PCIe 6 pins, en complément du jus fourni par le slot PCIe.
En pratique, cette GV-3D1 ne se distinguait pas des masses d'un SLI standard de deux 6600 GT, un combo généralement supérieur à une Geforce 6800, mais bien loin des 6800 GT et 6800 Ultra, ou encore la Radeon X800 XT qui se positionnait entre les deux. Beaucoup se souviendront certainement aussi que rares étaient à ce moment-là les GPU pouvant se vanter d'être silencieux, la GV-3D1 culminait donc à 50,4 dBA, un peu plus qu'un SLI de 6600 GT, mais quand même en deçà d'une 6800 GT à 55 dBA (57 pour le SLI) ou X800 XT à 56 dBA (ouch les oreilles). Et la consommation ? En moyenne, 144 W en mode 2D et 255 W en 3D !
L'ère (révolue) du RGB sans les LED, la carte mère en question et unique hôtesse SLI de la GV-3D1.
Bref, autant dire que la GV-3D1 n'avait pas grand-chose pour elle en matière de performance et relativement peu d'un point de vue commercial (même si le bundle à 499 $ pouvait être jusqu'à 100 $ moins cher que d'opter pour deux 6600GT individuelles), d'autant plus qu'elle imposait à l'acheteur un usage quasi limité à la carte mère du bundle, ce qui en faisait également un hardware virtuellement impossible à revendre à l'unité. Il est aujourd'hui évident que la GV-3D1 n'était essentiellement qu'un exercice d'innovation, une nouvelle expérience et démonstration technique de faisabilité (parmi d'autres) sur la route vers les cartes graphiques multiGPU des générations suivantes - par exemple 7950 GX2, 3870 X2, HD 4850/4870 X2, GTX 295 ou encore HD 5970.
Tiens, on se demande aussi ce que notre spécialiste de l'éléc pourrait bien lui reprocher...
Toutefois, au fil des années les performances croissantes en monoGPU ont progressivement rendu inutiles de tels montages pour les joueurs et qui présentaient d'ailleurs aussi pas mal d'inconvénients (microsaccades et support aléatoire en jeu, chauffe, nuisances sonores, prix, volume), et c'est sans parler des essais laborieux de Quad SLI et Quad Crossfire ! Ainsi, le multiGPU "mainstream" (hors minage de cryptomonnaie ou machine learning) s'éteignit définitivement chez NVIDIA en 2014 après la Titan Z (2 GPU Kepler GK110B) au TDP de 375 W et MSRP de 2999 $, et la même année chez AMD après la R9 295X2 (2 GPU Vesuvius XT) au TDP fulgurant de 500 W et MSRP de 1499 $ !
Si le SLI et le Crossfire vivotent encore un peu de nos jours, la fin potentielle de l'un ou de l'autre a déjà fait parler à plusieurs reprises. D'ailleurs, AMD n'a conféré aucun support Crossfire aux Radeon Navi RX 5000 et chez NVIDIA seules les 2070 (SUPER) et 2080 (SUPER)/Ti supportent encore le SLI, et la solution n'est que très rarement intéressante financièrement parlant.
Reverra-t-on jamais de carte multiGPU pour le marché du jeu vidéo ? En cette ère des chiplets et puces uniques toujours plus complexes, la probabilité est certainement faible, mais rien n'est vraiment impossible... En attendant, les cartes comme celle-ci encore en circulation resteront des souvenirs peut-être toujours bien au chaud dans un PC, en vitrine dans un musée ou pour les étagères des collectionneurs ! (Source)
Un poil avant ?L'hiver vient encore chez ASUS, cette fois-ci pour la RTX 2080 SUPER | Un peu plus tard ...Nvidia publie un pilote pour dézinguer du nazi, mais du nazi zombie |