Test • AMD HD3870 x2 |
————— 31 Janvier 2008
Test • AMD HD3870 x2 |
————— 31 Janvier 2008
• R680 et crossfire
Voila plus d'un an que la concurrence truste la première place des charts graphiques, avec des 8800 GTX et Ultra généreuses et un renouvellement sous la houppe du G92 sur-vitaminée. Il était temps de réagir ! Suite aux semi-déceptions qu'ont été le R600 et plus récemment le RV670, bien que ces dernières cartes rattrapent leur retard technologique mais taillées pour un segment de milieu de gamme, AMD sort l'artillerie pour s'attaquer cette fois au segment du gamer, le vrai, l'enthousiaste, celui qui veut voir son écran inonder ses pupilles d'images par secondes. Et pour cela, voici venue une petite nouvelle, enfin, une grande petit nouvelle si vous me permettez, puisque le bébé de 1Kg est bâti autour de deux processeurs graphiques.
Si les tentatives de cartes multi-GPU n'ont dans le passé pas vraiment été des réussites, il semble que les progrès réalisés par les deux firmes de GPU grand public portent leurs fruits, et les annonces de plateformes hybrides fleurissent d'un côté comme de l'autre en ce début 2008. Mais revenons à nos moutons puisqu'il s'agit cette fois de deux GPU cohabitant sur le même PCB reliés entre eux par un pont hardware, et non pas deux PCB au sein d'un même ensemble comme l'ancienne et la future GX² du caméléon. Le HD3870 X2 est annoncé comme étant compatible avec le crossfireX, cette compatibilité ne sera effective qu'en mars avec la sortie des pilotes adaptés (et donc la possibilité de coupler deux 3870X2 , et disposer de 4 GPU sur un système bi-PCI express sera au rendez vous, également sur P35, X38 et X48).
Les deux RV670 du R680 (vous suivez ?) et la puce PLX chargée de faire le pont PCIe
Niveau technique, rien de neuf. Pour rappel, le RV670 est une puce gravée en 55nm, mesurant 196mm², pour 666 millions de transistors, capable d'un traitement de 497 Gigaflops. Coté mémoire, la carte embarque 1go (2x512 pour être plus précis) de gDDR3 (alors qu'une 3870 est dotée de gDDR4) travaillant toujours -et c'est bien dommage- via un bus de 256bits de large. Coté fréquences, les deux cores sont à 825Mhz, le gigot de RAM lui, mouline à 900Mhz.
Fort logiquement donc, la 3870x2 se présente fièrement comme le première carte capable d'une puissance de traitement supérieure à 1 Teraflops; et ça, ça en fait des flops, presque autant que Charlie Oleg en toute une vie, c'est vous dire!
|
8800 ULTRA |
3870x2 |
3870 |
GPU |
G80 |
R680 |
RV670 |
Gravure |
90nm |
55nm |
55nm |
Unité de texturing/filtering |
32/64 |
64/32 |
32/16 |
CPU scalaires |
128 |
128 |
64 |
ROPs |
24 |
32 |
16 |
Fréquence GPU (Mhz) |
612 |
825 |
775 |
Fréquence Shaders (Mhz) |
1512 |
825 |
775 |
Fréquence gDDR (Mhz) |
1080 |
900 |
1125 |
gDDR embarquée |
768 Mo |
1 Go |
512 Mo |
Bus gDDR (bits) |
384 |
256 |
256 |
BP gDDR (Go/s) |
96,6 |
107,4 |
67,1 |
Type de gDDR |
gDDR3 |
gDDR3 |
gDDR4 |
Shader |
4 |
4.1 |
4.1 |
DirectX |
10 |
10.1 |
10.1 |
Le fonctionnement de la carte est basée sur la technologie crossfire, on s'en serait douté hein, dont le pont est directement intégré à la carte. La technologie opère donc ici en mode software et non hardware comme on pourrait le penser, puisqu'en réalité le pont intégré à la carte n'est ni plus ni moins qu'un relais PCI express 1.1 .
Du coup, l'échange de données entre les deux GPU se fait par cette puce, et tout laisse à penser que cette solution sera moins performante qu'un "vrai" pont crossfire dédié à cet usage. En pratique il n'en est rien, ouf. Le pont intégré communique en x16 avec les deux GPUs (soit une bande passante de 2x4Go/s), et également en x16 avec le bus PCI express de la carte mère sur laquelle la carte est montée. Les latences induites par les différents transferts en lecture ou en écriture sur le bus PCI Express sont limitées du fait de l'architecture même de la série HD3800; je vous invite à aller consulter les tests de nos confrères pour vous rafraichir la RAM à ce sujet.
|
Un poil avant ?HD3870 X2 : la grande souplesse d'AMD | Un peu plus tard ...Powercolor chez Nvidia, Inno3D chez ATI |