NVIDIA a collé de la HBM2 dans sa Tesla P100 |
————— 11 Avril 2017 à 10h10 —— 12310 vues
NVIDIA a collé de la HBM2 dans sa Tesla P100 |
————— 11 Avril 2017 à 10h10 —— 12310 vues
La HBM2, vous êtes nombreux à attendre d'en entendre parler dans les puces Vega du Radeon Technology Group. Après les Ryzen de chez AMD qui viennent taper Intel, c'est Vega qui doit venir chambouler NVIDIA. Il semblerait pourtant que la Radeon RX Vega ait pris du retard et la récente annonce du Tesla P100 du caméléon pourrait l'expliquer.
Avec le Tesla P100, on n'est pas sur une carte graphique, mais un accélérateur destiné aux centres de données. Une bête de calcul qui est la première à s'offrir de la HBM2, coiffant au poteau AMD qui avait eu la primeur de la HBM sur ses R9 Fury. On avait d'ailleurs déjà entendu parler de l'engin en juin 2016, sans date de sortie à l'époque. Sur le papier pour les curieux, voici la puissance de calcul annoncée par NVIDIA pour l'engin :
Tesla P100 PCIe | Tesla P100 NVLink | |
---|---|---|
Calcul "Double-Precision" | 4,7 TFLOPS | 5,3 TFLOPS |
Calcul "Simple-Precision" | 9,3 TFLOPS | 10,6 TFLOPS |
Calcul "Half-Precision" | 18,7 TFLOPS | 21,2 TFLOPS |
Bande passante NVLink | - | 160 Go/s |
Bande passante PCIe x16 | 32 Go/s | 32 Go/s |
Capacité HBM2 CoWoS | 16Go ou 12Go | 16Go |
Bande passante HBM2 | 732 Go/s ou 549 Go/s | 732 Go/s |
De quoi enterrer les précédentes solutions à base de puces Kepler et Maxwell, mais aussi concurrencer le marché des CPU serveur, la puissance de calcul de ces engins étant copieuse, en plus de pouvoir les interconnecter en NVLink (jusqu'à huit). Le géant vert n'en vendra certainement pas des tonnes au début, mais le fait d'avoir récupéré un stock de HBM2 pour concevoir ces cartes va certainement rendre l'approvisionnement plus compliqué pour AMD. En attendant de savoir ce qu'il en est, voici l'offre actuelle de NVIDIA pour les serveurs et vous pourrez en apprendre plus sur ces nouveautés via le lien en fin de brève.
Tesla P100 (NVLink) | Tesla P100 (16Go) | Tesla P100 (12Go) | Tesla M60 | Tesla M40 | Tesla K80 | Tesla K40 | |
---|---|---|---|---|---|---|---|
SP | 3584 | 3584 | 3584 | 4096 | 3072 | 4992 | 2880 |
Freq. base | 1328MHz | ? | ? | 899MHz | 948MHz | 560MHz | 745MHz |
Freq. boost | 1480MHz | 1300MHz | 1300MHz | 1178MHz | 1114MHz | 562/875MHz | 810/875MHz |
Freq. VRAM | 1,4Go/s HBM2 | 1,4Go/s HBM2 | 1,4Go/s HBM2 | 5Go/s GDDR5 | 6Go/s GDDR5 | 5Go/s GDDR5 | 6Go/s GDDR5 |
Bus VRAM | 4096-bit | 4096-bit | 3072-bit | 2x 256-bit | 384-bit | 2x 384-bit | 384-bit |
BP mémoire | 720Go/s | 720Go/s | 540Go/s | 320Go/s | 288Go/s | 480Go/s | 288Go/s |
VRAM | 16Go | 16Go | 12Go | 16Go | 12Go | 24Go | 12Go |
Half Precision | 21,2 TFLOPS | 18,7 TFLOPS | 18,7 TFLOPS | 9,6 TFLOPS | 6,8 TFLOPS | 8,74 TFLOPS | 5 TFLOPS |
Single Precision | 10,6 TFLOPS | 9,3 TFLOPS | 9,3 TFLOPS | 9,6 TFLOPS | 6,8 TFLOPS | 8,74 TFLOPS | 5 TFLOPS |
Double Precision | 5,3 TFLOPS (ratio 1/2) | 4,7 TFLOPS (ratio 1/2) | 4,7 TFLOPS (ratio 1/2) | 301 GFLOPS (ratio 1/32) | 213 GFLOPS (ratio 1/32) | 2,91 TFLOPS | 1,66 TFLOPS |
GPU | GP100 | GP100 | GP100 | 2x GM204 | GM200 | 2x GK210B | GK110 |
Transistors | 15,3 milliards | 15,3 milliards | 15,3 milliards | 10,4 milliards | 8 milliards | 14,2 milliards | 7,1 milliards |
TDP | 300W | 250W | 250W | 300W (240W dissip. actif) |
250W | 300W | 235W |
Format | NVLink | PCIe | PCIe | PCIe | PCIe | PCIe | PCIe |
Dissipateur | - | Passif | Passif | Passif ou Actif | Passif | Passif | Passif |
Gravure | TSMC 16nm FinFET | TSMC 16nm FinFET | TSMC 16nm FinFET | TSMC 28nm | TSMC 28nm | TSMC 28nm | TSMC 28nm |
Architecture | Pascal | Pascal | Pascal | Maxwell 2 | Maxwell 2 | Kepler 2 |
Kepler |