Une Tesla P100 PCIe chez NVIDIA |
————— 20 Juin 2016 à 15h10 —— 14208 vues
Une Tesla P100 PCIe chez NVIDIA |
————— 20 Juin 2016 à 15h10 —— 14208 vues
En avril dernier, NVIDIA dévoilait sa première puce Pascal avec l'énorme GP100. Loin du GP104 actuellement disponible aujourd'hui au grand public fortuné, la bestiole se destine aux serveurs avec un fort accent mis sur le GPGPU. Dans un format conçu pour l'architecture NVLink (Mezzanine de son petit nom), ça ne convient cependant pas à tout le monde et c'est pourquoi le caméléon décline aujourd'hui sa Tesla P100 dans une version PCIe.
Ne salivez pas à la lecture du terme PCIe, si c'est bien l'interface qui a été choisie pour relier l'engin à la carte mère, ça ne pourra se faire que sur un serveur et sans connectique vidéo à l'arrière. La bébête est là pour faire du gros calcul, type Deep Learning. Du coup, la gamme Tesla s'étoffe et présentera maintenant trois modèles, un Mezzanine et deux PCIe qui lui seront légèrement inférieures comme vous pouvez le voir dans ce joli tableau (où les Tesla M40, M60, K40 et K80 les accompagnent pour présenter les précédentes occurrences Maxwell et Kepler) :
Tesla P100 (Mezzanine) | Tesla P100 (16Go) | Tesla P100 (12Go) | Tesla M60 | Tesla M40 | Tesla K80 | Tesla K40 | |
---|---|---|---|---|---|---|---|
SP | 3584 | 3584 | 3584 | 4096 | 3072 | 4992 | 2880 |
Freq. base | 1328MHz | ? | ? | 899MHz | 948MHz | 560MHz | 745MHz |
Freq. boost | 1480MHz | 1300MHz | 1300MHz | 1178MHz | 1114MHz | 562/875MHz | 810/875MHz |
Freq. VRAM | 1,4Go/s HBM2 | 1,4Go/s HBM2 | 1,4Go/s HBM2 | 5Go/s GDDR5 | 6Go/s GDDR5 | 5Go/s GDDR5 | 6Go/s GDDR5 |
Bus VRAM | 4096-bit | 4096-bit | 3072-bit | 2x 256-bit | 384-bit | 2x 384-bit | 384-bit |
BP mémoire | 720Go/s | 720Go/s | 540Go/s | 320Go/s | 288Go/s | 480Go/s | 288Go/s |
VRAM | 16Go | 16Go | 12Go | 16Go | 12Go | 24Go | 12Go |
Half Precision | 21,2 TFLOPS | 18,7 TFLOPS | 18,7 TFLOPS | 9,6 TFLOPS | 6,8 TFLOPS | 8,74 TFLOPS | 5 TFLOPS |
Single Precision | 10,6 TFLOPS | 9,3 TFLOPS | 9,3 TFLOPS | 9,6 TFLOPS | 6,8 TFLOPS | 8,74 TFLOPS | 5 TFLOPS |
Double Precision | 5,3 TFLOPS (ratio 1/2) | 4,7 TFLOPS (ratio 1/2) | 4,7 TFLOPS (ratio 1/2) | 301 GFLOPS (ratio 1/32) | 213 GFLOPS (ratio 1/32) | 2,91 TFLOPS | 1,66 TFLOPS |
GPU | GP100 | GP100 | GP100 | 2x GM204 | GM200 | 2x GK210B | GK110 |
Transistors | 15,3 milliards | 15,3 milliards | 15,3 milliards | 10,4 milliards | 8 milliards | 14,2 milliards | 7,1 milliards |
TDP | 300W | 250W | 250W | 300W (240W dissip. actif) |
250W | 300W | 235W |
Format | Mezzanine | PCIe | PCIe | PCIe | PCIe | PCIe | PCIe |
Dissipateur | - | Passif | Passif | Passif ou Actif | Passif | Passif | Passif |
Manufacturing Process | TSMC 16nm FinFET | TSMC 16nm FinFET | TSMC 16nm FinFET | TSMC 28nm | TSMC 28nm | TSMC 28nm | TSMC 28nm |
Architecture | Pascal | Pascal | Pascal | Maxwell 2 | Maxwell 2 | Kepler 2 | Kepler |
Les adeptes du calcul en double précision doivent être bien contents de voir Maxwell laisser la place à Pascal. Kepler était vaillant (surtout dans la K80), mais Pascal pourra satisfaire les besoins des gros serveurs, avec un TDP qui ne dépassera pas 250W là où il en fallait avant 300W pour des performances moindres. Au final, en plus de la Tesla P100 Mezzanine, on a une version PCIe avec des fréquences légèrement plus basses (sans que l'on connaisse celle de base pour l'instant) et une petite soeur qui se contente de 12Go de HBM2 sur un bus mémoire qui passe à 3072-bit. La High Bandwitch Memory de seconde génération étant toute fraiche et en quantité limitée, c'est un choix qui s'explique facilement et qui se fera sentir sur la facture. Car une Tesla coûte déjà un rein, mais avec de la HBM2 et une nouvelle finesse de gravure attendue depuis cinq ans, il va peut-être falloir livrer d'autres organes pour s'en offrir ! (source : Anandtech)