AMD sur la route des datacenters avec CDNA : plus de 10 TFLOPS pour la Radeon Instinct MI100 |
————— 18 Novembre 2020 à 11h34 —— 14798 vues
AMD sur la route des datacenters avec CDNA : plus de 10 TFLOPS pour la Radeon Instinct MI100 |
————— 18 Novembre 2020 à 11h34 —— 14798 vues
Avec l’arrivée extrêmement proche des tests de RDNA2 a. k. a. Big Navi, les joueurs trépignent d’impatience à l’idée de découvrir les concurrentes des cartes vertes, qui — rappelons-le — intègrent pour la première fois du Ray Tracing chez AMD. Drôle de timing donc pour présenter un nouveau modèle, mais c’est pourtant bien le choix effectué par la firme, avec, cette fois-ci, la version « entreprise » de RDNA, nommée CDNA. Bien que toutes deux soient initialement basées sur l’ancienne GCN, ces deux architectures sont amenées à évoluer indépendamment : exit donc les unités de Ray Tracing, et bonjour aux accélérateurs matriciels, plus adaptés au machine learning et autres domaines scientifiques.
Car, vous l’aurez deviné, cette Radeon Instinct MI100 n’est pas destinée aux stations de travail, mais aux centres de calcul, en témoignent son refroidissement « passif » (comprenez que les ventilateurs sont positionnés devant les baies de serveurs et non sur la carte) et l’absence de sorties graphiques.
Au menu : pas moins de 11,5 TFLOPS de puissance brute en FP64, le double en FP32 grâce à une puce gargantuesque de 7680 cœurs (120 CU) moulinant au maximum à 1502 MHz, pour un TBP annoncé à 300 W, le tout en 7 nm TSMC. Côté mémoire, la HBM2 officie toujours pour les pros sur un bus 4096-bit, offrant de la correction d’erreur et une bande passante de 1,2 To/seconde : plus que sympathique ! En outre, la connexion avec le système hôte s’effectue par un bus PCIe 4.0, rien de bien étonnant ; et le multi-GPU sera possible grâce à 4 Infinity Link par puce, ce qui demandera un pont externe comme aux grandes heures du SLi/CrossFire.
Comme nous vous le mentionnions plus tôt, cette MI100 fait usage d’accélérateurs proches des Tensors Cores de chez NVIDIA, ce qui permet d’afficher 46,1 TFLOPS en FP32 pour du calcul matriciel, et pas moins de 184,6 TFLOPS en FP16/INT8/INT4 pour l’IA. Enfin, le BFLOAT16, un format d’encodage de nombre profitant grandement au machine learning est également supporté, avec une puissance de calcul maximum de 92,3 TFLOPS cette fois-ci.
Pour ce qui est du logiciel, AMD annonce avoir bûché sur ROCm, une plateforme open source pour calcul déporté sur GPU qui, bien que sa popularité soit loin de celle de l’écosystème de NVIDIA, a le mérite d’exister et de se développer peu à peu. Bien entendu, il est impensable de voir une telle carte débarquer sur le segment desktop, et la divergence des architectures rend plus difficilement envisageable la possibilité de transferts de technologies du segment pro vers celui grand public, mais la carte témoigne cependant de la capacité de production de la firme de puces massives et compétitives (ce n'est pas le cas de tous...) : un bon signe pour la concurrence !
Un poil avant ?Les Xbox aussi vont jouer à cache-cache un bon moment, mais que faire ? | Un peu plus tard ...EVGA refait le coup des PSU en bronze, mais en (un peu) mieux |