COMPTOIR
register

AMD sur la route des datacenters avec CDNA : plus de 10 TFLOPS pour la Radeon Instinct MI100

Avec l’arrivée extrêmement proche des tests de RDNA2 a. k. a. Big Navi, les joueurs trépignent d’impatience à l’idée de découvrir les concurrentes des cartes vertes, qui — rappelons-le — intègrent pour la première fois du Ray Tracing chez AMD. Drôle de timing donc pour présenter un nouveau modèle, mais c’est pourtant bien le choix effectué par la firme, avec, cette fois-ci, la version « entreprise » de RDNA, nommée CDNA. Bien que toutes deux soient initialement basées sur l’ancienne GCN, ces deux architectures sont amenées à évoluer indépendamment : exit donc les unités de Ray Tracing, et bonjour aux accélérateurs matriciels, plus adaptés au machine learning et autres domaines scientifiques.

 

Car, vous l’aurez deviné, cette Radeon Instinct MI100 n’est pas destinée aux stations de travail, mais aux centres de calcul, en témoignent son refroidissement « passif » (comprenez que les ventilateurs sont positionnés devant les baies de serveurs et non sur la carte) et l’absence de sorties graphiques.

 

 

Au menu : pas moins de 11,5 TFLOPS de puissance brute en FP64, le double en FP32 grâce à une puce gargantuesque de 7680 cœurs (120 CU) moulinant au maximum à 1502 MHz, pour un TBP annoncé à 300 W, le tout en 7 nm TSMC. Côté mémoire, la HBM2 officie toujours pour les pros sur un bus 4096-bit, offrant de la correction d’erreur et une bande passante de 1,2 To/seconde : plus que sympathique ! En outre, la connexion avec le système hôte s’effectue par un bus PCIe 4.0, rien de bien étonnant ; et le multi-GPU sera possible grâce à 4 Infinity Link par puce, ce qui demandera un pont externe comme aux grandes heures du SLi/CrossFire.

 

Comme nous vous le mentionnions plus tôt, cette MI100 fait usage d’accélérateurs proches des Tensors Cores de chez NVIDIA, ce qui permet d’afficher 46,1 TFLOPS en FP32 pour du calcul matriciel, et pas moins de 184,6 TFLOPS en FP16/INT8/INT4 pour l’IA. Enfin, le BFLOAT16, un format d’encodage de nombre profitant grandement au machine learning est également supporté, avec une puissance de calcul maximum de 92,3 TFLOPS cette fois-ci.

 

Pour ce qui est du logiciel, AMD annonce avoir bûché sur ROCm, une plateforme open source pour calcul déporté sur GPU qui, bien que sa popularité soit loin de celle de l’écosystème de NVIDIA, a le mérite d’exister et de se développer peu à peu. Bien entendu, il est impensable de voir une telle carte débarquer sur le segment desktop, et la divergence des architectures rend plus difficilement envisageable la possibilité de transferts de technologies du segment pro vers celui grand public, mais la carte témoigne cependant de la capacité de production de la firme de puces massives et compétitives (ce n'est pas le cas de tous...) : un bon signe pour la concurrence !

 

Un poil avant ?

Les Xbox aussi vont jouer à cache-cache un bon moment, mais que faire ?

Un peu plus tard ...

EVGA refait le coup des PSU en bronze, mais en (un peu) mieux

Les 12 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Ideal, le Jeudi 19 Novembre 2020 à 06h13  
par Nicolas D. le Mercredi 18 Novembre 2020 à 15h13
C'est le bon moment pour relire news sur la A100, en particulier en ce qui concerne le calcul sparse .
Je voulais savoir un truc sur les tensors cores, et même ceux de chez AMD car c'est pas vraiment clair dans les explications que j'ai pu voir ici et là.
Ils sont alimentés en données FP et INT, par les autres cores + conventionnels genre Cuda Core FP32-FP64+INT et les Stream Processors?
Du coup c'est directement lié genre multiplié à la puissance de calcul de base du GPU comme les chiffres semblent l'indiquer ou non c'est totalement indépendant et c'est plutôt comme une puissance de calcul différente qui s'y rajouterait ou prendrait sa place si le même chemin de données partagé
par Un Pipotronneur d'Occitanie, le Mercredi 18 Novembre 2020 à 15h48  
"Pas les tickets", l'article* !
par Un Pipotronneur d'Occitanie, le Mercredi 18 Novembre 2020 à 15h47  
par Ideal le Mercredi 18 Novembre 2020 à 14h18
Je comprend ce que tu dis d'ailleurs c'est plutôt vrai et personne (à part des fanboys) n'est dupe du discours marketing que chaque firme fait pour se mettre en valeur..
Bah c'est juste que comme les tickets n'abordaient que la MI100, je voulais voir ce que ça valait par rapport à la concurrence.
J'ai pas la science infuse, j'ai piqué les données de l'un et de l'autre pour essayer de les confronter. Quand je dis "moins glorieux", c'est par rapport au graphique que montre AMD sur sa page produit.
Tu as l'impression qu'en FP32 AI/Machine learning, AMD est meilleur, sauf qu'ils prennent leur résultat "avec Precision Matrix" et chez nVidia ils le comparent à celui sans "Tensor Core". Déroutant.
Alors que juste au-dessus ils comparent de façon honnête le FP64.

Pour la mémoire, c'est juste parce c'est précisé sur la feuille technique AMD, chez nVidia ils ont pas mis la mention dans leur tableau donc j'ai pas rajouté de mention chez eux.
Pareil pour l'interface d'interconnexion, nVidia indique 600Go/s pour nVlink, mais c'est le maximum pour "tous les liens" nVlink j'imagine. Là où AMD donne de base le débit par lien infinity fabric.
Dans les notes en petit ils ont rajoutés qu'il y a 3 liens infinity fabric avec une MI100, ça donnerait 276Go/s ou jusqu'à 340Go/s en fonction des configurations (avec ou sans PCI-e 4 j'ai eu l'impression)

Enfin je leur cherche pas des cacahouètes. Je voulais juste faire une comparaison "simple" avec mes maigres connaissances.
C'est quand même plus intéressant de connaitre le potentiel de la carte par rapport à la concurrence que juste ces caractéristiques seules.

Pour tout ce qui n'a pas besoin de leur "Precision Matrix" elle a l'air au top !
par Nicolas D., le Mercredi 18 Novembre 2020 à 15h13  
par Un Pipotronneur d'Occitanie le Mercredi 18 Novembre 2020 à 13h43
Je l'ai bricolé rapidement en récupérant le tableau de nVidia sur la page du A100 et en y greffant les infos qu'AMD fournit sur sa page du MI100
Je suis partie du principe que leur "Matrice" étaient la correspondance au résultat "Tensor Core" vu que CDH fait mention de cette "parenté relative".
C'est le bon moment pour relire news sur la A100, en particulier en ce qui concerne le calcul sparse .
NVIDIA ne fait clairement pas les 600 TOPS annoncés, il donne un résultat équivalent à 600 TOPS de calcul si l'on ne prenait pas en compte la sparsité... ce qui n'est jamais fait sur centres de calcul. Par contre, effectivement, AMD est à la traîne sur les tensors cores (comme RDNA2 est à la traîne sur le Ray Tracing), et ce d'un facteur 3 environ (aïe !), et n'a pas intégré d'accélération hardware de la sparsité ; ces cartes ne risquent donc pas de voller la vedette à NVIDIA, en tout cas sur le plan des performances pures.
par Jemporte, le Mercredi 18 Novembre 2020 à 14h47  
Est-ce qu'il y aura des version vendues pour Desktop, à l'image des Tesla ? Ca serait pas idiot. Le problème c'est ROCm. Donc pas de Windows. Est-ce que OpenCL 2.0 sera supporté sur Windows par cette Mi100? Maintenant beaucoup de programmes de calcul GPU marchent sur Linux et on peut même faire des usages hétérogènes avec une machine maître sur Windows et esclaves sur Linux.
par Ideal, le Mercredi 18 Novembre 2020 à 14h18  
par Un Pipotronneur d'Occitanie le Mercredi 18 Novembre 2020 à 13h43
Je l'ai bricolé rapidement en récupérant le tableau de nVidia sur la page du A100 et en y greffant les infos qu'AMD fournit sur sa page du MI100
J'ai pourtant rien contre AMD, mais là j'ai l'impression que c'est une communication à moitié foireuse hélas.
Je comprend ce que tu dis d'ailleurs c'est plutôt vrai et personne (à part des fanboys) n'est dupe du discours marketing que chaque firme fait pour se mettre en valeur..

Mais dans ton premier ragot tu dis "c'est "moins glorieux"" sans autre précisions et là ça donne plutôt l'impression que tu remets en cause le contenu du billet ici, non pas la page marketing d'AMD.

Hors dans le billet y a aucune incohérence où aucune glorification de cette carte en dénigrant la concurrence comme il y a continuellement dans les prez marketing des firmes.
Y a une non-comparaison sur les chiffres entre les modèles AMD/NVidia, mais après tout ici AMD gagne sur les perfs standards et perd sur les perf concernant les calculs matriciels où NVidia détient une sacrée avance car il vend des produits sur ce segment depuis 2017.

Pareil dans l'image que tu as crée tu as rajouté la mention "jusqu'à" pour la bande passante AMD alors que chez NVidia, comme pour toute les bandes passantes mémoire, aussi c'est un maximum, donc je voyais pas trop pourquoi faire le distinguo juste sur AMD.
Voilà pourquoi je me demandais d'où sortait cette image
par Un Pipotronneur d'Occitanie, le Mercredi 18 Novembre 2020 à 13h47  
par Minidoute le Mercredi 18 Novembre 2020 à 13h03
Les tensors cores c'est pas une tech nvidia ? Donc les résultats sont très bons
Si si, j'ai récupéré le tableau d'nVidia pour y insérer les données fournient par AMD d'où la référence "Tensor Core" dans la légende des lignes.
Mais je n'y ai déposé que les résultats "Matrix" qu'AMD fournit, vu que ça semble être leur équivalent des Tensor Core.
par Un Pipotronneur d'Occitanie, le Mercredi 18 Novembre 2020 à 13h43  
par Ideal le Mercredi 18 Novembre 2020 à 13h33
Qui a crée cette image en rajoutant une colonne rouge pour AMD à l'image d'origine fournie sur le site de NVidia ici en fin de page... C'est toi? Ou ça vient d'un article qui comporterait des infos additionnelles, article que je n'ai pas trouvé.
Je l'ai bricolé rapidement en récupérant le tableau de nVidia sur la page du A100 et en y greffant les infos qu'AMD fournit sur sa page du MI100
Je suis partie du principe que leur "Matrice" étaient la correspondance au résultat "Tensor Core" vu que CDH fait mention de cette "parenté relative".

Je me disais que c'était plus facile de comparer les données des 2 fabricants en les mettant côte à côte. Y a pas toutes les infos chez AMD (par rapport à nVidia)
Et dans le graphique, sur la page produit AMD, ça laisse à penser qu'ils sont "meilleur qu'nVidia", mais on dirait plutôt qu'ils ont choisit le cas qui les avantages avec leurs "unités matricielles" versus le cas nVidia SANS les Tensor Core.
Aussi ils mettent en avant la carte non PCI-e d'nVidia à 400Watts, alors que la leur est PCI-e et qu'nVidia en possède une aussi avec une consommation plus basse annoncée.

Bref les travers qu'ils avaient perdu l'habitude d'utiliser ces derniers temps, ils refont surfasse pour CDNA :/
J'ai pourtant rien contre AMD, mais là j'ai l'impression que c'est une communication à moitié foireuse hélas.
par Ideal, le Mercredi 18 Novembre 2020 à 13h33  
par Un Pipotronneur d'Occitanie le Mercredi 18 Novembre 2020 à 11h04
Si on essaye de comparer les caractéristiques respectives des pages officielles des 2 fabricants, c'est "moins glorieux" : A100 versus MI100
Qui a crée cette image en rajoutant une colonne rouge pour AMD à l'image d'origine fournie sur le site de NVidia ici en fin de page... C'est toi? Ou ça vient d'un article qui comporterait des infos additionnelles, article que je n'ai pas trouvé.
par Minidoute, le Mercredi 18 Novembre 2020 à 13h03  
par Un Pipotronneur d'Occitanie le Mercredi 18 Novembre 2020 à 11h04
Si on essaye de comparer les caractéristiques respectives des pages officielles des 2 fabricants, c'est "moins glorieux" : A100 versus MI100
Les tensors cores c'est pas une tech nvidia ? Donc les résultats sont très bons
par lord Varices, le Mercredi 18 Novembre 2020 à 12h43  
Et un coup latte sur Intel en passant.
par Un Pipotronneur d'Occitanie, le Mercredi 18 Novembre 2020 à 11h04  
Si on essaye de comparer les caractéristiques respectives des pages officielles des 2 fabricants, c'est "moins glorieux" : A100 versus MI100