COMPTOIR
  
register

×

un SM du GV100

Quand Intel analyse la concurence : décorticage des tensor cores de NVIDIA
un SM du GV100

Ah, qu'il est difficile de se faire remarquer quand la domination technologique n'est plus présente ! Après avoir raté le train de l'informatique embarquée, le géant bleu tente avec plus ou moins de réussite de s'immiscer dans le domaine de l'accélération du machine learning, pourtant trusté par NVIDIA.

 

un SM du GV100 [cliquer pour agrandir]

Petit rappel sur les SM de Volta

 

Et comme dans ces cas-là, tous les coups - ou presque - sont permis, Intel a mené sa propre enquête interne sur le fonctionnement des Tensor Cores, et a pointé une erreur. Pour rappel, ces unités de calculs sont dédiées au calcul matriciel et réalisent une multiplication avec accumulation, notamment sur les nombres flottants sur 16 bits. Or, la norme IEEE 754 est très stricte sur la gestion des arrondis, ce qui permet d'en déduire la structure interne du bouzin : il ne s'agit ni d'une cascade de multiplieurs-additionneurs ni d'un arbre, mais d'une structure parallèle, coupant au passage le résultat sur 24 bits. Si dans la pratique cela n'offre pas un résultat plus faux que celui offert par un algorithme n'utilisant pas les Tensor Cores, il n'en reste pas moins différent. Du pinaillage, vous dites ? Un peu plus grave, la largeur des données employée ne permet pas de gérer efficacement les flottants 32 bits, dans lesquels un cas limite de la norme nommé nombres sous-normaux n’est pas géré et systématiquement arrondi à zéros.

 

debit tensors core

Le fonctionnement des Tensor Cores chez NVIDIA face aux architectures précédentes

 

Cela est d'autant plus cocasse qu'avec toutes les failles Spectre dont est victime Intel, ce dernier est bien en mauvaise posture pour pointer une mauvaise implémentation dans le but d'économiser du silicium et gagner des performances... mais tel est bien le jeu de la concurrence. À quand le papier sur une faille liée à l'exécution spéculative en provenance de NVIDIA ? (Source : Bits and Chips)

Un poil avant ?

Un projet de puces de machine learning scalables chez Intel

Un peu plus tard ...

Les cours de la DRAM remontent... Pourquoi ?

Les 20 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur en canicule en Provence-Alpes-Côte d'Azur, le Mercredi 24 Juillet 2019 à 00h12  
par davideneco, le Lundi 22 Juillet 2019 à 10h50
Nvidia qui ment

C'est original
Poor Volta
par Un ragoteur de transit des Pays de la Loire, le Mardi 23 Juillet 2019 à 17h04  
Et sinon est-ce que tout comme moi vous regrettez les VHS ?
par Mitsu, le Mardi 23 Juillet 2019 à 08h47  
par Une ragoteuse à forte poitrine en Île-de-France, le Mardi 23 Juillet 2019 à 07h26
Pour l'instant, l'un de leur problème c'est justement l'orientation de leur GPU.
Ca pourrait signifier que leur GPU prend la même route que GCN, c'est à dire top en compute.
Si on refait l'historique des GPU compute d'Intel, parce qu'il y eu des projets mais aucun n'a suivi la voie commerciale, ils ont surtout essayé de faire des unités de calcul parallèle. Le problème c'est qu'ils se sont basés sur x86 pour le faire. Alors un processeur assez monstrueux à base d'une centaine de x86 (niveau pentium simplifié ) ça permettait à peine de faire de la 3D niveau carte graphique de base (Larrabee). On trouve des modèles mis en vente par des dev sur ebay. C'est ce qu'Intel est parvenu à faire de mieux pour l'instant et on voit bien que le but visé ce n'est pas le gaming mais le compute en premier et avant tout. Du coup ce sont des anciens d'AMD qui s'y collent, parce que si AMD a eu le hardware, il n'a pas eu le support formation, software et développement que personne ne maîtrise mieux qu'Intel.
On verra ce que donneront les GPU Intel
par CPU z du Centre-Val de Loire, le Mardi 23 Juillet 2019 à 08h30  
En gros il faut agrandir la norme pour que on puisse calculer les nombres sous normaux pour que le système 32 bites puisse prendre en compte les nombres sous normaux et ne pas les mettre de côté sans les calculer et mettre zéro donc erreur a chaque passage en parlant d'erreur quand les processeur vont passer sur de la ddr6 pour que il s'accorde avec le reste du matos exemple carte graphique ?
par Une ragoteuse à forte poitrine en Île-de-France, le Mardi 23 Juillet 2019 à 07h26  
par Mitsu, le Mardi 23 Juillet 2019 à 06h09
Je suis d'accord mais de manière un peu plus terre à terre, il serait également bon qu'Intel passe un peu plus de temps à s'occuper de ses problèmes que ceux des autres non ? Poutre, paille, tout ça...
Pour l'instant, l'un de leur problème c'est justement l'orientation de leur GPU.
Ca pourrait signifier que leur GPU prend la même route que GCN, c'est à dire top en compute.
Si on refait l'historique des GPU compute d'Intel, parce qu'il y eu des projets mais aucun n'a suivi la voie commerciale, ils ont surtout essayé de faire des unités de calcul parallèle. Le problème c'est qu'ils se sont basés sur x86 pour le faire. Alors un processeur assez monstrueux à base d'une centaine de x86 (niveau pentium simplifié ) ça permettait à peine de faire de la 3D niveau carte graphique de base (Larrabee). On trouve des modèles mis en vente par des dev sur ebay. C'est ce qu'Intel est parvenu à faire de mieux pour l'instant et on voit bien que le but visé ce n'est pas le gaming mais le compute en premier et avant tout. Du coup ce sont des anciens d'AMD qui s'y collent, parce que si AMD a eu le hardware, il n'a pas eu le support formation, software et développement que personne ne maîtrise mieux qu'Intel.
par Mitsu, le Mardi 23 Juillet 2019 à 06h09  
par Jemporte, le Lundi 22 Juillet 2019 à 16h16
C'est au contraire très intéressant qu'Intel relève le problème et alors on aimerait des exemples, et aussi une réponse de Nvidia. Très très bien au contraire ! On a surtout pas envie au contraire que chacun fasse sa solution dans son coin sans mettre tout sur le tapis et sans contradiction, qu'il faudra aller deviner à partir de tests plus ou moins flous.
Intéressant que ce soit Intel qui s'y colle.
Je suis d'accord mais de manière un peu plus terre à terre, il serait également bon qu'Intel passe un peu plus de temps à s'occuper de ses problèmes que ceux des autres non ? Poutre, paille, tout ça...
par Nicolas D., le Lundi 22 Juillet 2019 à 16h18  
par Jemporte, le Lundi 22 Juillet 2019 à 16h16
C'est au contraire très intéressant qu'Intel relève le problème et alors on aimerait des exemples, et aussi une réponse de Nvidia. Très très bien au contraire ! On a surtout pas envie au contraire que chacun fasse sa solution dans son coin sans mettre tout sur le tapis et sans contradiction, qu'il faudra aller deviner à partir de tests plus ou moins flous.
C'est un avis que je partage c'est le côté bienfaisant de la concurrence : ça tire vers le haut les produits. Néanmoins, les tensor cores ne sont pas que pour l'IA, et plus d'un pourrait être déçu d'avoir des résultats différents de l'algo de base par leur simple utilisation...
par Jemporte, le Lundi 22 Juillet 2019 à 16h16  
par Nicolas D., le Lundi 22 Juillet 2019 à 16h07
Si on regarde Zombieload, il s'agit très précisément d'accélérer la tâche au prix d'informations pouvant fuiter sur le placement physique des pages mémoires : un comportement plutôt souhaité par l'utilisateur. Ici NVIDIA fait le choix d'une implémentation rapide au prix de la sémantique, le parallèle est proche. C'est également que Spectre est autrement plus grave que la liberté exposée ici, et c'est cocasse qu'Intel fasse le gros Jean qui en remonte à son curé dans de telle conditions.

Pour les TFLOPS, ça a toujours été une puissance crête théorique, citons par exemple les feu GTX 960 qui avaient de la puissance mais un bus trop étroit pour l'exploiter : le soucis est le même ici. C'est comme l'AVX 512 qui ne va pas miraculeusement doubler le débit flottant
En fait c'est l'inverse. On est dans le débat d'idées (scientifiques) au niveau du calcul IA, alors que Spectre n'est pas un sujet de débat, et ça relèverait de la gaminerie de s'en gausser. On remarquera d'ailleurs qu'au niveau CPU AMD ou Intel ne se vantent pas des déboires de l'autre. Ils commentent en général que leur plateforme ne serait pas sujette au problème tout au plus.
C'est au contraire très intéressant qu'Intel relève le problème et alors on aimerait des exemples, et aussi une réponse de Nvidia. Très très bien au contraire ! On a surtout pas envie au contraire que chacun fasse sa solution dans son coin sans mettre tout sur le tapis et sans contradiction, qu'il faudra aller deviner à partir de tests plus ou moins flous.
Intéressant que ce soit Intel qui s'y colle.
par Nicolas D., le Lundi 22 Juillet 2019 à 16h07  
par Un adepte de Godwin en Île-de-France, le Lundi 22 Juillet 2019 à 09h59
Il n'y a rien de cocasse dans ce que raconte Intel. Vous confondez une faille de sécurité, ce qui peut arriver, avec une duperie sur les résultats, avec des calculs d'une précision insuffisante.
Si on regarde Zombieload, il s'agit très précisément d'accélérer la tâche au prix d'informations pouvant fuiter sur le placement physique des pages mémoires : un comportement plutôt souhaité par l'utilisateur. Ici NVIDIA fait le choix d'une implémentation rapide au prix de la sémantique, le parallèle est proche. C'est également que Spectre est autrement plus grave que la liberté exposée ici, et c'est cocasse qu'Intel fasse le gros Jean qui en remonte à son curé dans de telle conditions.

Pour les TFLOPS, ça a toujours été une puissance crête théorique, citons par exemple les feu GTX 960 qui avaient de la puissance mais un bus trop étroit pour l'exploiter : le soucis est le même ici. C'est comme l'AVX 512 qui ne va pas miraculeusement doubler le débit flottant
par Jemporte, le Lundi 22 Juillet 2019 à 15h44  
par Thibaut G., le Lundi 22 Juillet 2019 à 11h53
premièrement c'est une news Intel, donc le HS sur Nvidia n'a aucun intérêt à part celui de basher pour rien
deuxièmement il a bien compris le message
troisièmement le coup de changement d'ip pour te conforter dans tes propos, bien joué Jemporte
Effectivement le deuxième post, clair, concis et précis, n'est pas de moi.
par Carbon13, le Lundi 22 Juillet 2019 à 14h59  
De toutes façons il n'y a absolument pas besoin d'avoir une bonne précision en Deep Learning, c'est d'ailleurs pour ça que ces cœurs sont fait pour travailler sur du 16 bits ou moins. A moins que quelqu'un veuille s'en servir pour autre chose que de l'IA, RAS.
par Zoroastre, le Lundi 22 Juillet 2019 à 13h34  
par Thibaut G., le Lundi 22 Juillet 2019 à 11h53
premièrement c'est une news Intel, donc le HS sur Nvidia n'a aucun intérêt à part celui de basher pour
C'est bien nvidia qui est au cœur de cette news même si c'est Intel qui rage et joue les balances