COMPTOIR
register

Intel et l'IA, ou la lente adaptation des CPU au machine learning

Intel, un géant à la dérive ? On l'a dit et rabâché, le 14 nm est victime d'une pénurie sortie de nulle part, et le 10 nm se fait encore désirer si bien que certains y voient une mort annoncée du géant bleu. Après avoir loupé le tournant smartphone - et maintenant que ce marché est arrivé à saturation - la dernière technologie en vogue pourrait sembler passer également sous le nez d'Intel : l'IA.

 

En effet, les calculs effectués par les réseaux de neurones, qu'ils soient convolutionnels (CNN), récurrents (RNN) ou profonds (DNN) sont basés sur des multiplications de matrices. Si le fonctionnement complet de ces algorithmes mérite a minima un dossier dédié, tous ont en commun une structure qui peut s'exécuter très efficacement sur GPUs, qu'il s'agisse de l'apprentissage (modifier les neurones pour les entraîner à détecter une chose voulue) ou de l'inférence (utiliser la structure résultant de l'apprentissage pour le but désiré). Alors que la première opération est coûteuse en temps et en énergie, la seconde est bien plus légère : en effet, le réseau est figé, ce qui permet d'enclencher certaines optimisations basées sur le caractère statique des données.

 

Il est clair que du point de vue de l'adaptation matérielo-logicielle, NVIDIA mène la danse avec une gamme allant des serveurs DGX-1 prévus pour l'apprentissage des réseaux aux SoC Xavier taillés pour l'inférence dans l'embarqué - comprendre, à terme, les voitures autonomes et les robots intelligents. Une pile software est soigneusement développée à cet effet, qui fait le bonheur des industriels et leurs GPU sont les plus rapides du marché quand il s'agit de performances pures, quitte à devoir payer rubis sur l'ongle l'optimisation requise pour l'exploiter.

 

Cependant, Intel est loin d'avoir dit son dernier mot. En dépit des apparences, ses produits sont déjà le fruit de recherches visant à optimiser leurs performances, le plus évident étant le Xeon Phi, un accélérateur qui est depuis passé en fin de vie mais a été lourd d'enseignement pour la firme (des bruits courent par ailleurs quant à un successeur en 10 nm, mais rien de précis). De manière plus pragmatique, faire de l'accélération de calcul matriciel n'est pas nouveau, et la structure de code des algorithmes d'IA est suffisamment simple - dû à la faible présence de conditions - pour appliquer des améliorations intelligentes à la compilation et utiliser efficacement la vectorisation, taillée pour ce genre de calcul. La principale opération de calcul matricielle, la multiplication avec accumulation, est d'ailleurs présente dans les CPU sous le nom de FMA (fused multiply-add) depuis Haswell pour le grand public (2013) et Itanium chez les pro (2001(!)). Rajoutez à cela qu'un CPU reste plus généraliste que n'importe quelle carte graphique, et que, pour cette raison, certaines fermes de calcul préfèrent opter pour des serveurs partagés à CPU testicouillus plutôt qu'hybridés avec des GPU, particulièrement dans l'académique. C'est là toute la force et la faiblesse d'Intel : le x86 sur laquelle elle se base pour son business est très polyvalent et extrêmement répandu dans l'écosystème logiciel, mais doit traîner une rétrocompatibilité d'un jeu d'instruction archaïque nuisant à son rendement.

 

intel ia inside cdh

La prochaine évolution ?

 

Par aileurs, il n'est absolument pas délirant de rapprocher le développement de l'AVX-512 sur les gammes serveur (la Scalable Platform et le futur Cascade Lake) de l'essor de l'IA, bien que ses applications dépassent largement ce domaine. Les bleus disposent en outre de suffisamment de moyens pour racheter les start-up prometteuses qui échappent à leurs concurrents, telles Movidius (spécialisée dans l'inférence basse consommation), ou Altera et ses FPGA, bien que leur utilité dans le domaine du Machine Learning soit sujette à débat. Et tout ça sans compter Xe, la future architecture graphique, dont la période de sortie coïncide bien trop avec l'air du temps pour ne pas être étroitement liée à l'IA - le premier qui sort qu'Intel surfe sur le minage peut gentiment retourner dans sa cave !

 

Même d'un point de vue économique, un mastodonte comme Intel saura tenir bon nombre de modes avant de faillir, n'en déplaise à certains investisseurs qui, peu rassurés par un avenir à court terme grisonnant, pensent à quitter le navire. Il suffit de parcourir le bilan financier pour voir à quel point les ancrages de la firme sont multiples : la division mémoire se porte bien voire très bien, et la masse salariale ajoutée aux possessions matérielles d'Intel a bien trop de valeur pour être réduite à néant en quelques années, même dans des cas de domination absolue des concurrents des bleus sur l'IA.

 

Impossible de connaître avec précision le devenir de la firme, mais il est clair que son orientation dépendra fortement du succès de Xe. Dans un futur plus immédiat, la responsabilité incombera aux résultats du 10 nm - il n'est point d'architecture sans gravure. Si les conjonctures actuelles ne sont pas des plus reluisantes de ce côté, les bleus conservent les ressources et l'expertise nécessaire à s'approprier le mouvement de mode, ici l'IA. Est-ce que Bob Swan saura guider toute cette matière grise dans la bonne direction ? Rendez-vous dans quelques années !

Un poil avant ?

Un peu de nouvelles pour Cyberpunk 2077

Un peu plus tard ...

Samsung se met à la production de puces UFS 3.0

Les 4 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Brooks, le Samedi 02 Mars 2019 à 17h20  
par Nicolas D. le Samedi 02 Mars 2019 à 16h09
Il faut chercher du côté des SoC ARM pour trouver quelques chose de plus ou moins équivalent ; c'est surtout que si le produit existe bel et bien, il n'y a pas - à ma connaissance - d'applications aussi frappantes que les voitures autonomes.
Je ne connais pas tout ce qui est SoC ARM. Le grand intérêt de NCS2 est qu'il soit compatible avec OpenVino; c'est ce qui fait sa force pour nous (société Elter).
On peut faire beaucoup de choses avec un NCS : maintenance prédictive, sécurité, etc. L'idée est de déporter le calcul au pied du capteur, et par la même occasion de se passer du cloud (très pratique pour tout ce qui est réglementation RGPD !).
Mais je suis assez d'accord sur le pb de use cases; c'est un pb plus général à l'IA que celui du NCS je pense !
par Nicolas D., le Samedi 02 Mars 2019 à 16h09  
par Brooks le Samedi 02 Mars 2019 à 09h09
Bonjour, le movidius correspond au Neural Compute Stick (NCS) . Il y a depuis quelques mois un NCS 2. Le soft d'optimisation du NCS est openvino et est régulièrement mis à jour pour prendre en compte un maximum d'opérations des grandes APIs du deep learning (tensorflow, Caffe etc.).

Le NCS2 coûte moins de 100 dollars, la Jetson Xavier de Nvidia vaut plus de 10 fois son prix. Je ne vois pas d'autres concurrents sérieux à ces deux solutions embarquées. De fait, Intel occupe une place importante pour l'ia embarquée (pas cher, on peut commencer à imaginer un couplage ncs2 + IoT) . Et de plus en plus importante pour l'ia sur cpu grâce à un openvino performant.
Il faut chercher du côté des SoC ARM pour trouver quelques chose de plus ou moins équivalent ; c'est surtout que si le produit existe bel et bien, il n'y a pas - à ma connaissance - d'applications aussi frappantes que les voitures autonomes.
par Brooks, le Samedi 02 Mars 2019 à 09h09  
Bonjour, le movidius correspond au Neural Compute Stick (NCS) . Il y a depuis quelques mois un NCS 2. Le soft d'optimisation du NCS est openvino et est régulièrement mis à jour pour prendre en compte un maximum d'opérations des grandes APIs du deep learning (tensorflow, Caffe etc.).

Le NCS2 coûte moins de 100 dollars, la Jetson Xavier de Nvidia vaut plus de 10 fois son prix. Je ne vois pas d'autres concurrents sérieux à ces deux solutions embarquées. De fait, Intel occupe une place importante pour l'ia embarquée (pas cher, on peut commencer à imaginer un couplage ncs2 + IoT) . Et de plus en plus importante pour l'ia sur cpu grâce à un openvino performant.
par Un hardeur des ragots des Hauts-de-France, le Vendredi 01 Mars 2019 à 17h08  
De l'intelligence artificielle pour rendre la plèbe encore plus con ,tout un programme d'avenir.