Intel et l'IA, ou la lente adaptation des CPU au machine learning |
————— 01 Mars 2019 à 16h08 —— 15977 vues
Intel et l'IA, ou la lente adaptation des CPU au machine learning |
————— 01 Mars 2019 à 16h08 —— 15977 vues
Intel, un géant à la dérive ? On l'a dit et rabâché, le 14 nm est victime d'une pénurie sortie de nulle part, et le 10 nm se fait encore désirer si bien que certains y voient une mort annoncée du géant bleu. Après avoir loupé le tournant smartphone - et maintenant que ce marché est arrivé à saturation - la dernière technologie en vogue pourrait sembler passer également sous le nez d'Intel : l'IA.
En effet, les calculs effectués par les réseaux de neurones, qu'ils soient convolutionnels (CNN), récurrents (RNN) ou profonds (DNN) sont basés sur des multiplications de matrices. Si le fonctionnement complet de ces algorithmes mérite a minima un dossier dédié, tous ont en commun une structure qui peut s'exécuter très efficacement sur GPUs, qu'il s'agisse de l'apprentissage (modifier les neurones pour les entraîner à détecter une chose voulue) ou de l'inférence (utiliser la structure résultant de l'apprentissage pour le but désiré). Alors que la première opération est coûteuse en temps et en énergie, la seconde est bien plus légère : en effet, le réseau est figé, ce qui permet d'enclencher certaines optimisations basées sur le caractère statique des données.
Il est clair que du point de vue de l'adaptation matérielo-logicielle, NVIDIA mène la danse avec une gamme allant des serveurs DGX-1 prévus pour l'apprentissage des réseaux aux SoC Xavier taillés pour l'inférence dans l'embarqué - comprendre, à terme, les voitures autonomes et les robots intelligents. Une pile software est soigneusement développée à cet effet, qui fait le bonheur des industriels et leurs GPU sont les plus rapides du marché quand il s'agit de performances pures, quitte à devoir payer rubis sur l'ongle l'optimisation requise pour l'exploiter.
Cependant, Intel est loin d'avoir dit son dernier mot. En dépit des apparences, ses produits sont déjà le fruit de recherches visant à optimiser leurs performances, le plus évident étant le Xeon Phi, un accélérateur qui est depuis passé en fin de vie mais a été lourd d'enseignement pour la firme (des bruits courent par ailleurs quant à un successeur en 10 nm, mais rien de précis). De manière plus pragmatique, faire de l'accélération de calcul matriciel n'est pas nouveau, et la structure de code des algorithmes d'IA est suffisamment simple - dû à la faible présence de conditions - pour appliquer des améliorations intelligentes à la compilation et utiliser efficacement la vectorisation, taillée pour ce genre de calcul. La principale opération de calcul matricielle, la multiplication avec accumulation, est d'ailleurs présente dans les CPU sous le nom de FMA (fused multiply-add) depuis Haswell pour le grand public (2013) et Itanium chez les pro (2001(!)). Rajoutez à cela qu'un CPU reste plus généraliste que n'importe quelle carte graphique, et que, pour cette raison, certaines fermes de calcul préfèrent opter pour des serveurs partagés à CPU testicouillus plutôt qu'hybridés avec des GPU, particulièrement dans l'académique. C'est là toute la force et la faiblesse d'Intel : le x86 sur laquelle elle se base pour son business est très polyvalent et extrêmement répandu dans l'écosystème logiciel, mais doit traîner une rétrocompatibilité d'un jeu d'instruction archaïque nuisant à son rendement.
La prochaine évolution ?
Par aileurs, il n'est absolument pas délirant de rapprocher le développement de l'AVX-512 sur les gammes serveur (la Scalable Platform et le futur Cascade Lake) de l'essor de l'IA, bien que ses applications dépassent largement ce domaine. Les bleus disposent en outre de suffisamment de moyens pour racheter les start-up prometteuses qui échappent à leurs concurrents, telles Movidius (spécialisée dans l'inférence basse consommation), ou Altera et ses FPGA, bien que leur utilité dans le domaine du Machine Learning soit sujette à débat. Et tout ça sans compter Xe, la future architecture graphique, dont la période de sortie coïncide bien trop avec l'air du temps pour ne pas être étroitement liée à l'IA - le premier qui sort qu'Intel surfe sur le minage peut gentiment retourner dans sa cave !
Même d'un point de vue économique, un mastodonte comme Intel saura tenir bon nombre de modes avant de faillir, n'en déplaise à certains investisseurs qui, peu rassurés par un avenir à court terme grisonnant, pensent à quitter le navire. Il suffit de parcourir le bilan financier pour voir à quel point les ancrages de la firme sont multiples : la division mémoire se porte bien voire très bien, et la masse salariale ajoutée aux possessions matérielles d'Intel a bien trop de valeur pour être réduite à néant en quelques années, même dans des cas de domination absolue des concurrents des bleus sur l'IA.
Impossible de connaître avec précision le devenir de la firme, mais il est clair que son orientation dépendra fortement du succès de Xe. Dans un futur plus immédiat, la responsabilité incombera aux résultats du 10 nm - il n'est point d'architecture sans gravure. Si les conjonctures actuelles ne sont pas des plus reluisantes de ce côté, les bleus conservent les ressources et l'expertise nécessaire à s'approprier le mouvement de mode, ici l'IA. Est-ce que Bob Swan saura guider toute cette matière grise dans la bonne direction ? Rendez-vous dans quelques années !
Un poil avant ?Un peu de nouvelles pour Cyberpunk 2077 | Un peu plus tard ...Samsung se met à la production de puces UFS 3.0 |