Après Tesla, Alibaba fait aussi ses propres puces de Machine Learning |
————— 01 Octobre 2019 à 17h45 —— 10618 vues
Après Tesla, Alibaba fait aussi ses propres puces de Machine Learning |
————— 01 Octobre 2019 à 17h45 —— 10618 vues
Alors que Tesla vient de nous faire le coup, c'est au tour d'Alibaba de sortir des accélérateurs de machine learning de derrière leur caverne. Néanmoins, cette tentative-là suit une volonté gouvernementale, Pékin ne voyant évidemment pas d'un bon œil la domination des États-Unis dans le marché juteux des cartes dédiées à l'apprentissage automatisé. C'est ainsi qu'a vu le jour T-Head (aussi nommée Pingtouge Semi), une division d'Alibaba orientée semi-conducteurs.
À l'occasion d'une conférence organisée en l'honneur de l'IA à Shanghai (WAIC 2019), la firme avait présenté un design sous jeu d'instruction RISC-V, nommé XuanTie, moulinant à 2,5 GHz selon les spécifications officielles - soit près de 40 % de plus que l'état de l'art, sortez donc les moufles. Mais ce n'est pas de cette implémentation-là qu’il est question aujourd'hui.
En effet, la direction des recherches s'est depuis recentrée vers l'Intelligance Artificielle. De nos jours, derrière ce terme barbare se cache la capacité d'algorithmes à apprendre à interagir avec le monde qu'on lui présente (détection d'images, mouvements, etc) par une décomposition plus ou moins générique et abstraite en matrices. À la suite d'un entraînement plus ou moins long, le programme a réussi à inférer les caractéristiques génériques de la tâche souhaitée, et peut alors être utilisé par les clients.
Il faut ainsi deux types de puces : le premier pour l'apprentissage, performant et principalement utilisé dans un centre de calcul (principalement des GPU à l'heure actuelle), et le second pour l'inférence, par exemple une puce dédiée dans un CPU d'architecture ARM d'un téléphone portable.
Sans surprise, Alibaba propose des solutions pour ces deux cas de figure. Pour l'IoT, la plateforme Wujian sera de mise. De faible consommation, elle incorpore tout de même un contrôleur mémoire, un GPU, et la seule réelle information communiquée est qu'elle permettrait de réduire les coûts du cycle de développement d'un bouzin reposant sur des technologies similaires de 50 %, particulièrement grâce à sa pile logicielle dédiée. Nous aurions apprécié plus de précisions...
Quant à l'apprentissage, le récemment présenté Hanguang 800 devrait à terme arriver dans les fermes de calcul à la demande de la maison-mère (le clone parfait de l'Amazon Web Service). Encore une fois, les détails sont clairsemés, tout juste sait-on que la puce est manufacturée en 12 nm pour un total d'environ 17 milliards de transistors. Sur le benchmark réputé dans le domaine ResNet-50, la firme communique sur 500 images traitées par seconde et par Watt, soit une avancée significative sur la concurrence : en moyenne, la puissance brute est 15 fois celle d'un NVIDIA T4 (et 46 fois celle d'un P4 de chez les verts toujours)... Mais nous sommes habitués dans le hardware à nous méfier des chiffres officiels.
De quoi voir dans ces efforts un désir d'indépendance technologique vis-à-vis des US ? Très probablement, et la guerre commerciale menée par Trump ne devrait qu'accélérer la chose. Difficile dans ces conditions de ne pas penser à l'absence de concurrentes européennes, notre expertise se situant davantage du côté de l'analyse et du logiciel que de la conception de masse.... Pour combien de temps encore ? (Source : WikiChip)
Un poil avant ?Comptoiroscope • Ghost Recon jusqu'au rupteur (4K) | Un peu plus tard ...Les chiplets en 3D chez TSMC ? C'est pour bientôt ? |