Intel IDC • Nervana NNP-I : Ice Lake et accélérateur de machine learning en un die pour les pros |
————— 26 Juin 2019 à 10h00 —— 11119 vues
Intel IDC • Nervana NNP-I : Ice Lake et accélérateur de machine learning en un die pour les pros |
————— 26 Juin 2019 à 10h00 —— 11119 vues
Bien que la spécialité d'Intel soit historiquement les processeurs de calcul généralistes, autrement dit les CPU, cela n'a pas empêché la firme de se diversifier entre autres par le rachat de start-up comme Movidius ou Nervana pour le domaine du machine learning. On connait déjà le NNP-L dédié aux tâches d'entraînement de réseaux de neurones dans les centres de données, voici que les bleus lèvent de voile sur le NNP-I, pour Neural Network Processor - Inference. Comme son nom l'indique, cette puce est dédiée aux prédictions de données une fois le modèle étalonné avec un ratio performance/watt non quantifié, mais au-dessus des GPU selon la maison-mère : un atout de taille si cela venait à se vérifier.
Le port USB Type-C n'est présent que pour du debug et sera retiré une fois la production de masse lancée
Si aucun chiffre n'a été dévoilé, on connait quelque peu l'agencement interne du bouzin : il comprendra plusieurs coeurs Ice Lake (combien, cela est non précisé, mais pour des questions de réutilisation de design on en voit difficilement plus de 4), son chipset compagnon modifié pour être cette fois-ci en esclave sur le bus PCIe au lieu de maître, et surtout un accélérateur d'intelligence artificielle qui remplace la partie graphique accompagnée de DSP ; partie qui prendra environ 8 fois la place des coeurs CPU. Pourquoi diable un tel changement du contrôleur PCIe ? Tout simplement parce que le bouzin est prévu pour être un système autonome de faible encombrement au sein d'un système hôte plus puissant, comme le montre le format M.2. retenu dans la version ci-dessus. Il est amusant de noter que QNAP réalisait la même idée à sa sauce pour augmenter la puissance de ses NAS - Machine Learning mis à part - comme quoi rien n'est vraiment réellement inventé de nos jours.
Le but final est d'offrir dans une enveloppe thermique restreinte (à partir de 15W, des versions pour centre de données plus testicouillues devraient suivre) la possibilité d'exécuter à la fois du code ancien sous format binaire ou du code plus récent utilisant une solution de compilation fournie. Forcément, il n'y a que dans le second cas que l'utilisateur bénéficiera de toute l'efficacité énergétique de la puce : pas de magie ! Nul doute néanmoins que cela soit utile dans le monde pro - la mise au point s'étant d'ailleurs réalisée en étroite collaboration avec Facebook - le succès dépendra placement tarifaire comparé à la concurrence.
Le chipset à gauche en 14nm, l'accélérateur à droite