À chacun ses manques : les data centers souffrent d'une penurie d'A100 |
————— 09 Décembre 2020 à 09h45 —— 9738 vues
À chacun ses manques : les data centers souffrent d'une penurie d'A100 |
————— 09 Décembre 2020 à 09h45 —— 9738 vues
Présenté en mai, l'A100 est l’énorme GPU — le plus gros d'ailleurs, et plus c'est gros, plus il est difficile d'obtenir un bon rendement — Ampere à tout faire de Nvidia pour les professionnels, une puce qui vise un marché d'autant plus large que le GPU supporte de nombreuses instructions et existe depuis peu aussi avec une capacité de HBM2 doublée à 80 Go par rapport à l'original, ainsi que dans un format carte PCIe 4.0. Apparemment, la demande serait très forte du côté des data centers, le monde de la science et le domaine du High Performance Computing, au point où le Vice President of Accelerated Computing Business Unit de Nvidia, Ian Buck, a admis qu'il faudra probablement plusieurs mois pour permettre à sa compagnie honorer son carnet de commandes et rattraper la demande !
Sans surprise, en bon porte-parole de son église et en écho à son grand patron, Ian Buck explique que ce succès est dû à la forte croissance des activités d’entraînement et d'inférence en IA, et comme leur architecture change évidemment la donne « comme à chaque fois » et que l'A100 est 20 fois plus performant que le prédécesseur V100, l’intérêt pour leurs produits a explosé, tout simplement ! Dur d'être trop bon, hein ? Pffiou.
En quoi est-ce que ça nous concerne ? Les difficultés de produire suffisamment d'A100 ne sont évidemment pas directement liées à celles des RTX 3000, ces dernières sont conçues à partir du procédé 8 nm de Samsung, mais l'A100 est fabriqué chez TSMC sur son 7 nm. Et on sait très bien que le 7 nm est l'un des procédés les plus populaires en ce moment, utilisé pour la production en masse de nombreuses puces, notamment chez AMD qui en a besoin pour ses processeurs, ses GPU et les SoC pour les consoles next-gen !
À partir des propos d'Ian Buck, on peut donc aisément imaginer la situation tendue (mais ô combien profitable) chez TSMC et qu'il faudra effectivement plusieurs mois avant d’espérer voir un début de normalisation, certainement aussi en fonction de la taille du machin à fabriquer — un A100 fait tout de même 826 mm² avec 54,2 milliards de transistors, Navi 21 affiche « seulement » 520 mm² et 26,8 milliards. Bien entendu, d'autres aspects sont à prendre un compte, avec un GPU et un CPU viennent aussi toute une myriade d'autres puces importantes, et qui peuvent aussi souffrir d'une production désormais insuffisante face à la demande croissante.
En tout cas, tout ceci réaffirme surtout le statut de fondeur tout puissant et l'importance cruciale de TSMC et de ses procédés, et ce n'est certainement pas près de changer, mais une concentration aussi forte a évidemment ses limites et devient déjà clairement problématique... Pour l'anecdote, on ne sait pas exactement combien coûte un A100, considérant qu'une Tesla V100 SXM2 se trouve pour 14500 $ chez des revendeurs, on peut imaginer que la grosse Ampere s'arrache facilement pour plus des mains de Nvidia. (Source)
Un poil avant ?Chez Icy Dock, disque dur & SSD sont les nouveaux CD | Un peu plus tard ...Encore du très lourd chez Qnap, avec le TSH973AX ! |