COMPTOIR
  
register

AMD veut unifier ses architectures GPU RDNA et CDNA sous la tutelle d’UDNA

Ayant peut-être abusé de la bière allemande, Jack Huynh était prolixe à l’IFA 2024. Outre des confidences sur les Radeon RX 8000, cartes graphiques qui cibleront l’entrée et le milieu de gamme au détriment du haut de gamme et très haut de gamme, notre discoureur du jour, toujours vice-président senior et directeur général de la branche Computing and Graphics Business Group d'AMD, a déclaré lors d’une session de Questions / Réponses avec la presse que l'entreprise pévoyait de faire fusionner ses architectures CDNA et RDNA dans une nouvelle baptisée UDNA. L’objectif affiché : rivaliser avec l’écosystème CUDA de NVIDIA.

amd mariage raden 2

Magnifique illustraton générée par Copilot

RDNA + CDNA = UDNA

Un peu de contextualisation. En 2019, AMD a délaissé sa micro-architecture GCN afin de la scinder en deux branches : RDNA d’un côté, conçue pour les cartes graphiques grand public (Radeon), CDNA de l’autre, pour les accélérateurs (Radeon Instinct) destinés aux centre de données. À l’image d’Intel, qui avait un temps plein de divisions graphiques différentes avant de finalement tout unifier, l’entreprise semble entrevoir les limites d’une telle approche.

« L'un des grands changements chez AMD est que nous disposons aujourd'hui d'une architecture CDNA pour nos GPU Instinct destinés aux centres de données et d'une architecture RDNA pour les produits grand public. Il s'agit d'une architecture divisée. À l'avenir, nous l'appellerons UDNA. Il y aura une architecture unifiée, à la fois pour Instinct et pour le client [consommateur]. Nous l'unifierons afin que ce soit beaucoup plus facile pour les développeurs qu'aujourd'hui, où ils doivent choisir, et où la progression est limitée.

Nous avons divisé notre archi parce que vous obtenez alors les sous-optimisations et les micro-optimisations, mais c'est très difficile pour ces développeurs, en particulier parce que nous développons notre activité de centre de données, et nous devons donc maintenant l'unifier […]. Je souhaite convaincre des millions de développeurs. La première étape consiste à en impliquer des centaines, des milliers, des dizaines de milliers, des centaines de milliers et, espérons-le, un jour, des millions ».

Nous vous épargnons la suite de l’interview ; elle est assez chiche en détails et peut se résumer en quelques mots. Jack Huynh pointe notamment des contraintes au niveau de la hiérarchie mémoire, pour laquelle le moindre changement nécessite beaucoup d’optimisations. Concernant la conception en tant que telle, à la question « est-ce qu’un GPU de bureau aura la même architecture qu'un MI300X ? », Jack Huynh ne répond pas explicitement mais évoque une « stratégie cloud-to-client ». De ce que nous comprenons, AMD ne va pas se lancer dans un ersatz de GeForce Now ; en revanche, l’archi sera d’abord pensée pour les accélérateurs puis adaptée au segment grand public.

L’autre incertitude concerne le délai de mise en œuvre de cette nouvelle approche. « Nous ne l'avons pas encore révélée », a déclaré Jack Huynh. Il a ajouté qu’à l'avenir, « nous pensons non seulement à RDNA 5, RDNA 6, RDNA 7, mais aussi à UDNA 6 et UDNA 7 ». Peut-être que cette stratégie ne sera donc pas effective avant au moins deux générations (les Radeon RX 8000 exploiteront RDNA 4).

Il y a plusieurs références à NVIDIA dans cette actu, et pour cause : l’entreprise régit le marché avec son écosystème CUDA depuis presque deux décennies. Et en matière d’unification, difficile de faire plus ciblé : CUDA est l’acronyme de Compute Unified Device Architecture. En pratique, NVIDIA exploite cette seule plateforme CUDA pour plusieurs secteurs : HPC, jeux, et IA. Dans un article daté de mars dernier, Reuters allègue que 4 millions de développeurs dans le monde s’appuient sur la plateforme logicielle CUDA. Pour sa part, AMD mise sur la pile logicielle open source ROCm.

Quoi qu’il en soit, à ce stade, Jack Huynh n’a rien dit des apports d’UDNA. De l’extérieur, RDNA semble surtout pâtir de l’absence d’accélérateurs IA dédiés à l’image des cœurs Tensor de NVIDIA, en place depuis 2018. RDNA 3 se contente d’une fonctionnalité appelée WMMA (Wave Matrix Multiply Accumulate). Ce pourrait être un apport bienvenu des accélérateurs Instinct.

Un poil avant ?

Acer Nitro Blade 7 : une énième console chinoise renommée

Un peu plus tard ...

AMD libérera ses APU Kraken Point début 2025

Les 3 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !