COMPTOIR
register

×

mise en œuvre du SoIC pour les premier CPU 3D de chez AMD

Regardons plus en détail le 3D V-cache des prochains CPU AMD
mise en œuvre du SoIC pour les premier CPU 3D de chez AMD
méthode de conception 3D via F2B

La semaine dernière, nous vous présentions la dernière nouveauté technologique que veut pousser AMD dans leurs CPU d'ici quelques mois : le 3D V-cache, une technique qui permet l'empilement des caches de L3 afin d'apporter plusieurs avantages, comme une densité plus élevée ou des débits supérieurs. Toutefois, il convient d'apporter plus de détails sur cette innovation qui a déjà été vue par le passé sur plusieurs segments de l'électronique à basse consommation. Alors c'est parti, mettons les mains dans le cambouis et déchiffrons tout ça.

 

Une histoire de couches

Rien à voir avec nos habituelles profanations sur les fuites, nous allons nous intéresser à la partie purement électronique avant de chercher les avantages et inconvénients de cette technologie. En effet, les technologies dites 2.5D et 3D sont devenues de plus en plus fréquentes sur le segment des puces à faible consommation, car des dies de petite taille sont plus simples à mettre en œuvre - et moins couteux - que des monstres dédiés au HPL - le High Power Logic, terme regroupant les unités de traitement (ASIC, CPU, FPGA...) de forte puissance. Au-delà des annonces flamboyantes de Lisa Su, il convient de prendre en compte que de base nous avons le droit à une technologie 3D, mais qui reste exploitée en 2.5D.

 

wikichip soic exemple

Exemples de topologies 2D (a), 2.5 D (b et c) et 3D (d).

 

Pour mieux comprendre le principe de base, AMD s'appuie très probablement vu les chiffres annoncés sur le SoIC mis au point par TSMC, une technologie qui permet la création de circuits 3D purs grâce à l'utilisation de contacts directs ou de TSV, des fils de cuivres qui traversent le die, comme sur les technologies d'Intel. Par contre, pour des raisons de cout de R&D et probablement de vitesse, cette technologie va être appliquée dans un premier temps sur des puces Zen3, qui ne sont pas adaptées dès le départ à ce type d'utilisation, réalisant des empilements de 2 puces maximum, face contre face - face-to-face - et de circuits similaires. De ce fait, nous parlons donc de technologies 2.5D pour l'instant, car il est impossible sur cette première génération d'empiler des puces différentes à l'infini.

 

Par contre, il est très probable à l'avenir de voir des empilements de couches de 3D V-cache sans problème en passant au face contre dos - F2B ou face-to-back - dès les générations Zen4, avec cette fois-ci un empilement directement sur les CCD du CPU. Une grosse innovation qui sera rendue possible grâce aux travaux de TSMC à ce sujet depuis quelques années déjà, et un tel développement était pressenti depuis quelques mois. En revanche, il convient d'étudier maintenant pourquoi passer à cette étape supérieure.

 

Les puces 3D, la solution ultime ?

Empiler les modules de mémoire, c'est une chose que l'on voit depuis l'apparition des puces HBM, et dans le computing depuis les puces basées sur le Foveros d'Intel - Lakefield, mais aussi quelques FPGA. Ici, nous avons la première annonce - il n'est pas impossible d'avoir des surprises ailleurs - de l'utilisation de ces technologies 3D dans la création de puces HPL grand public, et cela va très probablement changer les choses pour nos futurs CPU et GPU.

 

mise en œuvre du SoIC pour les premier CPU 3D de chez AMD [cliquer pour agrandir]

Bien que dans un premier temps cela reste limité à du 2.5D, AMD utlise des méthodes de conception proches des circuits 3D.

 

Premièrement, le passage en 3D permet d'optimiser le câblage interne et de réduire la longueur des pistes pour une même surface, ce qui a des incidences intéressantes sur les performances. Car en améliorant le routage, les temps de propagation - le temps pour aller d'un point A à B d'un signal électrique - deviennent plus faibles, réduisant la latence et autorisant des montées à des fréquences plus élevées. Et pas de blagues, malgré les distances en apparence courtes, cela joue réellement de nos jours, le passage en 3D permet donc de gagner en latence et en débit, surtout sur des dies de "grande taille" comme employé sur un CPU.

 

Autre avantage, c'est que cette optimisation du câblage réduit aussi les pertes énergétiques lors des communications via l'interconnect, un sujet important lorsqu'un SoC - comme un CPU Ryzen - est divisé en chiplets. Par exemple, sur Lakefield, il est estimé que les communications coutent 0,15 pj/bit, où le 3D V-cache - s'il est réellement basé sur les technologies connues de chez TSMC - pourrait couter que 0,05 pj/bit, soit 3 fois moins. Les derniers chiffres connus pour les interconnects des puces Zen donnent au mieux une efficacité de 2 pj/bit, soit 50 fois plus que ce que semble offrir le 3D V-cache, ce qui amènerait à obtenir des CCD moins gourmands et moins chauds.

 

Enfin, fabriquer en 3D permettra d'améliorer grandement les process de fabrication et la miniaturisation. En effet, la densité plus élevée des connexions entre dies donnera plus de transistors possibles, et facilitera la démocratisation des unités spécialisées. Car avec une topologie en F2B, il sera possible d'empiler des chiplets différents et avec des intérêts particuliers, sans devoir agrandir les dies. Alors non, pour l'instant vous ne verrez pas des couches de CCD, puisqu'il sera difficile de les faire refroidir, par contre ajouter des unités de gestions de l'alimentation, des capteurs, des unités dédiées à l'IA ou au chiffrement, les puces d'I/O...

 

méthode de conception 3D via F2B [cliquer pour agrandir]

Le SoIC permettrait d'améliorer la densité des puces en empilant différents éléments au-dessus des unités de traitement.

 

Passer en 3D permettra donc de supprimer certains soucis rencontrés par les concepteurs de puces lorsqu'il faut passer en chiplet ou en multi die. Ici, nous ne sommes pas encore sur une immense innovation de la part d'AMD, mais plutôt d'une preuve de concept, une tentative pour valider l'intérêt d'une telle technologie de nos jours. Cela va se regrouper avec d'autres rumeurs et fuites en tout genre, comme l'utilisation de chiplets sur les GPU, et il est très fort probable que les rouges ne seront pas les seuls à ce sujet, par contre, ils pourraient être les premiers à communiquer et commercialiser des puces HPL en 2.5D pour le grand public. Un passage à une étape supérieure, qui s'éloignera un peu de la course à la miniaturisation et en lancera probablement une nouvelle : la course à l'empilement, qui elle a déjà commencé chez les fabricants de NAND. (source : Wikichip)

Un poil avant ?

PNY donne les raisons de la grosse baisse de l'endurance de son SSD XLR8 CS3030

Un peu plus tard ...

Test • GIGABYTE RTX 3080 Ti EAGLE

Les 36 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un adepte de Godwin en Zurich, le Lundi 02 Août 2021 à 12h32  
par _m_ le Mardi 08 Juin 2021 à 13h23
Il y a un truc qui me turlupine depuis le début: comment arrivent-ils à graver 64Mo de cache sur pile-poil la même surface (+la zone InfinityFabric) que les 32Mo pré-éxistant, en utilisant le même node de gravure?
Il a-t-il en réalité 3 couches? Est-ce une autre techno de mémoire? (SRAM pour le v-cache, le L3 du dessous serait-il autre chose)? Mais du coup, ce ne serait donc pas deux chips identiques. On passe en catégorie 3D du coup?
C'est juste un schéma ce n'est pas representatif de la place prise par chaque cache.
par Darth Moule, le Vendredi 11 Juin 2021 à 19h06  
Effectivement pas mal de questions avaient déjà été posées ici
Toujours aussi agréables ces discussions de comptoirs
par _m_, le Vendredi 11 Juin 2021 à 18h05  
Merci à toi aussi pour tes réponses, la ragoteuse

Je voyais que la fiabilité thermique du cache était soulevé dans les ragots précédents. Je voulais confirmation, avant de retenir cette info. Je ne soupçonnais pas ça. Mais c'est vrai que c'est logique, les ssd aussi ont une rétention qui décroit, en fonction de la température. J'étais déjà tombé sur des papiers là-dessus.
par Une ragoteuse à forte poitrine en Auvergne-Rhône-Alpes, le Vendredi 11 Juin 2021 à 13h58  
par _m_ le Vendredi 11 Juin 2021 à 10h31
Tiens ça aussi c'est une question que je m'étais déjà pausé: on parle d'ECC pour les RAM, mais les caches et mêmes les registres cpu, ils ont aussi leurs mécanismes de protections anti-bit-flips? Peut-être est-ce une des features de démarcations des gammes Pro, ou c'est de base partout?
Le problème c'est que les questions que tu poses n'ont pas/ou rarement de réponse publique.
Sur la fiabilité des cellules de SRAM en fonction de la température il doit y avoir quelques resultats mais faut les chercher (c'est très specifique comme question) ce que je peux dire c'est qu'avec la température le leakage augmente.

Par rapport au protection anti-bit-flip le problème c'est que c'est des details de microarchitecture non documenté par les fabriquant. On peut trouver des brevets mais comment savoir si ils sont appliqué ?
Par exemple il y a un brevet passionnant de Intel (1) où ils proposent d'utiliser des checksum sur les registres et les résidu d'operation sur les checksum pour détecter des erreurs de calcul et de rejouer les opérations qui donne ce résultat pour limiter ce genre de problème.
On sait aussi par exemple que les lignes de caches de chez AMD ont des ECC. Mais se sont que des petits details, et tout n'est pas dit publiquement.

(1): Intel Patent: Recoverable parity and residue error
par _m_, le Vendredi 11 Juin 2021 à 11h38  
Alors pourquoi depuis 20 ans on nous refourgue de la ram non protéger

Pour les transmissions, ça me paraît plus évident. Moi aussi, ça ne me viendrait pas là l'idée de sortir non protégé sur mes pauv' com. uart/spi. (et encore, paraît que sur la DDR5, ils ne compte protèger que les dies avec leur ECC, pas les transmissions, alors même que c'est leur vitesses qui vont exploser A moins qu'elles n'aient une autre protection sur une couche inférieure?).

Mais pour le stockage ou les accès intra-die, j'image que ça doit avoir un coût (en transistors, peut-être en traitements/latences, si c'est pas complètement du temps masqué...), alors si les ingénieurs ont une confiance absolue dans leur design, ça ne m'aurait pas choqué qu'ils en face l'économie.
Mais selon toi, L1/L2/L3 sont bien systématiquement protégé? C'est rassurant.
par Guillaume L., le Vendredi 11 Juin 2021 à 11h06  
par _m_ le Vendredi 11 Juin 2021 à 10h31
Woaw, merci pour les recherches que tu as faites tous spécialement.
J'en appelais juste à ta culture général sur le sujet. A moins que la question ne te turlupine également, inutile d'y consacrer plus de temps. Mais si tu en apprends d'avantage, je serais ravi d'enrichir la mienne

Tiens ça aussi c'est une question que je m'étais déjà pausé: on parle d'ECC pour les RAM, mais les caches et mêmes les registres cpu, ils ont aussi leurs mécanismes de protections anti-bit-flips? Peut-être est-ce une des features de démarcations des gammes Pro, ou c'est de base partout?
Alors comme je l'ai dit, c'est mon boulot, et pas que pour le Comptoir donc pas d'inquiétudes sur le fait que j'y ai accordé du temps

L'ECC sinon, t'en a strictement partout, c'est une des grandes bases des communications numériques . Il y en a de plusieurs sortes, et souvent ce n'est pas cité, parce que bon c'est une base
par _m_, le Vendredi 11 Juin 2021 à 10h31  
Woaw, merci pour les recherches que tu as faites tous spécialement.
J'en appelais juste à ta culture général sur le sujet. A moins que la question ne te turlupine également, inutile d'y consacrer plus de temps. Mais si tu en apprends d'avantage, je serais ravi d'enrichir la mienne
par Guillaume L. le Vendredi 11 Juin 2021 à 09h32
C'est probablement compensé par de la correction d'erreur, mais autant limiter ce problème en réduisant la température.
Tiens ça aussi c'est une question que je m'étais déjà pausé: on parle d'ECC pour les RAM, mais les caches et mêmes les registres cpu, ils ont aussi leurs mécanismes de protections anti-bit-flips? Peut-être est-ce une des features de démarcations des gammes Pro, ou c'est de base partout?
par Guillaume L., le Vendredi 11 Juin 2021 à 09h32  
par _m_ le Vendredi 11 Juin 2021 à 08h46
Un petit up, pour statuer sur la tenue en température du cache? C'est plus fragile que le reste ou pas?
De ce que je suis allé chercher dans les thèses existantes, plutôt que la fragilité, c'est surtout une sensibilité à la température sur la qualité de stockage et de traitement des données au sein de la SRAM. C'est probablement compensé par de la correction d'erreur, mais autant limiter ce problème en réduisant la température.

Donc ce n'est pas forcément plus fragile - en théorie en tout cas - mais pour une meilleure efficacité, ce serait un des composant à refroidir absolument, histoire de stabiliser le plus que possible sa température. Néanmoins, je vais essayer de chercher d'autres documents à ce sujet

À noter aussi, la finesse de gravure joue énormément à ce sujet apparemment, j'essaie d'obtenir des études plus récentes pour voir
par _m_, le Vendredi 11 Juin 2021 à 08h46  
Un petit up, pour statuer sur la tenue en température du cache? C'est plus fragile que le reste ou pas?
par _m_, le Jeudi 10 Juin 2021 à 10h13  
par Nicolas D. le Jeudi 10 Juin 2021 à 08h49
Non, il en produit juste moins que les unités de calcul .
C'était ce que j'avais compris des échanges de Krenian et Guillaume.

 
Ensuite, ça ne pose pas de problèmes en termes de performances de poser une partie qui chauffe à une partie qui ne chauffe pas ? Dans le sens où les mémoires (que ce soit RAM ou cache) n'ont pas la même limite de température qu'une unité de calcul donc c'est pas un problème de les chevaucher ?

 
2/En théorie oui, mais comme ce seront les modules les plus proches du refroidisseur, leur température de jonction sera plus faible que celle de l'unité de calcul. En fait, l'erreur aurait été plutôt de les coller au CCD et de les mettre en-dessous, puisque là ils auraient tout pris dans la tronche sans dissipation proche

Si c'est vrai, je comprends mieux la nécessité de garder le cache au plus proche du dissipateurs, même si ils peuvent représenter un léger frein thermique pour les circuits du dessous qui calculent le plus.
Mais si c'est faux, j'enlève tout de suite cette idée de ma tête.
par Nicolas D., le Jeudi 10 Juin 2021 à 10h08  
par Guillaume L. le Jeudi 10 Juin 2021 à 09h54
Clarification : cache au-dessus pour être collé à l'IHS, ou alors Nicolas a inventé le CPU du futur
J'aimerais mais c'est vrai que, en y repensant, le cache en dessous va jamais pouvoir évacuer sa chaleur... on se prosterne tous devant notre gourou Guillaume !
par Guillaume L., le Jeudi 10 Juin 2021 à 09h54  
par Nicolas D. le Jeudi 10 Juin 2021 à 08h51
Non, tu préfères mettre le cache en-dessous qui va juste "fournir qqs Watt" et le rapprocher au maximum de l'IHS qui est "froid" afin de maximiser tes performances de refroidissement, à mon avis. Ca dépendra si il vaut mieux avoir un cache chaud que un coeur chaud, et, instinctivement, le préfère le cache.
Clarification : cache au-dessus pour être collé à l'IHS, ou alors Nicolas a inventé le CPU du futur