COMPTOIR
  
register

×

AD102 die interpretation par Locuza

Quel coût pour le design d'une puce complexe ?
AD102 die interpretation par Locuza
AD102 AD103 vs microSD

On parle souvent du tarif prohibitif des puces graphiques du moment, sous couvert d'inflationnisme... sur la complexité des dites puces. On veut bien entendre cette rhétorique, avec par exemple — choisi au hasard — un AD102 aux commandes sur une RTX 4090 embarquant officiellement 76,3 milliards de transistors sur 608,5 mm², ça fait un sacré paquet de portes à caler dans le silicium. Nous citons la puce monolithique grand public la plus balaize du moment, mais cela dit même sur des puces moins huppées, on compte également plusieurs milliards de transistors.

Une complexité accrue avec la fin des transistors planaires et l'arrivée des transistors 3D de type FinFET il y a une petite dizaine d'années, puis amplifiée par les process de gravure 7 et 5 nm. Si les GAAFETs ou leurs équivalents ne devaient pas en rajouter une couche (vous noterez ce jeu de mot exceptionnel), la mise au point des masques 3 en 2 nm devrait voir leurs coûts continuer de grimper, en tout cas selon les observations d'IBS, consultants spécialisés dans l'industrie électronique.

 

AD102 die interpretation par Locuza [cliquer pour agrandir]

608,5 mm² de die commentés sur AD102 en 4N © Locuza + Semianalysis

 

Selon ces derniers, le coût moyen du développement d'une grosse puce (et seulement de la puce) en 2 nm coûterait environ 725 millions de dolls, dont une quasi-moitié dédiée uniquement à la partie software. On est loin de l'augmentation des coûts observés lors du passage au 7 nm, mais à chaque node de gravure franchi depuis c'est environ + 30% dans le goulot ; on est effectivement loin de la conjecture de Moore qui anticipait le même niveau ponctuel de performance pour la moitié de coût de fabrication. C'est une estimation basée sur une conception nouvelle de A à Z, incluant donc l'ensemble des phases, propriété intellectuelle compris, chaque conception de puce n'en demandera pas autant. Restera à optimiser la production en vue d'allouer au mieux chaque wafer de silicium commandé... Dont les prix ont également augmentés avec le temps.

 

ic design cost 28nm 2nm ibs

 

Cela donne cela dit une idée de ce que peut coûter une plateforme entière d'où découlera le gros ( littéralement ) GPU utilisé de votre carte graphique flambante neuve, ou d'un GPU destiné à l'entrainement de réseaux neuronaux artificiels. On comprend dès lors l"emploi massif de l'IA dans ces secteurs pour réduire la facture — avec des sociétés comme Cadence, dont on entend pas mal parler depuis quelques mois — , qui d'une manière ou d'une autre, est toujours répercutée sur vos petites épaules frêles de clients. (source : the Transcript, via Tom's)

 

AD102 AD103 vs microSD [cliquer pour agrandir]

AD102, AD103 et une carte SD. Juste pour se rendre compte © Locuza

Un poil avant ?

Q2 2023 : +11,6 % de GPU vendus, et champagne chez AMD

Un peu plus tard ...

Record de densité sur un die de DDR5 : 32 Gbit !

Les 9 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Jemporte, le Mardi 05 Septembre 2023 à 21h55  
par Un ragoteur 'ArthaX' du Centre-Val de Loire, le Lundi 04 Septembre 2023 à 21h46
J'en ai déjà parlé ici que mes collègues ont eu l'opportunité de participer à la conception d'un SoC pour un de nos clients. Mais ça ne s'est pas fait, car pas assez de puces à produire pour être rentable.
Voici quelques chiffres. Effectivement pour faire un SoC en 28nm demande un investissement de ~50 millions de $. Mais avec la conception mise à disposition par ARM, vous pouvez diviser par 2 l'investissement.
Sur une projection de 10.000 galettes et une puce 75mm², l'investissement revient à ~4$ par puce (~6 millions de puces au total).
Mais la société qui a conçu le SoC a réussi à mener à terme la conception du SoC pour un coup de ~35 millions de $. Des équipementiers automobiles ont commandé pas mal de leurs SoC, alors que c'est des SoC pour un milieu hostile. 3 de mes collègues ont recommandé leurs SoC à d'autre clients pendant la pénurie mondiale de puces. Les 10.000 galettes ont été dévalisées, si tout va bien en 2024 ils livreront les 10.000 galettes.
La société va passer a un Cortex-A55 en ~15nm en plus du Cortex-A53 en 28nm. Pour le 10nm l'investissement est trop importante pour eux. La bonne nouvelle c'est qu'ils pensent pouvoir écouler 15.000 galettes en 5 ou 6 ans.

@++
Pour une conduite non autonome, les performances assez basiques de ces puces devraient convenir à tout pour l'automobile.
De plus, préparées aux milieux hostiles, ça rassure niveau endurance, quand on sait que Tesla, pour faire des économies sur sa modèle 3 et Y, enlève le contrôle ECC sur la RAM (qui est présent sur les modèles X et S).
par Un ragoteur 'ArthaX' du Centre-Val de Loire, le Lundi 04 Septembre 2023 à 21h46  
J'en ai déjà parlé ici que mes collègues ont eu l'opportunité de participer à la conception d'un SoC pour un de nos clients. Mais ça ne s'est pas fait, car pas assez de puces à produire pour être rentable.
Voici quelques chiffres. Effectivement pour faire un SoC en 28nm demande un investissement de ~50 millions de $. Mais avec la conception mise à disposition par ARM, vous pouvez diviser par 2 l'investissement.
Sur une projection de 10.000 galettes et une puce 75mm², l'investissement revient à ~4$ par puce (~6 millions de puces au total).
Mais la société qui a conçu le SoC a réussi à mener à terme la conception du SoC pour un coup de ~35 millions de $. Des équipementiers automobiles ont commandé pas mal de leurs SoC, alors que c'est des SoC pour un milieu hostile. 3 de mes collègues ont recommandé leurs SoC à d'autre clients pendant la pénurie mondiale de puces. Les 10.000 galettes ont été dévalisées, si tout va bien en 2024 ils livreront les 10.000 galettes.
La société va passer a un Cortex-A55 en ~15nm en plus du Cortex-A53 en 28nm. Pour le 10nm l'investissement est trop importante pour eux. La bonne nouvelle c'est qu'ils pensent pouvoir écouler 15.000 galettes en 5 ou 6 ans.

@++
par Un champion du monde embusqué, le Samedi 02 Septembre 2023 à 16h43  
Un exemple tout bête, la les entreprises balance dans tout les secteurs des ambition de machine learning et d IA
1/ car les banque valide des prêts aux entreprises qui promettent de telle ambition
2/ car des bureau de merde tel "Gartner" disent à ces mm banquier qu il faut foutre le pognon là dedans

Pour vivre ça de l intérieur dans une boîte international, ils sont en train de foutre la max sur les capteurs télémétrie etc... Dans les usines
Des budgets monstre
Sauf que à date... Bah on constitue justement pour le moment une énorme base de données, température, consommation, etc...
Ce BIG data va falloir le constituer sur des mois/années

Mais derrière il n' y a aucune garantie d un retour sur investissement
Mm si ça sera utilisable dans un cadre de mise en place d IA
Mais voilà un ou plusieurs décideurs se sont fait bercer d illusion que "c'est l avenir" sauf que y avait pas fin de la phrase "c est l avenir" oui mais pour qui

Tu prend un fabriquant de clou, t aura beau mettre toute l IA du monde, y a de grande chance que tout IA qu elle soit à la fin elle te propose le mm concept de clou que celui qui existe déjà
Faudrait ptet pas oublier que l humain aussi il a une "intelligence"
par Un champion du monde embusqué, le Samedi 02 Septembre 2023 à 16h31  
Enfin y aussi le principe de la mort programmé, ne pensez pas que ce qui est mit en vente soit le max que ce que telle ou telle entreprise est capable de proposer de mieux
Beaucoup ne vous vendent juste ce qu il faut pour se démarquer du concurrent pas ce qu ils sont en réelle capacité de vous proposer

Et ce n' est pas pour une histoire de prix, juste une histoire de pouvoir déja vous ré proposer autre chose derrière pour te ré ré passer à la caisse
Rappel ici qu un Wafer de silicium qui sert a vous pondre un gpu 4nm, c'est le mm Wafer de silicium qui servait avant a faire du 16,7,7++,"6" nm
Y a des choses qui ne change pas dans la chaîne

Un laser qui grave 2fois plus petit pour un mm transistor va consommer moins d énergie par transistor, l usine va consommer toujours autant car pour une mm consommation d énergie on va soit sortir en bout de chaîne x fois plus de puce ou autant de plus mais pour u de x fois plus de transistor donc de capacité de calcul

Le masque coûte plus cher... Euh bah oui mais derrière tu va ptet faire 4x
Et le masque tu en a 1 par machine pour toute les Wafer qui vont passer sous ce masque pour une gen de puce donnée, tu refait pas un masque par Wafer

Bref les "Fab" te dise pas la totalité de l histoire pour te faire gober que faut payer 2fois plus cher
Bref y a enorment de mensonge par omission, de non dit pour que chaque acteur de la chaîne conserve voir augmente sa marge
C est pas le monde des Bisounours où ils vont te dire l integralité de la verité
Ils ne disent que certaines verité (et pas dites en entier ce qui change bien des choses)

Leur chiffre d affaire est toujours en hausse hein
par Un champion du monde embusqué, le Samedi 02 Septembre 2023 à 16h17  
Y a surtout qqchose d oublié dans les commentaires plus bas

C est que AMD, NVIDIA, bien d autres (Qualcomm, apple, mediatek et j en passe)
Ils sont fabless
Et c est pas parceque un gpu va utiliser les process les plus pointu que des Samsung, GF, tsmc arrête et jette à la poubelles les lignes en 16, 7nm par exemple
Bref l amortissement de ses lignes se poursuit encore

Et ils continu chaque année des millions de composants pour des TV, des écran, des micro onde, des robot cuisine, domotique etc...

Ensuite on parle de densité de surface mais il faut aussi évoquer le multicouche
Le multicouche est une autre voie, que toujours faire des transistor plus petit
Y a aussi un gros budget marketing pour te pousser a surconsommer toujours plus puissant, alors que dans les faits c est coté software que les softs sont toujours plus codé avec le Luc
C est pas pour rien si tant éditeurs passent à des formule d abonnement
Ne proposant plus de fonctionnalité/innovation dans les fonctionnalité et qualité de leur soft il t obligé ainsi a être tenu par les C****es de devoir payer en permanence un abonnement

Cela à fait suite à des politique de rachat de concurrent adobe et Autodesk en sont de parfait exemple
Ou maintenant leur soft n'évolue plus mais ils ont racheté les concurrents majeurs d il y a 14ans

Et un autre aspect est aussi, on est toujours sur le bon vieux silicium, il y a d autre piste, notamment plus une piste qui ferait la gloire des laboratoire pharmaceutique qui pourrait bien détrôner dans 25ans des tsmc ou Samsung

Rappel aussi que ce n' est pas Samsung - tsmc qui invente les machines, ces d autre boîte nord européenne qui les fournissent les machines

par Jemporte, le Samedi 02 Septembre 2023 à 14h17  
par Un ragoteur de transit d'Occitanie, le Vendredi 01 Septembre 2023 à 21h01
Ma vega n'avait pas de hauteur variable, il y avait de la résine et c'était parfait.
C'était pas la Vega 2 par hasard ?
Parce que c'est ce qui a été fait sur Vega 2 avec de la poudre de carbone en guise de pâte thermique.
par Un ragoteur de transit d'Occitanie, le Vendredi 01 Septembre 2023 à 21h01  
Ma vega n'avait pas de hauteur variable, il y avait de la résine et c'était parfait.
par Jemporte, le Vendredi 01 Septembre 2023 à 16h39  
Il y a plusieurs niveaux de complexité et critères pour les coûts.
Il y a l'amortissement des machines, or suite au franchissement de la barrière EUV on recommence à investir constamment dans de nouvelles machines. Au coût du silicium (cité ) et des masques cité, s'ajoute aussi le taux de défauts par unité de surface, qui en début de process est très supérieur et rend les grosses puces très chères.
Et puis il y a le surcout des puces hybrides, assemblages de plusieurs puces. AMD semble être un expert en la matière, avec parfois des ratés : on se souvient des Vega 56/64 et de leur HBM2 de hauteur variable compensée par un supplément de pâte thermique déposée à la louche (ou pas) par le fabricant de carte vidéo.
Ce serait donc intéressant d'analyser les économies de la stratégie des cartes vidéo RDNA3.
AMD a fait des économie sur le process (5nm au lieu de 4nm=5nm+ de Nvidia), taille beaucoup plus petite, cache en 6nm (ancien process). Tous ces process étant très maîtrisés avec un minimum de puces défectueuses voir pas du tout pour la mémoire cache. Masque, process, régularité des process, tout est économique. Mais là s'arrêtent les économies et après il faut commencer à comptabiliser les surcoûts...
par Scrabble, le Vendredi 01 Septembre 2023 à 15h12  
En fait, le raisonnement à suivre est très simple : Pour un GPU comme un CPU, c'est le coût unitaire du transistor, qui conditionne le rapport perfs/prix : Etant donné que les perfs d'un CPU ou GPU sont à peu près proportionnelles au nombre de transistors qui le composent
Pendant des décennies, depuis les années 70, ce coût unitaire du transistor n'a fait que baisser, mais maintenant, il ne baisse plus tellement
Donc le rapport perfs/prix des CPU et GPU n'augmente plus tellement également
Or, comme on veut des GPU de plus en plus performants, il faut payer de plus en plus cher
Je pense que la prochaine génération de GPU (Nvidia RTX 50X0) qui sortira en 2025 aura un goût d'achèvement
On aura des CG avec 16 Go de VRAM pour le moyen de gamme, du Display Port 2.1, de la GDDR7 : Partant de là, plus vraiment de raison de changer de CG par la suite
Du reste, c'est encore plus flagrant pour les CPU : Ceux qui sont déjà équipés d'un CPU 12 coeurs ou plus n'auront plus de raison de changer pendant de nombreuses années