Le Deep Learning et les UV extrêmes, un mariage à tenter ? |
————— 02 Juillet 2019 à 10h45 —— 9549 vues
Le Deep Learning et les UV extrêmes, un mariage à tenter ? |
————— 02 Juillet 2019 à 10h45 —— 9549 vues
Pour fabriquer un processeur, il faut graver les transistors sur le silicium via un procédé complexe se chiffrant en dizaine d'étapes. Et pour cela, il est nécessaire d'avoir au préalable réalisé des masques. Réutilisables entre chaque fournée de wafers de silicium (les fameuses galettes de 300mm de diamètre, sur lesquelles sont manufacturés les CPU), ces masques sont, pour la gravure en 14 nm, une simple couche de chrome sur un substrat en verre ; laissant ou non passer la lumière lors des phases d'exposition.
Cependant, pour les UV extrêmes, l'histoire est plus complexe du fait de la puissance des rayons utilisés. Il faut réaliser un pochoir de pas moins de 40 à 50 couches alternant du silicium et du molybdène : la structure peut toujours être produite en masse, par contre la probabilité d'obtenir un défaut de masque est bien plus grande. Et un défaut du masque est une des pires choses qui puisse arriver : toutes les puces gravées présenteront à minima un défaut. Étant donnée la fiabilité déjà difficilement contrôlable de la gravure en elle-même, voilà un obstacle dont on se passerait bien.
Une petite vue en coupe d'un masque EUV (Source)
Habituellement, une pellicule est disposée sur les masques afin d'éviter tout contact avec d'éventuelles poussières, mais les EUV complexifient ici aussi la chose avec un risque de fusion de la pellicule et ainsi d’endommagement du masque. C'est pourquoi les premiers essais sont conduits sans cette pellicule : il faut alors contrôler la qualité du masque par gravure d'un wafer spécial, qui est par la suite inspecté à la recherche de défaut... bloquant la production. Si la présence d'un défaut est avérée, il faut alors nettoyer le masque, un processus long et coûteux.
C'est ici que pourrait intervenir le Deep Learning. Les réseaux de neurones sont connus pour être particulièrement efficaces sur des détections de motifs au sein d'images, et permettraient donc un gain de temps considérable pour le 7nm EUV. De par leur capacité prédictive, on peut même imaginer remplacer les tests effectués au microscope et les approximations induites par des modélisations physiques imparfaites - de moins en moins, précise au fur et à mesure que la taille des pistes se réduit - par des algorithmes, à condition bien sûr que ces derniers soient suffisamment bien entraînés. Or, c'est là qu'est le hic. Accumuler des quantités de données de l'ordre du millier dans un domaine où le secret industriel est la norme est une tâche ardue ; et les preneurs de décision sont peu enclins à se jeter dans une telle nouveauté. Seul l'avenir dira si cette piste est la bonne. (Source : Semiengineering)
Un poil avant ?Chez Micron, la production de NAND QLC monte (enfin) en puissance, puis on ralentit le tout | Un peu plus tard ...NVIDIA a aussi des chiplets, mais c'est pour l'IA |