COMPTOIR
  
register

Finesse de gravure : la limite à 5 nm ?

On parle souvent de la fin de la prédiction-loi de Moore (la densité d'intégration des circuits imprimés double tous les deux ans), avec comme argument la mise au point de plus en plus difficile de nouvelles finesse de gravure. La technique n'est malheureusement pas le seul écueil expliquant les multiples retards des fondeurs.

 

En effet, selon Paul Penzes, ingénieur chez Qualcomm, les améliorations induites par les die shrinks seraient de moins en moins grandes, à tel point qu'un éventuel 5 nm pourrait finir par se retrouver caduque financièrement parlant. En effet, le coût de conception de nouveaux masques s'additionnerait avec des gains en matière de performances plus faibles à cause de phénomènes de résistance, ajouté à la classique électro-migration connue du procédé FinFET. Il en résulterait une puce invendable, car trop cher vis-à-vis de l'amélioration de performances qu'elle fournirait.

 

Pour le 7 nm, la relève semble tout de même assurée : les gains en consommation seraient compris entre 10 et 25% (alors qu'ils étaient de 35% pour le 10 nm), ceux en réduction de surface s'élèveraient à 20-30% (contre 37% lors du passage au 10 nm). Techniquement parlant, une gravure en 5 nm reste néanmoins toujours possible ; la limite technique de gravure se situant aux alentours des 3,5 nm.

 

Au niveau de l'implémentation de nouvelles technologies, Samsung, déjà leader sur le 10 nm LPP, caracole en tête : d'ici 2020, une usine devrait être prête pour le lancement en production de puces en 4 nm via des transistors gate-all-around. Quelques autres générations pourraient suivre, mais le silicium ne permettra pas de descendre en dessous des 2 nm : il faudra alors se tourner vers d'autres matériaux, dont possiblement le graphène. (Source : EETimes)

 

wafer chercheur

Un poil avant ?

Se balader dans Manhattan au pied des buildings informatiques

Un peu plus tard ...

Gamotron • Les pauvres ont la glace en hiver...

Les 48 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un #ragoteur déconnecté embusqué, le Mardi 27 Mars 2018 à 05h26  
par Scrabble, le Lundi 26 Mars 2018 à 17h36
C'est pas une solution temporaire, c'est LA solution définitive. Tu est au courant que la perf/coeur n'évoluera plus jamais ?


Dire que le coût d'une augmentation d'IPC augmente sévèrement à mesure qu'on avance, je veux bien, mais aller jusqu'à dire que la multiplication des cores généralistes est la seule et unique voie, c'est "un peu" gros...

C'est d'autant plus idiot qu'on a déjà des SIMD et des processeurs massivement parallèles pour ça, donc au contraire il faudrait sérieusement s'atteler à (re)faire du core simple et très rapide pour diriger tout ça : précisément l'inverse de ce que tu préconises et quelque part un retour aux origines du PC...
par Un ragoteur sans nom embusqué, le Mardi 27 Mars 2018 à 00h21  
par Un ragoteur qui a hâte.. embusqué, le Dimanche 25 Mars 2018 à 00h20
Perso je préfère envisager l'optronique qui sera optimal niveau chaleur, quantité des données et nature des données à transmettre à un procc quantique : Le système binaire par exemple est exploitable pour envoyer des instructions à calculer à un "module" quantique mais en optronique il parait que ce sera nettement plus poussé et d'une autre échelle (déjà plu trop binaire, et si l'on compare par exemple avec la différence entre le réseau internet passant par du cuivre à celle optique, plu trop obstruée non plus...)
L'optronique n'est pas une solution viable pour le calcul numérique car le rendement lumineux d'une diode est très mauvais tout comme son temps de commutation d'où le travail en modulation pour les réseaux optiques.

Des oscillateurs hyperfréquences de l'ordre de la dizaine de GigaHertz sont uniquement possible en alliant le silicium au germanium à température ambiante et peuvent même atteindre la centaine de GigaHertz sous azote liquide mais cela reste très onéreux d'où leur niche pour le moment dans les communications radios (e.g. WiFi, 5G, etc). A voir si le rapport performance/prix permettra aux concepteurs de microprocesseurs de contenir le contenir le prix en limitant le nombre de coeurs par exemple dont celui n'offre qu'un gain de performance très limité à certaines applications.
par Un ragoteur sans nom embusqué, le Lundi 26 Mars 2018 à 23h51  
par Un ragoteur qui draille embusqué, le Samedi 24 Mars 2018 à 20h59
Je pense y ont déjà pensé, mais pourquoi ne pas faire des puce en 3D ? actuellement les cpu c'est des transistor poser sur un surface plate en 2D
La technologie FinFET c'est déjà de la 3D puisque la géométrie du transistor n'est plus planaire.

De toute manière la 3D par empilement ne fait qu'augmenter la densité surfacique sans diminuer la consommation ni la quantité de matière première nécessaire tout augmentant le coût global de production. Son seul intérêt c'est l'intégration sur des appareils mobiles de luxe style smartphones.
par Un ragoteur sans nom embusqué, le Lundi 26 Mars 2018 à 18h24  
par Feunoir, le Dimanche 25 Mars 2018 à 09h02
entre 1 et 3nm en taille de gate, le transistor commence à fuir par effet tunnel. un transistor qui fuit sert a rien. donc oui la limite est proche.
Un transistor FET planaire fuit déjà sous les 20nm d'où la transformation géométrique du transistor FinFET.

 

Même sans ça, les atomes ayant une taille, une taille de gate qui décroit sans arrêt c'est comme une croissance infinie dans un monde fini, il y a un loup quelque part, mais elle on sera pas la pour le voir(cela va être moche à vivre je pense)


L'intérêt de la réduction de la taille du transistor c'est surtout pour la baisse de sa consommation permettant d'augmenter ses performances tout en limitant son coût de production par une économie de matière première.

Actuellement pour la technologie FinFET l'économie de silicium est nulle tout en augmentant le coût de conception pour un maigre gain de consommation (tension de fonctionnement entre 0,7 V et 0,8 V).

Bref, la singularité technologique si elle devait voir le jour, vous ne la verrez pas sur une roadmap AMD, Intel ou nVidia.
par Un ragoteur sans nom embusqué, le Lundi 26 Mars 2018 à 18h09  
par Juste Leblanc ( .Y . ) embusqué, le Samedi 24 Mars 2018 à 23h49
Et pourtant, le monde ce dirige de plus en plus vers ce mode de consommation du tout dématérialisée/loué avec abonnement...
La mutualisation c'est plus écologique
C'est surtout plus profitable pour les oligarques!

Contrairement à la pensée utopique collectiviste, une économie qui n'est pas soumise à une concurrence non faussée est polluante car la rente n'incite pas à la recherche de solutions plus performantes. De plus, il est notable que les services publiques sont peu efficients...
par Un ragoteur sans nom embusqué, le Lundi 26 Mars 2018 à 17h56  
La limite d'une technologie c'est toujours le porte-feuille du client!

Je pense que l'hyperinflation des composants électroniques compensant la faiblesse de la demande mondiale, malgré la propagande des spéculateurs de fausses monnaies cryptographiques, sera source de l'éclatement de la bulle techno 2.0. Ce qui était "spéculativement" possible pour demain ne le sera plus pour après-demain voir même dans un mois.

Au delà de la technique, le pognon est et restera toujours le nerf de la guerre.

Actuellement c'est une guerre économique qui se prépare entre la Chine expansionniste avide du pognon de l'occident pour conquérir l'Asie voir le monde et les Etats-Unis en déficit chronique de fait en perte d'influence sur le monde.

Si les Etats-Unis opposent des barrières douanières à la Chine pour réduire leur déficit commerciale et faire respecter leur propriété intellectuelle, il est très probable que la Silicon Valley devra très rapidement réduire ses ambitions par la perte sèche de la profitabilité de la misère asiatique (cf. main d'oeuvre à bas coût et pollution de l'industrie du semiconducteur) et nombre de projets devront être revisé voir simplement annulé.

Le secteur technologique ne sera plus un bien de consommation mais deviendra un actif stratégique pour chaque état et finira pas être subventionné par le contribuable directement ou un indirectement par commande publique (cf. le Rafale by Dassault).
par Scrabble, le Lundi 26 Mars 2018 à 17h36  
par YulFi, le Lundi 26 Mars 2018 à 16h29
Multiplier les coeurs n'est qu'une demi-solution temporaire. Rien ne vaut une bonne augmentation de la perf / coeur.
C'est pas une solution temporaire, c'est LA solution définitive. Tu est au courant que la perf/coeur n'évoluera plus jamais ?
par YulFi, le Lundi 26 Mars 2018 à 16h29  
par Un ragoteur qui draille embusqué, le Dimanche 25 Mars 2018 à 11h34
suffit de faire des cpu plus gros avec plus de coeurs ou est le probleme ?

AMD Epyc en est la preuve, suffit de faire plus gros et plus puissant. Un smartphone > 6 pouce y'a moyen de caser 2 CPU 8 coeurs ou 1 seul gros cpu comme les puces ThunderX 48 coeurs
Pour la batterie suffit la aussi d'en mettre une plus grosse, les smartphones peuvent perdre 2-3mm d'épeisseur c'est pas un probleme.
La puissance de tous les coeurs ne s'additionne pas, il faut que l'appli soit prévu pour et que ce soit possible. On ne peut pas tout paralléliser.
Et même lorsque l'on parallélise un algorithme (mot à la mode) se pose les problèmes de partage / d'accès aux données qui ralentissent les calculs. Multiplier les coeurs n'est qu'une demi-solution temporaire. Rien ne vaut une bonne augmentation de la perf / coeur.
par Un #ragoteur déconnecté embusqué, le Lundi 26 Mars 2018 à 14h39  
par Ragots embusqué, le Lundi 26 Mars 2018 à 11h41
Non t'as pas mis la virgule au bon endroit C'est 0.11 nm de rayon.
Faut réussir à conserver le comportement semi-conducteur, donc on ne peut pas se contenter d'un seul atome.

Par contre, il est tout à fait envisageable de changer de type de transistors et d'y gagner beaucoup, c'est déjà un peu le principe des finFETs, qui pourraient effectivement dans un premier temps passer à la 3D comme la V-NAND (canal "vertical" et non plus "horizontal"... si ça rappelle aussi la Z-RAM c'est normal)
par Thamiya embusqué, le Lundi 26 Mars 2018 à 11h56  
par Ragots embusqué, le Lundi 26 Mars 2018 à 11h41
Non t'as pas mis la virgule au bon endroit C'est 0.11 nm de rayon.
Ah vui au temps pour moi, j'ai glissé chef
Bah 1.1 °A comme ça c'est plus simple comme unité
par Ragots embusqué, le Lundi 26 Mars 2018 à 11h41  
par Thamiya embusqué, le Lundi 26 Mars 2018 à 11h18
Bah, la limite ça va être la taille de l'atome et de l'électron, et on en est plus si loin !

Le silicium à un rayon atomique de 110pm (1,1nm) donc pour passer en dessous de 2.2nm de gravure, ça va être compliqué de couper les atomes en 2 !
Non t'as pas mis la virgule au bon endroit C'est 0.11 nm de rayon.
par Thamiya embusqué, le Lundi 26 Mars 2018 à 11h18  
Bah, la limite ça va être la taille de l'atome et de l'électron, et on en est plus si loin !

Le silicium à un rayon atomique de 110pm (1,1nm) donc pour passer en dessous de 2.2nm de gravure, ça va être compliqué de couper les atomes en 2 !