COMPTOIR
  
register

10nm chez Intel : la poutre plantée dans l'oeil du géant

On se souvient, qu'à l'époque du 45nm, le planning de lancement d'Intel était rodé et respecté. 32, 22, 14nm, Intel parlait de Tick et de Tock pour gravure fine d'une puis création d'une nouvelle architecture. Avec le 14nm, on a commencé à voir cette belle machine dériver, avec l'abandon du tick tock pour du Process, Architecture et Optimization, une invention des marketeux pour signifier que la "loi" de Moore dont la philosophie consiste à doubler la densité en transistors tous les 18 mois avait du plomb dans l'aile. Pour autant, Intel dès 2016 parlait de Cannon Lake, ses premières puces gravées en 10nm, avec un lancement prévu pour 2017.

 

A moins d'être bigleu, personne n'a vu le cul d'un moindre transistor 10nm Intel en 2017, et en 2018 finalement on en verra, sous la forme de processeurs basse tension qui trouveront place dans des NUC. On a vu plus excitant comme information, mais le desktop restera en 14nm. A moins d'être le patron d'Intel, on se rend compte que rien ne progresse comme prévu.

 

Malgré des résultats financiers en forme, et l'embauche de Jim Keller, Intel ne sait pas comment masquer la réalité : il perd du terrain/ de l'avance sur ses concurrents, et son avenir n'est pas plus joyeux. Une entreprise qui techniquement fait du sur-place est une boîte destinée à devenir banale et donc n'est plus un moteur pour son secteur. C'est ce que fait Intel en ce moment, en attendant les premiers résultats des travaux de Keller, il va serrer fort les fesses. Il se trouve que le CEO a donné des axes lors de la divulgation des résultats financiers, le 10nm arrivera très faiblement en 2018, on imagine sous la forme de ces CPU basse tension, mais le gros du volume sera lancé en 2019. On peut donc espérer l'année prochaine des processeurs Intel en 10nm, comme on peut souhaiter qu'AMD parvienne à usiner ses Ryzen 2 en 7nm comme prévu dans son planning. AMD en aurait une plus petite qu'Intel en 2019 ? Dingue !

 

intel ceo 10nm 2019

Un poil avant ?

Des soucis entre les pilotes GeFORCE 397.31 WHQL et la GTX 1060 ?

Un peu plus tard ...

Windows 10 Spring Update : finalement en mai !

Les 49 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un #ragoteur déconnecté embusqué, le Dimanche 29 Avril 2018 à 17h50  
par Un #ragoteur connecté embusqué, le Dimanche 29 Avril 2018 à 12h30
Le language de programmation C est certes vieux de 40 ans néamoins aucun de ses successeurs n'a réussi à apporter autant de substance dans un dialecte réduit à l'essentiel notamment pour concevoir un système d'exploitation fiable et performant.

C'est assez effarant de lire autant de fadaises issues d'un seul individu...
Il est juste à 200% inadapté au SMP

Le C++ qui est maintenant en vigueur est encore pire (dérives loufoques des dernières années) et c'est pas des bricolages comme OpenMP qui vont arranger les choses. Quant au système, devoir faire une archi client-serveur avec BDD locale en prime pour obtenir une app, c'est tout sauf efficient.
par Ragots embusqué, le Dimanche 29 Avril 2018 à 16h12  
par Un #ragoteur connecté embusqué, le Dimanche 29 Avril 2018 à 01h17
Je ne vois pas en quoi l'inflation du nombre de transistors par unité de surface sans réduction de la consommation unitaire permettrait d'offrir une architecture plus efficace...
Le 10nm++ sera plus performant que le 14nm d'après Intel
http://image.noelshack.com/fichiers/2018/17/7/1525018130-intel-tech-manu-14.jpg
http://image.noelshack.com/fichiers/2018/17/7/1525018197-intel-tech-manu-15.jpg
Faut juste attendre que leur process gagne en maturité. Après c'est sûr qu'ils galèrent XD
par Un #ragoteur connecté embusqué, le Dimanche 29 Avril 2018 à 12h32  
par Scrabble, le Dimanche 29 Avril 2018 à 12h27
Dans 10, 20 ou 30 ans on aura des CPU massivement parallèles.
Nostradamus is alive!
par Un #ragoteur connecté embusqué, le Dimanche 29 Avril 2018 à 12h30  
par Un #ragoteur déconnecté embusqué, le Dimanche 29 Avril 2018 à 10h02
Ce qui nous bloque depuis un moment c'est le coût du prefetcher, car pour en tirer un gain de perfs sa complexité augmente exponentiellement...
C'est bien de sortir des termes techniques mais encore faut-il les comprendre...

 

Du coup, même si sur le modèle utilisé actuellement il y a peu de chances qu'on assiste à une révolution, il est fort possible qu'un doublement de la densité permette de faire sensiblement mieux en changeant de paradigme.


Propos sans queue ni tête...

 

IBM a déjà fait ça avec ses Power et leur SMT 4 voies sur des cores très larges, le problème est que cet aspect fonctionne en HPC ou au contraire pour les serveurs (faibles besoins en calcul mais nombreuses requêtes), mais pas pour un poste de travail classique ou une plateforme multimedia domestique.


Idem.

 

Si on veut du parallélisme dans le mainstream, il va falloir sérieusement revoir le modèle de programmation, l'actuel basé sur le C avec le x86/64 bidouillé au fil des ans pour y convenir parfaitement (les modes d'adressage viennent de là et pas l'inverse) puis "optimisé" en oubliant un pwal l'aspect temps-réel initial, et enfin dont les cores se sont reproduits tels des lapins sauvages ne convenant plus (on en parlait déjà il y a 10 ans quand les quad arrivaient à peine).


Le language de programmation C est certes vieux de 40 ans néamoins aucun de ses successeurs n'a réussi à apporter autant de substance dans un dialecte réduit à l'essentiel notamment pour concevoir un système d'exploitation fiable et performant.

C'est assez effarant de lire autant de fadaises issues d'un seul individu...
par Scrabble, le Dimanche 29 Avril 2018 à 12h27  
Dans 10, 20 ou 30 ans on aura des CPU massivement parallèles.
par Un alsacien à l'heure embusqué, le Dimanche 29 Avril 2018 à 10h03  
Tes attaques à la noix, tu peux les garder, s'il te plaît. Parce que dans le genre commentaire non constructif, tu es un maître.

Sinon, on ne sait pas ce que sera un cpu dans 20 ans, certes, mais on sait ce que ça ne sera pas. En effet, les loi de la physique ne changeront pas et la structure des programme dépendant de l'architecture du processeurs, on sait qu'un empilement de processeurs x86 va trop chauffer au centre et va poser d'incroyables problèmes d'alimentation électrique et qu'un nombre de cœurs aussi énorme sera inefficient avec une architecture qui n'est pas conçue pour être multithreadé à la base.
par vasyjeannot, le Dimanche 29 Avril 2018 à 06h36
Encore un qui se prends pour le fils de dieu Le sauveur du monde informatique

Mais aimez vous les uns les autres bordel de merde

Tu n' as pas plus raison que lui, car au final personne ne sait ce que sera un CPU dans 10, 20 ou 30 ans
par Un #ragoteur déconnecté embusqué, le Dimanche 29 Avril 2018 à 10h02  
par Un #ragoteur connecté embusqué, le Dimanche 29 Avril 2018 à 01h17
Je ne vois pas en quoi l'inflation du nombre de transistors par unité de surface sans réduction de la consommation unitaire permettrait d'offrir une architecture plus efficace...
Ce qui nous bloque depuis un moment c'est le coût du prefetcher, car pour en tirer un gain de perfs sa complexité augmente exponentiellement...

Du coup, même si sur le modèle utilisé actuellement il y a peu de chances qu'on assiste à une révolution, il est fort possible qu'un doublement de la densité permette de faire sensiblement mieux en changeant de paradigme.

IBM a déjà fait ça avec ses Power et leur SMT 4 voies sur des cores très larges, le problème est que cet aspect fonctionne en HPC ou au contraire pour les serveurs (faibles besoins en calcul mais nombreuses requêtes), mais pas pour un poste de travail classique ou une plateforme multimedia domestique.

Si on veut du parallélisme dans le mainstream, il va falloir sérieusement revoir le modèle de programmation, l'actuel basé sur le C avec le x86/64 bidouillé au fil des ans pour y convenir parfaitement (les modes d'adressage viennent de là et pas l'inverse) puis "optimisé" en oubliant un pwal l'aspect temps-réel initial, et enfin dont les cores se sont reproduits tels des lapins sauvages ne convenant plus (on en parlait déjà il y a 10 ans quand les quad arrivaient à peine).
par vasyjeannot, le Dimanche 29 Avril 2018 à 06h36  
par Un alsacien à l'heure embusqué, le Samedi 28 Avril 2018 à 23h23
Et moi, j'adore les gens qui balancent des phrases toutes faites pour montrer leur arrogance et leur manque d'éducation. Déjà, en quoi est-ce une preuve d'ignorance ? Wikipédia est-il dans ton esprit obtus l'équivalent d'une farce grossière ? N'y a-t'il rien de bon sur ce site ? Est-ce là ton opinion ? Une encyclopédie collaborative grand public n'est-elle pas assez pointue pour mériter d'apparaitre sur le Comptoir ? Bref...
As-tu lu ce que propose Jemporte ? Trouves-tu vraiment que c'est une mauvaise idée que de lui apprendre que mettre 256 coeurs dans un cpu est une idée idiote et que si on veut utiliser autant de threads pour n'importe quelle programme, il ne suffit pas de le décréter puis de le recompiler en choisissant les bonnes options ? Maintenant, si pour toi, aider les autres à comprendre quand ils font fausse route, c'est montrer de l'ignorance, je me demande où se situe l'ignorance.
Encore un qui se prends pour le fils de dieu Le sauveur du monde informatique

Mais aimez vous les uns les autres bordel de merde

Tu n' as pas plus raison que lui, car au final personne ne sait ce que sera un CPU dans 10, 20 ou 30 ans

par Un médecin des ragots embusqué, le Dimanche 29 Avril 2018 à 01h24  
par Un ragoteur qui aime les embusqué, le Samedi 28 Avril 2018 à 22h02
Absence d'argument.
Fixed.
par Un #ragoteur connecté embusqué, le Dimanche 29 Avril 2018 à 01h19  
par vasyjeannot, le Samedi 28 Avril 2018 à 20h54
Ne prouve rien mais sait mieux que les autres...

par Un #ragoteur connecté embusqué, le Dimanche 29 Avril 2018 à 01h17  
par Un alsacien à l'heure embusqué, le Samedi 28 Avril 2018 à 20h16
Avec une meilleure densité de transistors, on peut imaginer une architecture plus efficace, avec à la clé un meilleure IPC, et donc un meilleure IPS sans augmenter la fréquence et donc augmenter le rendement énergétique.
Je ne vois pas en quoi l'inflation du nombre de transistors par unité de surface sans réduction de la consommation unitaire permettrait d'offrir une architecture plus efficace...

Il est sans doute possible de réorganiser les transistors pour améliorer l'efficacité énergétique cependant ceci n'est pas du ressort du procédé de fonderie mais plutôt de l'architecture matérielle.
par Un alsacien à l'heure embusqué, le Samedi 28 Avril 2018 à 23h23  
Et moi, j'adore les gens qui balancent des phrases toutes faites pour montrer leur arrogance et leur manque d'éducation. Déjà, en quoi est-ce une preuve d'ignorance ? Wikipédia est-il dans ton esprit obtus l'équivalent d'une farce grossière ? N'y a-t'il rien de bon sur ce site ? Est-ce là ton opinion ? Une encyclopédie collaborative grand public n'est-elle pas assez pointue pour mériter d'apparaitre sur le Comptoir ? Bref...
As-tu lu ce que propose Jemporte ? Trouves-tu vraiment que c'est une mauvaise idée que de lui apprendre que mettre 256 coeurs dans un cpu est une idée idiote et que si on veut utiliser autant de threads pour n'importe quelle programme, il ne suffit pas de le décréter puis de le recompiler en choisissant les bonnes options ? Maintenant, si pour toi, aider les autres à comprendre quand ils font fausse route, c'est montrer de l'ignorance, je me demande où se situe l'ignorance.
par vasyjeannot, le Samedi 28 Avril 2018 à 20h54
J' adore les gens qui balancent des liens WIKI pour prouver leur ignorance...