COMPTOIR
  
register

Intel tire à nouveau sur la loi de Moore

Intel vient de rappeler que la loi de Moore était vacillante. Il l'avait déjà fait l'année dernière en admettant que le cycle de deux ans dicté par le fondateur d'Intel serait impossible à tenir dans les prochaines années, basculant plutôt vers 2,5 ans. Pour ceux qui l'ont oublié, et jusqu'à l'année dernière, la loi de Moore disait en substance que les circuits imprimés doublent leur densité tous les deux ans, et par conséquent les vitesses. Eh bien c'est cette fois William Holt qui s'est laissé aller à quelques confidences lors de l'ISSCC à San Francisco, et dans la mesure où il est le vice boss de l'exécutif et manager général de la branche manufacture et technologie, on peut penser qu'il sait de quoi il parle.

 

Selon lui, on va devoir assister à des transitions importantes et majeures. Les vraies améliorations technologiques consisteront à optimiser la consommation électrique mais réduiront la vitesse. Il a également confirmé qu'Intel était donc en train de réfléchir sur la conduite à tenir concernant la fabrication des futures puces. En ce sens, le desktop comme la mobilité vont vers la même philosophie : sortir de la vitesse pour se concentrer vers des coupes énergétiques drastiques. Le géant ne s'est jamais caché que ça devenait compliqué à produire avec l'abaissement de la finesse de gravure sur les matériaux actuels qui ont, eux aussi, des limites techniques. Affaire à suivre ! (Source Thestack)

 

intel

Un poil avant ?

X-Flow, la nouvelle gamme de radiateurs d'Alphacool

Un peu plus tard ...

Le spot TV/Cinoche de Far Cry Primal est original

Les 42 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par thunder72fr, le Samedi 12 Mars 2016 à 09h37  
On peut résumer aussi comme ça:

Evolution entre les différentes générations d' i7

Ou en graphique:

Graphique

Pour l'instant , je reste avec mon 3770k@ 4.3Ghz pour mon SLI GTX970...

On verra à la sortie des nouvelles générations chez AMD/NVIDIA pour voir si le changement de plateforme est pertinent
par dantes94, le Dimanche 14 Février 2016 à 21h07  
par Dark Incarnation embusqué le Lundi 08 Février 2016 à 20h28
En gros pour résumer : On aura des performances qui resteront proches mais par contre ca sera la course pour économiser le moindre milliwatt , sur desktop on s'en fout un peu on a des gros rad / watercooling , de grosses alims alors ca va la consommation!
Pour des gamers qui veulent de la grosse perf en effet la conso est dérisoire.

Pour des pros et des particuliers qui veulent juste des perfs acceptables avec une grande autonomie en mobilité d'un coup la conso devient essentiel.
par Un ragoteur sans nom de Bretagne, le Mardi 09 Février 2016 à 09h37  
par Un ragoteur tout mignon de Rhone-Alpes le Lundi 08 Février 2016 à 17h47
faut pas rêver, cette "loi" était morte avant d'avoir vécu, on ne pouvait pas doubler la densité de transistor sur une surface donnée ad vitam æternam
faux : la conjectures de Moore ne parlait que de l'augmentation du nombre de transistors sur puces accessibles pour un budget similaire (il parlait de processeurs accessibles grand public)...pas d'une surface identique.
C'est par exemple le cas des radiateurs/serveurs. Je m'en bas les gonades que, dans 10 ans, mon pc fasse la taille d'une maison, si celui-ci forme les murs et qu'il me coute le même prix qu'un pc 4 coeurs actuels. ...Et là, le nombre de cœurs et de transistors a une marge d'échelle qui peut laisser cette conjecture perdurer.
Maintenant, ok on vit dans un monde fini, avec des ressources finies pour l'instant (cf le luxembourg lançant son programme d'exploitation des astéroids pour le minerai). Mais on peut croire que le threshold "on est coincé sur une planète finie" va être passé tôt ou tard...en tous les cas, c'est le pari d'un système basé sur la croissance
par Altway, le Mardi 09 Février 2016 à 09h23  
Arrêter moi si je me trompe. On est toujours sur du x86 ? a-t-on atteint la limite de cette architecture ? si on en créer une nouvelle, on pourra peut-être mieux l'optimiser ? (Bon oui je sais, rétro-compatibilité toussa toussa, mais du coup c'est un coup marketing énorme pour eux )
par BoBoToTo, le Mardi 09 Février 2016 à 08h52  
par Dark Incarnation embusqué le Lundi 08 Février 2016 à 20h28
En gros pour résumer : On aura des performances qui resteront proches mais par contre ca sera la course pour économiser le moindre milliwatt , sur desktop on s'en fout un peu on a des gros rad / watercooling , de grosses alims alors ca va la consommation!
Tout à fait ! C'est comme pour les voitures, on se fout un peu de notre consommation, on a de gros radiateurs sous le capot et de gros réservoirs !

( )
par Scrabble, le Mardi 09 Février 2016 à 07h14  
par Un ragoteur hilare de Bretagne le Lundi 08 Février 2016 à 22h15
Bref, cette "loi" n'en est pas une, et ne l'a jamais été. Seuls madame Michu et monsieur Dugenou ont pus le croire !
Ben si, elle s'est quand même vérifiée de 1971 à 2011, soit pendant 40 ans, excuse-moi du peu. Mais bien sûr ce n'est pas une loi fondamentale de la physique, juste une loi empirique qui s'est vérifiée pendant une certaine période.
par Un ragoteur hilare de Bretagne, le Lundi 08 Février 2016 à 22h15  
La "loi de Moore" était déjà condamnée à devenir une vulgaire approximation (en fait, une simple extrapolation à court terme), dés le départ. Je rappelle en effet, que la première version de cette loi spécifiait un doublement de la complexité (comprendre "densité" ) des composants tous les ans. Ce n'ai que plus tard que le délai "officiel" entre chaque doublement est passé à deux ans.
En plus, il est impossible de poursuivre une croissance exponetielle de la densité des composants indéfinimenent, pusiqu'on se heurte aux phénomènes quantiques indésirables (genre effet tunnel qui augmente les fuites de courant), puis, finalement, au fait que pour faire un transistor, il faut tout de même un minimum d'atomes par jonction !

Bref, cette "loi" n'en est pas une, et ne l'a jamais été. Seuls madame Michu et monsieur Dugenou ont pus le croire !
par Un ragoteur qui draille de Haute-Normandie, le Lundi 08 Février 2016 à 21h53  
je dirais, il y a 2 problèmes, Loi de Moore et Loi de Wirth
par Un ragoteur sans nom du Centre, le Lundi 08 Février 2016 à 21h48  
La loi de Moore c'est comme les 3 lois d'Isaac Asimov : tout le monde y croit
par Dark Incarnation embusqué, le Lundi 08 Février 2016 à 20h28  
En gros pour résumer : On aura des performances qui resteront proches mais par contre ca sera la course pour économiser le moindre milliwatt , sur desktop on s'en fout un peu on a des gros rad / watercooling , de grosses alims alors ca va la consommation!
par cabou83, le Lundi 08 Février 2016 à 20h23  
par berserk embusqué le Lundi 08 Février 2016 à 20h00
Si le silicium est un frein pour l'évolution pourquoi ne pas passer au graphéne?
J'avais lu il y a un an que c'était une solution qui permet d'atteindre des fréquence à voisinant les 500Ghz...
C'est simplement trop chère pour l'instant, et aussi instable mais ça on arrivera a le stabiliser si les recherches deviennent plus approfondis dessus.
Pour l'instant une gravure en silicium plus fine est plus rentable, mais ça ne sera plus le cas quand on sera vers le 5nm.
par berserk embusqué, le Lundi 08 Février 2016 à 20h00  
Si le silicium est un frein pour l'évolution pourquoi ne pas passer au graphéne?
J'avais lu il y a un an que c'était une solution qui permet d'atteindre des fréquence à voisinant les 500Ghz...