COMPTOIR
register

Quasiment aucun die Ryzen inutilisable en sortie d'usine ?

Toujours la même source bien chaude, Bitsandchips. Cette information vient compléter une autre déjà parue il y a quelques mois au sujet du lancement des Ryzen, et devinez par qui ? Une des raisons pour lesquelles il n'y aurait pas eu de pénurie Ryzen le 2 mars proviendrait du fait que les rendements étaient très bons à l'époque, plus de 80% de puces opérationnelles sur des wafers, c'était excellent. Il faut relativiser ce chiffre par une architecture simple à usiner, et en contrepartie qui ne monte que très peu en fréquence. AMD sait donc où il doit bosser pour Zen + et Zen 2.

 

En cette fin du mois de juin, notre confrère annonce que les rendements de puces opérationnelles d'emblée sont de 80%, mais par le jeu des découpes de gamme, ce serait 98% de puces qu'AMD serait en mesure de mettre en vente. On sait que les R5 et R3 ont toutes 2 CCX, mais avec des nombres de coeurs fonctionnels variables entre les gammes. Même s'il ressort des coeurs HS, AMD arrive à les recycler facilement, toujours avec les mêmes réussite et contraintes (architecture, fréquence, etc). La pénurie était plutôt à observer du côté des cartes mères, mais ça fait deux bons mois qu'on trouve de tout sans grosse période d'indisponibilité, exception faite des best-sellers toujours à flux tendu.

 

Gageons qu'avec sa révision B2 AMD arrive à maintenir ces hauts niveaux de production, vous pouvez d'ailleurs retrouver nos avis sur Ryzen en lisant l'article réalisé, ou le guide d'achat CPU.

 

amd ryzen puce

Un poil avant ?

Les potins Vega du jour !

Un peu plus tard ...

Besoin de place ? Faites un backup de vos jeux Steam

Les 22 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un #ragoteur déconnecté de Lorraine, le Mardi 27 Juin 2017 à 16h56  
par L'Ours, le Mardi 27 Juin 2017 à 04h58
Après la technique de gravure peut avoir une influence sur la capacité à tenir les fréquence, mais de manière marginale comparé à l'architecture. La technique va changer la vitesse de switch d'un transitors, pas le nombre que tu dois toucher pour une opération.
Le process peut avoir une grosse influence sur l'implémentation : à l'extrême un transistor peut en devenir une centaine si les paramètres sont très différents, parfois tu peux aussi choisir ce qui semble être une implémentation excessivement compliquée.

Ce qui est très bizarre avec les procos actuels, c'est que beaucoup de transistors sont utilisés à des fins de gestion énergétique apparus avec des process bien moins performants que ce qu'on a maintenant, si bien qu'au final je ne serais pas étonné que ça soit contre-productif, ce qui est gagné au repos étant perdu lors des transitions d'état toujours plus fréquentes et des périodes actives.
par Un rat goth à l'heure d'Alsace, le Mardi 27 Juin 2017 à 11h11  
par L'Ours, le Mardi 27 Juin 2017 à 04h58
Je suis pas vraiment d'accord. Ce sont pas des procos "basse conso". Ils nous l'ont toujours présenté comme bête de course et monstre de calcule, jamais comme proco qui consomme autant qu'un anorexique au régime. Ok, il consomme moins que les génération d'avant, mais c'est surtout un effet secondaire cool de la finesse de gravure.
...
Après la technique de gravure peut avoir une influence sur la capacité à tenir les fréquence, mais de manière marginale comparé à l'architecture. La technique va changer la vitesse de switch d'un transitors, pas le nombre que tu dois toucher pour une opération.
En réalité, la technique de gravure influence beaucoup. Pour simplifier a l'extrême, c'est elle qui détermine à partir de quel fréquence les courants de fuites deviennent non marginaux par exemple ou à quelle vitesse optimale les transistors peuvent commuter, etc.
Pour donner une image simple, c'est le process de gravure qui fait qu'à partir d'une certaine fréquence, augmenter le vcore ne sert plus à rien parce tout part dans ces fuites.
par L'Ours, le Mardi 27 Juin 2017 à 04h58  
par davideneco, le Lundi 26 Juin 2017 à 11h30
cf plus bas.
Je suis pas vraiment d'accord. Ce sont pas des procos "basse conso". Ils nous l'ont toujours présenté comme bête de course et monstre de calcule, jamais comme proco qui consomme autant qu'un anorexique au régime. Ok, il consomme moins que les génération d'avant, mais c'est surtout un effet secondaire cool de la finesse de gravure.
Pour info, 100% de l'énergie consommée par le processeur par en chaleur. Juste de la chaleur utile comparé à une simple résistance.
Ce qui détermine la consommation, c'est le nombre de transistors, l'architecture (est-ce qu'il faut utiliser 1 million ou 1 milliard de transistors pour faire une opération), la fréquence et la tension. La finesse va réduire ça d'un certain nombre de pourcent.
Après la technique de gravure peut avoir une influence sur la capacité à tenir les fréquence, mais de manière marginale comparé à l'architecture. La technique va changer la vitesse de switch d'un transitors, pas le nombre que tu dois toucher pour une opération.
par Un #ragoteur déconnecté de Lorraine, le Lundi 26 Juin 2017 à 23h07  
par mklmkl embusqué, le Lundi 26 Juin 2017 à 18h53
Surtout parce que la dénomination LPP vient de samsung à la base qui avait un accord avec global foundry sur le 14nm. Pour le 7nm GloFo se débrouillera seul avec les ingénieurs d'IBM donc changement de nom.
Wala, c'est pour ça que LPP ne signifiera plus Low Power Plus mais Leading Performance Plus

Le nom "commercial" du process n'a aucune importance, seules ses caractéristiques ont de l'importance et il y en a un sacré paquet, il doit bien traîner des caractéristiques type switch delay/drive current/gate length dans un coin.
par Un ragoteur tout mignon de Bourgogne, le Lundi 26 Juin 2017 à 19h32  
par davideneco, le Lundi 26 Juin 2017 à 11h30
Bah en gros leur puce , vu qu'elle sont désigné pour de la basse consommation , elle n'accepte pas les haute frequence et les haut voltage , plus on augmente la fréquence , plus on augmente les perte énergétique et l'énergie au lieux d'etre utilisé par le cpu , se transforme en chaleur

Il on aussi utiliser cette techno pour les Rx le 14 nm lpp, c'est a cause de sa que les rx aussi ne peuvent pas etre bien overclocker

Si il utiliserait un autre procédé de fabrication , on pourrait avoir des ryzen qui atteignent des plus haute frequence , par contre la consommation serait beaucoup plus haute
L'effet joule est lié à la tension appliquée. Tu t'es mélangé les pédales, c'est parce qu'il faut appliquer une forte tension pour avoir une fréquence plus élevée que 3,9GHz qu'il y a un effet joule important, pas l'inverse.

par mklmkl embusqué, le Lundi 26 Juin 2017 à 18h53  
par Un #ragoteur déconnecté de Lorraine, le Lundi 26 Juin 2017 à 16h11
La dénomination LPP a d'ailleurs changé de sens pour le prochain process de GF, certainement à cause de cette interprétation "low power"...
Surtout parce que la dénomination LPP vient de samsung à la base qui avait un accord avec global foundry sur le 14nm. Pour le 7nm GloFo se débrouillera seul avec les ingénieurs d'IBM donc changement de nom.
par Un #ragoteur déconnecté de Lorraine, le Lundi 26 Juin 2017 à 16h57  
Le 14LPP est aux environs de 50% plus rapide que le 28HP de toute façon, le problème n'est clairement pas là, même pour Polaris qui reste largement basé sur l'archi lancée avec Tahiti. Si on regarde ce que ça donne comparé à Tonga, on retrouve bien les ~50%, après à savoir si la limitation est d'ordre électrique (couches métal) ou thermique (petit die), j'aurais tendance à dire que c'est un peu des 2 : c'est un GPU de classe "performance" comme Pitcairn (donc théoriquement 150W max), qui a déjà été tiré quasiment au maximum en terme de consommation.
par Armand Raynal, le Lundi 26 Juin 2017 à 16h15  
par davideneco, le Lundi 26 Juin 2017 à 11h30
Il on aussi utiliser cette techno pour les Rx le 14 nm lpp, c'est a cause de sa que les rx aussi ne peuvent pas etre bien overclocker

Si il utiliserait un autre procédé de fabrication , on pourrait avoir des ryzen qui atteignent des plus haute frequence , par contre la consommation serait beaucoup plus haute
Je pense que le finfet qui augmente la consistance de la qualité des puces y est aussi pour quelque chose, permettant probablement de pouvoir offrir des fréquences plus hautes en sortie d'usine et plus proches de leurs limites physiques. Je me base sur ça http://images.anandtech.com/doci/9886/Radeon%20Technologies%20Group_Graphics%202016-page-011.jpg et pas grand chose d'autre hein.
par Un #ragoteur déconnecté de Lorraine, le Lundi 26 Juin 2017 à 16h11  
par Un champion du monde embusqué, le Lundi 26 Juin 2017 à 12h18
AMD documenté à plusieurs reprise que l'objectif de monté en fréquence de Zen était d'être au moins aussi bon que Bulldozer, à savoir 5 Ghz+.
Ce genre de choix impose pleins de chose au niveau du design en lui même, notamment la longueur des pipelines.
Le design a surtout été motivé par l'utilisation : EPYC représente un marché bien plus juteux que les Ryzen et il fallait donc un die tournant optimalement sous les 50W, ce qui n'a rien à voir avec des puces "low power"...

Partant de là, il était cohérent de laisser de côté le spectre de la haute fréquence, surtout que Zen est déjà largement plus performant que tout ce qui a précédé chez AMD : au pire, ils peuvent lancer une 2e vague avec des dies spécifiquement conçus pour la montée en fréquence (ce qui concernera aussi Raven Ridge à moins d'oublier l'utilisation desktop), sans qu'un changement de process ne soit nécessaire.

Les pipelines c'est la partie visible de l'iceberg, un seul transistor sous-dimensionné pourra imposer une tension délirante à l'ensemble avec la montée en fréquence. Le process ne donne que des limites à la base, par dessus ça s'ajoutent des blocs pré-conçus qu'on est même pas forcés d'utiliser.

La dénomination LPP a d'ailleurs changé de sens pour le prochain process de GF, certainement à cause de cette interprétation "low power"...
par Un ragoteur blond embusqué, le Lundi 26 Juin 2017 à 13h36  
par davideneco, le Lundi 26 Juin 2017 à 12h05
ah bah pour sa aucune idée franchement , c'est sur des test et tous sa que j'ai lu et appris sa
Ben parce que c'est pas le cas. Le LPP est juste une amélioration du LPE. Ca veut dire qu'il consomme moins que le LPE à fréquence égale mais ça n'a rien à voir avec la puce qui serait basse consommation.
par Un ragoteur qui draille de Pays de la Loire, le Lundi 26 Juin 2017 à 13h23  
Zen est une véritable bombe, il a avantageusement remplacé mon 2600K dans les jeux comme en applicatif
par Un champion du monde embusqué, le Lundi 26 Juin 2017 à 12h18  
par Un #ragoteur déconnecté de Lorraine, le Lundi 26 Juin 2017 à 09h49
A ce niveau, le process n'est qu'un ensemble de variables à intégrer dans la conception... et on peut parfaitement tirer un die taillé pour la fréquence avec un gros appétit, éventuellement au prix d'une baisse de la densité.
AMD documenté à plusieurs reprise que l'objectif de monté en fréquence de Zen était d'être au moins aussi bon que Bulldozer, à savoir 5 Ghz+.
Ce genre de choix impose pleins de chose au niveau du design en lui même, notamment la longueur des pipelines.
Ensuite, concevoir une archi limité en fréquence aussi bas, quand tu est déjà un peu ne deçà du concurrent en terme d'ipc aurait été d'une stupidité sans nom, et générait grandement le dev futur. Le but est de pouvoir décliner zen sur des process qui n'existe même pas encore, et dont on ne connait pas la fréquence max.
Ce qui veut dire qu'une archi est pensé de base pour un objectif de fréquence. Quel est l'intérêt de communiquer sur le fait que l'on vise 5Ghz, si on sait déjà qu'on ne l'atteindra pas par design?
Enfin, la limite à 4Ghz étant observé malgré une limite en consommation relativement basse, et peu importe le nombre de core utilisé, ce qui semble indiquer une limite du process.
C'est ce qui ressort de toute les analyses anglophones que j'ai put trouver. Notamment sur AnandTech.