COMPTOIR
  
register

×

Les parts de marché dans différents secteurs, selon les rouges

AMD toujours : des parts de marché grignotées en masse sur les PC de bureau et les serveurs
Les parts de marché dans différents secteurs, selon les rouges

Avec Ryzen, AMD est parvenu à redorer spectaculairement son blason de concepteur de CPU. Néanmoins, avoir une image positive dans les médias n’est pas forcément gage de réussite — c’est là toute l’importance du marketing —, et c’est dans les ventes qu’il faut lire la popularité de la marque.

 

À l’occasion de sa dernière présentation, AMD est justement revenu sur sa progression sur les segments qui lui sont chers : l’informatique mobile grand public (comprendre les CPU des ordinateurs portables), les cartes graphiques dédiées, et la présence sur les CPU de serveurs. Selon les rouges, leur progression sur deux ans a été fulgurante, passant de moins de 9 % des CPU des appareils portatifs vendus à plus de 16 % en 2019. Pour les serveurs, un marché historiquement bleu, la différence est encore plus grande, passant d’un unique pourcent à 8 %.

 

Les parts de marché dans différents secteurs, selon les rouges [cliquer pour agrandir]

 

Cependant, tous les domaines ne suivent pas la même tendance : les cartes graphiques stagnent à un peu plus de 25 % de parts de marché, là où les rouges et leur Polaris se défendaient à 33 % des ventes en 2017. Bien entendu, il s’agit d’estimations internes, ce pourquoi ces dernières peuvent sembler optimistes (voire biaisées) et diffèrent d’autres chiffres provenant d’organismes d’analyse indépendants. Pour autant, cela confirme bien l’image qu’AMD a de lui-même : des CPU compétitifs, mais un retard conséquent sur l’occupation de l’espace par rapport au concurrent ; ainsi qu’un sérieux coup de collier à donner côté GPU.

 

Cela tombe bien, les rouges avaient également des confirmations pour ces plans-là : RDNA2 avec son Ray Tracing arriverait bientôt, et sa suite, RDNA 3, sera sur un nœud de gravure plus fin, et quelque part avant ou pendant 2022. Pour la précision, nous repasserons, mais ce n’était pas le but de cette communication. Et pour 2020, alors ? (Source : Wccftech)

Un poil avant ?

Certains fabriquants de cartes mères tricheraient sur la consommation des Ryzen

Un peu plus tard ...

EKWB se diversifie, passe à l'aircooling !

Les 31 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Nicolas D., le Mercredi 10 Juin 2020 à 16h22  
par Un hardeur des ragots en Auvergne-Rhône-Alpes, le Mercredi 10 Juin 2020 à 16h06
Au risque de passer pour un fanatique de KELLER, il a aussi dit que parfois
il fallait casser un mécanisme ultra optimisé pour le remplacer par un
autre possiblement plus lent (sous entendu peu optimisé ) dans certains
domaines tandis que les gains sont présents en moyenne.

Générer de la latence est un faux problème si derrière celle-ci est
compensée par des gains d'exécution car c'est un peu ça l'objectif d'un
processeur.

L'exécution d'instructions ce n'est pas l'alpha et l'omega d'un processeur
CISC type x86 et dérivés car derrière une seule instruction se déroule un
certain nombre de microinstructions plus ou moins parallélisables.

Un pipeline est une solution parmis d'autres (e.g. cache) pour gagner en
performance cependant d'autres techniques restent à expérimenter/évaluer.
On parle de débit dans le cas contraire, et c'est un équilibre à trouver, mais je suis d'accord avec lui : on préférera un CPU plus rapide en moyenne qu'un autre moins rapide, mais qui présenterait des gains dans tous les benchs.
Le pipeline gère les micro-instructions, un CPU CISC n'est CISC que pour le compilateur, derrière c'est fini. Les cache agissent sur le goulot d'étranglement mémoire, mais si la vitesse de traitement est le souci, ça n'accélérera en rien, pas plus que lorsque le CPU attend des valeurs provenant d'autre part (exécution spéculative / parallèle)... Un vrai casse-tête !
par Un hardeur des ragots en Auvergne-Rhône-Alpes, le Mercredi 10 Juin 2020 à 16h06  
par Nicolas D., le Mercredi 10 Juin 2020 à 15h01
Oui, enfin ça reste très sommaire, ils ont vite abandonné le machine
learning sur Zen par exemple à ce niveau et tout ce que tu rajoutes sur
un CPU, c'est un peu de latence en plus sur les instructions : difficile
de faire mieux, parfois, que ce qui est implémenté sans augmenter la
fréquence.
Au risque de passer pour un fanatique de KELLER, il a aussi dit que parfois
il fallait casser un mécanisme ultra optimisé pour le remplacer par un
autre possiblement plus lent (sous entendu peu optimisé ) dans certains
domaines tandis que les gains sont présents en moyenne.

Générer de la latence est un faux problème si derrière celle-ci est
compensée par des gains d'exécution car c'est un peu ça l'objectif d'un
processeur.

 

Avec Ice Lake, ils ont mis un pipeline plus gros, ce qui est la seule chose
possible pour significativement booster les perfs, à mon avis, mais la
complexité du proc en prend un coup.


L'exécution d'instructions ce n'est pas l'alpha et l'omega d'un processeur
CISC type x86 et dérivés car derrière une seule instruction se déroule un
certain nombre de microinstructions plus ou moins parallélisables.

Un pipeline est une solution parmis d'autres (e.g. cache) pour gagner en
performance cependant d'autres techniques restent à expérimenter/évaluer.
par Nicolas D., le Mercredi 10 Juin 2020 à 15h01  
par Un ragoteur qui draille en Auvergne-Rhône-Alpes, le Mercredi 10 Juin 2020 à 14h05
Comme le disait Jim KELLER dans une conférence publique, il existe un
processeur dans le processeur tel que pour la prédiction de branchement
mais les marketeux préfèrent vendre des coeurs que de la complexité
algorithmique interne.
Oui, enfin ça reste très sommaire, ils ont vite abandonné le machine learning sur Zen par exemple à ce niveau et tout ce que tu rajoutes sur un CPU, c'est un peu de latence en plus sur les instructions : difficile de faire mieux, parfois, que ce qui est implémenté sans augmenter la fréquence. Avec Ice Lake, ils ont mis un pipeline plus gros, ce qui est la seule chose possible pour significativement booster les perfs, à mon avis, mais la complexité du proc en prend un coup.
par Un ragoteur qui draille en Auvergne-Rhône-Alpes, le Mercredi 10 Juin 2020 à 14h05  
par Scrabble, le Mercredi 10 Juin 2020 à 02h23
LOL Et il faut faire quoi, selon toi, si il ne faut pas multiplier les
coeurs ?
En estimant à la louche que 80 % des coûts informatiques sont issus de la
main d'oeuvre càd le développement logiciel et que 80 % des programmes ne
sont PAS optimisés pour exploiter le parallélisme des coeurs alors il faut
nécessairement automatiser le parallélisme pour profiter des opportunités
qu'il pourrait présenter.

Comme le disait Jim KELLER dans une conférence publique, il existe un
processeur dans le processeur tel que pour la prédiction de branchement
mais les marketeux préfèrent vendre des coeurs que de la complexité
algorithmique interne.
par Ideal, le Mercredi 10 Juin 2020 à 13h33  
par Un ragoteur blond en Auvergne-Rhône-Alpes, le Mardi 09 Juin 2020 à 22h41
Ca en devient même risible lorsque AMD blablabla AMD c'est pas beau

Bah les fanboys/haters sont enfin revenu après autant d'absence, fallait une news qui commente la victoire incontestée d'AMD dans le marché CPU + un déconfinement pour les faire sortir du bois... ça laisse rêveur.
par Feunoir, le Mercredi 10 Juin 2020 à 10h56  
par Scrabble, le Mercredi 10 Juin 2020 à 02h23
LOL Et il faut faire quoi, selon toi, si il ne faut pas multiplier les coeurs ?
C'est bien le problème qu'ils ont, un mur devant la monté en fréquence bien plus utile pour baisser le temps de cycle, et un nombre de cœur supplémentaire qui finira par ne servir que pour la (dé )compression de truc quand on en aura assez.
Il vaut mieux avoir trop de cœur que pas assez c'est évident, mais pas mal de code n'est pas parallélisable et ne bénéficie donc pas d'avoir plus de cœur.
par Cristallix, le Mercredi 10 Juin 2020 à 08h27  
Merci de vous détendre les gars
par Etropmej en Île-de-France, le Mardi 09 Juin 2020 à 21h26
Ah Intel, Intel...

Encore une autre vulnérabilité:
- https://www.phoronix.com/scan.php?page=news_item&px=RdRand-3-Percent
- https://www.phoronix.com/scan.php?page=article&item=crosstalk-srbds-vulnerability
- https://www.phoronix.com/scan.php?page=news_item&px=CrossTalk-Buffer-Data-Sampling

Ca concerne la génération de nombres aléatoire, et ça peut leak des données entre cores. Contrairement au même problème lié à l'HyperThreading, c'est pas désactivable là.

Chose amusante, ils ont violé leur propre embargo... sans le vouloir !
La news arrive t'inquiète !
Message de Etropmej en Île-de-France supprimé par un modérateur : pénible
par Scrabble, le Mercredi 10 Juin 2020 à 02h23  
par Un ragoteur des lumières en Auvergne-Rhône-Alpes, le Mardi 09 Juin 2020 à 23h18
La marge risque bien de s'effondrer si Intel persiste dans l'impasse du
10 nm monolithique tout en suivant bêtement AMD dans la course au nombre
de coeurs dont Mme MICHU n'a que faire
.
LOL Et il faut faire quoi, selon toi, si il ne faut pas multiplier les coeurs ?
Message de Un champion du monde en Auvergne-Rhône-Alpes supprimé par un modérateur : stop
Message de Etropmej en Île-de-France supprimé par un modérateur : ca suffit, c'est pas JV.com ici
par Un ragoteur des lumières en Auvergne-Rhône-Alpes, le Mardi 09 Juin 2020 à 23h18  
par Un médecin des ragots en Provence-Alpes-Côte d'Azur, le Mardi 09 Juin 2020 à 16h50
Ils ont ou ils font de la marge ?
La marge risque bien de s'effondrer si Intel persiste dans l'impasse du
10 nm monolithique tout en suivant bêtement AMD dans la course au nombre
de coeurs dont Mme MICHU n'a que faire.

Pour le moment, le 10 nm est plutôt expérimental et même si Intel sortait
une solution multidies 2D ou 3D, la contre-performance de la surdensité
se ferait sentir sur la fréquence de fonctionnement des puces tout en
explosant les coûts de production.

AMHA Intel n'a aucune chance de redéfinir les lois de la physique néanmoins
pourrait trouver une planche de salut à l'aide d'une nouvelle architecture
designed by the KELLER's team car au final un processeur n'est qu'un
programme câblé dont l'algorithme est revisité régulièrement.