COMPTOIR
  
register

Ryzen en 5 nm, ça donnerait quoi ?

Pendant que TSMC fanfaronne sur ses derniers exploits, d'autres, plus pragmatiques, s'interrogent sur l'intérêt réel de ces nouvelles finesses. Bien que les progressions en matière de gravure soient moins frappantes qu'au début du siècle, elles n'en demeurent pas moins présentes. Cependant, les processeurs ont du mal à trouver quoi faire de ces nouvelles quantités de portes logiques, d'où des augmentations de performances en demi-teinte à chaque génération, contrairement aux cartes graphiques.

 

C'est vers PCGamesN que viennent à grand coup de déclarations du PDG de TSMC - avec donc toutes les imprécisions que cela sous-entend - annoncer que la majorité de ses clients sous 7 nanos devraient par la suite migrer sous le nœud N5. Parmi les arguments défendus, le rapport coût/performance serait similaire, il n'y a donc pas de raison de perdre des clients entre temps... Sauf situation économique défavorable. Rappelons que la densité d'intégration ferait un bon de 80% par rapport à la technologie des Ryzen 3000... qui ne sont même pas encore sortis !

 

Inutile de plus tirer en longueur ces chiffres par des extrapolations hasardeuses, et penchons-nous un peu plus sur les possibilités architecturales. Dès Zen2, AMD va doubler la taille de la partie de traitement des calculs flottants, rattrapant un de ses principaux retards sur Intel. Avec tout ce silicium disponible, plusieurs scenarii sont envisageables. Déjà, tout peut continuer sans modification interne, en profitant simplement de la couche matérielle améliorée pour caser toujours plus de cœurs par die et tirer les gros multicœurs vers des tarifs encore plus doux. Une seconde solution serait de rajouter du cache, par exemple un L4 ou agrandir ceux déjà existants, deux alternatives déjà briguées par les bleus sur certaines gammes et dans leur future architecture Sunny Cove. Enfin, AMD pourrait également travailler sur ses extensions vectorielles afin de concurrencer l'AVX-512, qui reste un argument de taille lors de la construction de centres de calculs.

 

Tout cela nous apporte beaucoup de rumeurs pour peu de matière. Dans un futur plus proche, il n'est même pas encore certain que Zen4, tout juste en développement, se base sur ce N5 connaissant les alternatives (N6 et Samsung par exemple). Peut-être aurons-nous plus d'informations au Computex ? (Source : WCCFTech)

 

amd ryzen

Zen5 en 5nm, ça serait bien trouvé !

Un poil avant ?

Bon plan • Asus Radeon RX Vega56 Arez Strix OC à 269,90€

Un peu plus tard ...

Moufles o'clock : Navi sous la forme de deux Radeon RX 3000 XT ?

Les 33 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Unragoteursansespace en Auvergne-Rhône-Alpes, le Vendredi 10 Mai 2019 à 11h38  
par Cronff, le Vendredi 10 Mai 2019 à 09h34
Des décodeurs HW dédiés, notamment dans l'iGPU, font très bien le travail, et
évitent de consommer du CPU inutilement
PAQ sur IGP...
par Guillaume L., le Vendredi 10 Mai 2019 à 11h07  
par Un hardeur des ragots du Centre-Val de Loire, le Vendredi 10 Mai 2019 à 08h27
C'est le sujet initial de ma réflexion.
En fait c'est bien au-dessus du TDP annoncé, mais à une petite entorse près.
Les mesures sont faites sur la prise 12V, ce qui veut dire que la consommation mesurée est celle du CPU + de son alimentation. Or cette alimentation a un rendement qui peut évoluer entre 80 et 90% selon la qualité de la carte mère. Sur 140 W environ tu ter retrouve à un TDP réel plus proche des 112 à 126 W par exemple, à la louche. Donc c'est toujours au-dessus sans non plus être une catastrophe.
par Un #ragoteur connecté en Auvergne-Rhône-Alpes, le Vendredi 10 Mai 2019 à 10h43  
par Un hardeur des ragots du Centre-Val de Loire, le Vendredi 10 Mai 2019 à 08h33
Ta démo est hors sujet n'importe quelle bécane aujourd'hui est capable
d'exécuter les codes les plus tordus voir mal foutus mais les gens à la
recherche de ce genre de gain sont une minorité et le but de tout bon
fabricant c'est de coller à une clientèle majoritaire.
Je note les algorithmes de compression permettant d'éviter de perdre 3 lunes
sur le réseau des réseaux sont des codes tordus voir mal foutus...

 

A moins qu'il y ait des accords secrets AMD/Apple pour la fourniture des
procs des prochains macs, je ne vois plus l'intérêt à terme d'avoir des procs
aussi énergivores.


C'est que probablement tu n'as plus besoin d'un PC et devrait t'en tenir à
ton smartphone...
par Cronff, le Vendredi 10 Mai 2019 à 09h34  
par Un rat goth à l'heure en Auvergne-Rhône-Alpes, le Jeudi 09 Mai 2019 à 06h20
Exploiter des algorithmes complexes (PAQ, H.265, etc). CQFD!
Des décodeurs HW dédiés, notamment dans l'iGPU, font très bien le travail, et évitent de consommer du CPU inutilement
par Un hardeur des ragots du Centre-Val de Loire, le Vendredi 10 Mai 2019 à 08h33  
par Un rat goth à l'heure en Auvergne-Rhône-Alpes, le Jeudi 09 Mai 2019 à 06h20
Exploiter des algorithmes complexes (PAQ, H.265, etc). CQFD!
Ta démo est hors sujet n'importe quelle bécane aujourd'hui est capable d'exécuter les codes les plus tordus voir mal foutus mais les gens à la recherche de ce genre de gain sont une minorité et le but de tout bon fabricant c'est de coller à une clientèle majoritaire.
A moins qu'il y ait des accords secrets AMD/Apple pour la fourniture des procs des prochains macs, je ne vois plus l'intérêt à terme d'avoir des procs aussi énergivores.
par Un hardeur des ragots du Centre-Val de Loire, le Vendredi 10 Mai 2019 à 08h27  
par Un ragoteur qui pipotronne en Auvergne-Rhône-Alpes, le Jeudi 09 Mai 2019 à 19h54
Cela semble n'être qu'un doux rêve concernant le Ryzen 7 2700X annoncé pour
105 W mais consommant ~140 W hors du multiverse AMD.
C'est le sujet initial de ma réflexion.
par Un ragoteur qui pipotronne en Auvergne-Rhône-Alpes, le Jeudi 09 Mai 2019 à 19h54  
par Le Comptable, le Jeudi 09 Mai 2019 à 09h54
Que les perfs stagnent pourquoi pas, mais la consommation elle continue à diminuer.
Cela semble n'être qu'un doux rêve concernant le Ryzen 7 2700X annoncé pour
105 W mais consommant ~140 W hors du multiverse AMD.
par Le Comptable, le Jeudi 09 Mai 2019 à 09h54  
Que les perfs stagnent pourquoi pas, mais la consommation elle continue à diminuer.

Donc c'est plutôt bien.
par Un rat goth à l'heure en Auvergne-Rhône-Alpes, le Jeudi 09 Mai 2019 à 06h20  
par Un hardeur des ragots du Centre-Val de Loire, le Jeudi 09 Mai 2019 à 05h48
Augmenter les perfs pourquoi?
Exploiter des algorithmes complexes (PAQ, H.265, etc). CQFD!
par Un hardeur des ragots du Centre-Val de Loire, le Jeudi 09 Mai 2019 à 05h48  
par BobLeRagoteur en Auvergne-Rhône-Alpes, le Mercredi 08 Mai 2019 à 13h25
Quand on change de node on s'attend à une augmentation des perfs. Donc oui, on pourrait baisser la conso et la chauffe avec un node plus petit, mais ça devra se faire au détriment des perfs (et vice-versa).
Un CPU c'est un équilibre entre perf et conso. Tu peux pas avoir une très grosse augmentation de perf tout en ayant une conso très réduite (sauf à passer par une révolution technique qui n'est pas à l'ordre du jour il me smeble).
Augmenter les perfs pourquoi?
Quand on analyse le marché face aux besoins on s'aperçoit que ces derniers sont couverts depuis bien longtemps à 95% par le bas de gamme et le milieu de gamme des processeurs sortis depuis presque une décennie c'est d'ailleurs un de soucis majeurs qui président au non rééquipement du grand public qui préfère disposer d'un terminal mobile pour faire les quelques bidouilles numériques qui lui sont nécessaires. Pour ceux là, ce qui peut les motiver à racheter un petit ordi portable ou un mini PC c'est certes un gain de perfs mais surtout un prix de revient et pour ce public c'est encore Intel qui couvre le segment avec des trucs plus ou moins bien fourbis avec des noms recyclés comme "Atom", "Celeron" ou "Pentium" pour rassurer le quidam néophyte.
On a certes besoin d'une plateforme performante mais il faut aujourd'hui penser économie d'énergie et mobilité car on ne fera pas fonctionner les futurs ultraportables qui ont tous des problèmes de throtteling, ces derniers temps, en vendant le watercooling en option.
par Unragoteursansespace en Bourgogne-Franche-Comté, le Mercredi 08 Mai 2019 à 19h50  
par Nicolas D., le Mercredi 08 Mai 2019 à 14h35
Je n'ai malheureusement pas de réponse pour ça : il y a même des thématiques de recherche actuelle pour chercher dans telle ou telle application où est le goulot d'étranglement (entier, flottant, taille de cache, bande passante disque....), par profiling (mesures d'événement CPU pour voir le taux d'occupation), par simulation ou autre, par exemple "je change la fréquence CPU, et si le temps d'exécution ne change pas, alors on est limité par la vitesse mémoire.

Ce que je peux te dire c'est que tout ce qui fait des calculs à virgule est quasi systématiquement en flottant, donc ça va accélérer un peu tous les programmes qui font des opérations dessus sauf ceux scientifiques qui eux utilisent des unités vectorielles dédiées. Donc sur assassin's creed ça va dépendre du moteur mais je dirais oui, pour installer un programme c'est plus du disque donc peu de changements et en compilation idem ; calcul pro et météo c'est comme scientifique, ça va accélérer un peu si c'est mal optimisé, mais en général on passe en vectoriel très vite et ce n'est pas ce qui sera modifié sur Zen2.
D'accord merci beaucoup .
par Un ragoteur Gaulois en Auvergne-Rhône-Alpes, le Mercredi 08 Mai 2019 à 17h03  
par Nicolas D., le Mercredi 08 Mai 2019 à 14h59
C'est une piste, mais il y a de l'auto vectorisations dans les compilateurs
surtout, c'est l'argumentaire.
La performance par le compilateur on sait déjà que cela a donné pour les
architectures ARM pseudo-RISC.

Par ailleurs, cela ne permet pas d'améliorer les performances des
applications existantes puisque déjà compilées.

Il est vain de compter sur la bonne volonté des programmeurs soumise à
contrainte économique et sociale dont l'essentiel du business plan consiste
à maintenir une rente du support logiciel.

Comme le dit l'adage, l'erreur est humaine... (mais elle peut rapporter gros)