COMPTOIR
register

AMD corrige déjà ses propos sur le PPT des Ryzen 7000

La communication, ça se travaille ! Les CPU à peine annoncés, voilà que les propos tenus en première instance par les pontes d'AMD évoluent déjà. Il était dit par la firme que les Ryzen 7000, pour les plus énergivores, auraient un PPT de 170 W, contre 142 aux Ryzen 5000. Robert Hallock, celui par qui est arrivée cette information, n'en est pas à son premier coup d'essai en matière de loupés et autre mauvaise foi, a vu sa communication rectifiée seulement deux jours plus tard par AMD lui-même lors d'une interview.

 

En fait les 170 W ne sont pas le PPT, mais le TDP, c'est-à-dire l'enveloppe thermique maximale du socket, mais qui est capable de supporter des CPU Ryzen 7000. Et ces mêmes Ryzen, dans leur version super turbo maxi, pompent 230 W, ce qui correspond en fait au PPT, ce qu'Intel appelait PL2 et qui s'appelle désormais Maximum Turbo Power. En même temps, pour ceux qui avaient déjà monitoré un 5950X en pleine charge sur tous les cœurs, comme dans notre article, on dépasse facilement les 160 W. On comprend donc qu'une grande partie des performances va venir de ce PPT bien relâché, qui va assurer des fréquences hautes sur de courtes durées, ces dernières vont donc avoir un rôle à jouer dans les résultats des benchmarks, surtout si ces derniers sont courts. C'est donc une sorte de philosophie à la Intel que l'on découvre, le refroidissement sera donc important !

 

À moins que tout ceci ne soit, à l'instar de NVIDIA et sa RTX 3090 Ti, un moyen de préparer les gens à ce changement majeur dans la consommation des puces Ryzen ? Mmmmmm !

 

amdlogo

Un poil avant ?

Bon Plan • La trilogie Bioshock gratos sur l'EGS

Un peu plus tard ...

Sniper Elite 5 passe le test des balles des GPU

Les 27 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Alffir, le Lundi 30 Mai 2022 à 17h46  
Même si je préfère les versions faible TDP, je ne trouve pas que la hausse du TDP/PPT est une mauvaise nouvelle.

Zen 3 souffre de ne pas pouvoir monter en fréquence, qu'importe les performances, ce qui fait que le 5800X n'est que marginalement plus performant que le 5700X.

Un augmentation du TDP (et la démo à 5,5 GHz) montre qu'AMD arrive a améliorer ses performances en single-thread, et la version 16 cœurs actuellement à l'étroit va y gagner en multi-thread.

Et on a vu chez Intel qu'un haut de gamme qui explose la conso n'empêche pas les versions au TDP raisonnable d'être efficients.

par Eric B., le Lundi 30 Mai 2022 à 10h07  
par fkanker, le Lundi 30 Mai 2022 à 08h29
Vouloir tester les CPU tels que prévus par les concepteurs, ça peut se défendre. Cependant la conception est ici abusive et potentiellement trompeuse. Ne pas cautionner ça avec des mots est une chose, mais si rien n'apparait dans les graphiques, alors cela revient à cautionner, car au final seuls les graphiques comptent. Ce sont eux qui traduisent la performance mesurée, et bien des gens ne lisent que les graphiques. Et donc si la presse cautionne, pourquoi les constructeurs s'arrêteraient-ils là? Pourquoi ne pas aller vers des turbo de 300W, 400W, vu que ça passe tranquille dans les graphiques?Le consommateur doit-il donc changer d'alimentation pour assurer un turbo? Dépenser plus pour une carte mère dont l'étage d'alimentation pourra supporter sereinement le turbo? Doit-on investir dans un système de refroidissement qui tient le turbo ou juste le TDP? Si le système de refroidissement tient le TDP, mais pas le turbo, à quel point la performance réelle diffère-t-elle? Et si je refuse que mon CPU consomme plus que le TDP et que je désactive le turbo, quelle est la performance? C'était tout l'intérêt de ces tests à 125W pour le 12900K.Les CPU sont vendus autour d'un TDP. Inclure des tests où la consommation reste dans le TDP, c'est donc d'une part permettre aux personnes qui dimensionnent pour le TDP d'avoir un aperçu relativement clair des performances obtenues, et pouvoir choisir en conséquence. Mais c'est surtout ne pas cautionner les combines des constructeurs, qui font ça juste pour gagner des points dans les benchmarks, dans le cas présent au détriment du consommateur.
Désolé mais je ne suis pas d'accord avec toi. La conception n'est pas trompeuse, elle l'était précédemment alors qu'Intel annonçait un TDP à 125 W mais laissait les fabricants de cartes mères s'en moquer royalement en libérant le TDP sans prévenir l'utilisateur et que certains testeurs ne prenaient pas la peine de rétablir la valeur par défaut (ce qui n'était pas notre cas pour rappel). A présent, Intel spécifie clairement une valeur de puissance hors boost (TDP) et une avec (Max Turbo Power), donc tester les puces avec ces réglages n'a rien de trompeur puisque c'est officiellement indiqué (et vu les valeurs retenues pousser encore au-delà la puissance n'apporte pour ainsi dire rien à présent hors OC). Idem concernant AMD qui communique un TDP de 105W alors que la puissance est de 142 W (PPT).

J'insiste également : le fait de respecter les spécifications des concepteurs ne vaut pas caution et je rappelle à titre d'information que l'on ajoute systématiquement des mesures de consommation et d'efficience à nos tests, donc même ceux qui se contentent de regarder les graphiques sans prendre la peine de lire, ont les informations utiles à disposition. Maintenant si les lecteurs ne daignent ni lire, ni regarder tous les graphiques, je vois mal en quoi ce serait de la responsabilité de la presse. Tester des processeurs au TDP, c'est à dire sans Turbo donc, revient à être en-deçà des spécifications voulues par leurs concepteurs, ne changera rien aux choix de ces derniers et ne correspondra pas à ce que vivront les utilisateurs. Le TDP est depuis bien longtemps une notion tordue à outrance par les concepteurs de puces qui s'en affranchissent de plus en plus, il ne faut donc pas lui donner plus d'importance qu'elle n'en a réellement à présent.
par fkanker, le Lundi 30 Mai 2022 à 08h29  
par Eric B., le Dimanche 29 Mai 2022 à 16h18
Vouloir tester les CPU tels que prévus par les concepteurs, ça peut se défendre. Cependant la conception est ici abusive et potentiellement trompeuse. Ne pas cautionner ça avec des mots est une chose, mais si rien n'apparait dans les graphiques, alors cela revient à cautionner, car au final seuls les graphiques comptent. Ce sont eux qui traduisent la performance mesurée, et bien des gens ne lisent que les graphiques. Et donc si la presse cautionne, pourquoi les constructeurs s'arrêteraient-ils là? Pourquoi ne pas aller vers des turbo de 300W, 400W, vu que ça passe tranquille dans les graphiques?

Le consommateur doit-il donc changer d'alimentation pour assurer un turbo? Dépenser plus pour une carte mère dont l'étage d'alimentation pourra supporter sereinement le turbo? Doit-on investir dans un système de refroidissement qui tient le turbo ou juste le TDP? Si le système de refroidissement tient le TDP, mais pas le turbo, à quel point la performance réelle diffère-t-elle? Et si je refuse que mon CPU consomme plus que le TDP et que je désactive le turbo, quelle est la performance? C'était tout l'intérêt de ces tests à 125W pour le 12900K.

Les CPU sont vendus autour d'un TDP. Inclure des tests où la consommation reste dans le TDP, c'est donc d'une part permettre aux personnes qui dimensionnent pour le TDP d'avoir un aperçu relativement clair des performances obtenues, et pouvoir choisir en conséquence. Mais c'est surtout ne pas cautionner les combines des constructeurs, qui font ça juste pour gagner des points dans les benchmarks, dans le cas présent au détriment du consommateur.
par Eric B., le Dimanche 29 Mai 2022 à 16h18  
par fkanker, le Vendredi 27 Mai 2022 à 20h45
Le monde ne tourne pas autour du CDH, le monde anglophone en particulier (tu remarqueras que j'ai bien écris "la plupart" et non pas "tous" ).Mais si on veut parler du CDH, la sortie d'Alder Lake faisait bien des bench à 125 W pour le 12900K, et j'avais pensé que c'était une bonne approche. Le dernier test parle bien de la conso dans la présentation, mais pas dans le protocole (fréquence oui, mais pas de tau, conso max, etc, je pinaille mais ça devrait figurer là ), et surtout compare les deux CPU avec des turbo bien différents. Pourquoi ne pas inclure des tests où la conso reste dans le TDP? Car au final ça rentre dans les bench que je "dénonce" initialement, et qui justifient cette décision bien pourrie d'AMD de monter le turbo max à 230 W.
Parce que l'on doit tester les CPU tels qu'ils sont prévus par les concepteurs (et seront utilisés par la majorité des acquéreurs) pas tels que l'on voudrait qu'ils soient . Le test à 125 W était là pour indiquer l'impact de ce réglage sur les performances et les raisons poussant Intel à ce choix peu reluisant. Pour le reste, TAU est toujours réglé à 56s et les valeurs PL1 / PL2 (pour reprendre l'ancienne terminologie bleue) sont celles édictées par Intel que l'on peut retrouver sur l'ARK, j'ai effectivement omis de l'ajouter en page protocole du dernier dossier CPU, je corrigerai cela prochainement. Par contre, Il ne faut pas retourner la responsabilité : ce sont les concepteurs qui prennent cette décision pas nous.

On peut effectivement pointer du doigt certains testeurs qui se contentent de tester les processeurs avec de simples "benchs" généralement brefs (< TAU) sans chercher à aller plus loin au niveau de la puissance réclamée. Mais ce serait aussi vite oublier que les fabricants de cartes mères prennent depuis longtemps des libertés avec les réglages par défaut et imposent souvent des overclocking ou un boost de puissance sans le consentement de l'utilisateur. Alors oui, on attend d'un testeur d'être attentif à ce genre de point, mais comme je l'ai écrit à plus d'une reprise, il est souvent bien difficile de réussir à faire fonctionner un CPU tel qu'il est conçu par son concepteur, nul doute que beaucoup d'utilisateurs n'ont ni la compétence ni même l'envie ou la connaissance de ce biais pour y parvenir. Dans ces conditions, est-ce à ce point une erreur de tester les CPU ainsi ?

Ce n'est pas ma conception, donc je tâche de revenir aux spécifications d'origine (quand on les connait parce que côté communication c'est pas toujours ça !!), mais je me garderai bien de juger qui que ce soit à ce sujet. Là aussi la responsabilité en incombait principalement à Intel qui a toléré ce laisser-aller à ce niveau pendant des années, en entretenant le flou sur les spécifications réelles de leur puces. Finalement, le fait de communiquer officiellement sur une puissance en boost supérieure à 200 W s'avère beaucoup plus honnête que ce ne fut le cas précédemment...

Maintenant ne nous leurrons pas, s'ils adoptent tous les deux cette politique d'augmentation significative de la puissance requise, c'est, selon moi, bien à cause d'une compétition acharnée et de gains au niveau des procédés de gravure insuffisants pour compenser les inflations demandées au niveau des fréquences de fonctionnement et de la complexité des puces (nombre de transistors, interfaces). A noter que l'on prend le même chemin pour les GPU. On ne cautionne pas pour autant, c'est juste factuel.
par Jemporte, le Dimanche 29 Mai 2022 à 12h05  
En fait je pensais qu'AMD allait corriger sa présentation dans le bons sens, en valorisant davantage son produit, tellement c'était peu enthousiasmant.
Raté, c'est encore pire. Ca redonne de la valeur au Ryzen 5000 et à AM4.
par Jemporte, le Dimanche 29 Mai 2022 à 12h03  
A propos :
C'est sûr que c'est un PPT ou bien ça pourrait être un ODP ?
par Ragoteur Gameur embusqué, le Samedi 28 Mai 2022 à 17h07  
par Jemporte, le Samedi 28 Mai 2022 à 14h08
C'était vrai au début notamment sur certains programmes non pro, genre ceux de Cyberlink.
L'encodage GPU permet d'aller plus vite à qualité égale qu'avec le CPU. Après, l'encodage GPU n'a parfois pas encore totalement intégré tooutes sles fonctionnalité de variante CPU.
Pour vitesse et qualité faut surtout des VPU comme Argos de Google pour l'encodage vidéo youtube très haute qualité en temps réel

un grand lien tout pourri
par Jemporte, le Samedi 28 Mai 2022 à 14h08  
par Calinou, le Samedi 28 Mai 2022 à 12h53
L'encodage sur CPU reste pertinent pour 2 raisons:

- L'encodage CPU permet de maximiser la qualité (par rapport à la taille du fichier), alors que l'encodage GPU privilégie une faible utilisation des ressources système. Avec un encodage GPU, on se retrouve avec un fichier dont la qualité n'est pas extraordinaire vis-à-vis de sa taille.
- Pour un usage serveur, il n'y a généralement pas de GPU utilisable pour l'encodage (tout simplement parce qu'il n'y a pas de GPU).
C'était vrai au début notamment sur certains programmes non pro, genre ceux de Cyberlink.
L'encodage GPU permet d'aller plus vite à qualité égale qu'avec le CPU. Après, l'encodage GPU n'a parfois pas encore totalement intégré tooutes sles fonctionnalité de variante CPU.
par Calinou, le Samedi 28 Mai 2022 à 12h53  
par Un ragoteur sans nom en Bourgogne-Franche-Comté, le Samedi 28 Mai 2022 à 08h05
L'encodage se fait sur GPU, je pense, depuis quelques temps déjà. Encoder sur CPU ne doit plus trop représenter un usage réel.
L'encodage sur CPU reste pertinent pour 2 raisons:

- L'encodage CPU permet de maximiser la qualité (par rapport à la taille du fichier), alors que l'encodage GPU privilégie une faible utilisation des ressources système. Avec un encodage GPU, on se retrouve avec un fichier dont la qualité n'est pas extraordinaire vis-à-vis de sa taille.
- Pour un usage serveur, il n'y a généralement pas de GPU utilisable pour l'encodage (tout simplement parce qu'il n'y a pas de GPU).
par Jemporte, le Samedi 28 Mai 2022 à 11h24  
par Un ragoteur sans nom du Grand Est, le Samedi 28 Mai 2022 à 10h10
En même temps, grave-le en 5nm, et ce que tu décrit-là, c'est un Zen 4. Encore heureux que Zen 4 ait grosso-modo les mêmes performances que Zen 4
En fait non, puisqu'on aurait aimé que l'architecture profite du 5nm pour s'étoffer et apparemment ce n'est pas le cas. Et le comble c'est que le rapport perf/conso semble inférieur.

En attendant le 5600G est à moins de 180 euros sur AMZ alors que le 5600X est à 220. Le 5950X y est à 615 euros.
Alors pour tout racheter pour 15% de plus, il faudrait avoir un gain financier au niveau du CPU, car tout le reste coûtera plus cher.
par Un ragoteur sans nom du Grand Est, le Samedi 28 Mai 2022 à 10h10  
par Jemporte, le Vendredi 27 Mai 2022 à 23h20
Tout à fait. En fait en augmentant la fréquence on n'augmente pas directement la vitesse de traitement.
Mais un Zen3 OC + DDR5 + cache augmenté similaire à Zen 4, devrait afficher grosso-modo les mêmes perfs.
En même temps, grave-le en 5nm, et ce que tu décrit-là, c'est un Zen 4. Encore heureux que Zen 4 ait grosso-modo les mêmes performances que Zen 4
par Un ragoteur sans nom en Bourgogne-Franche-Comté, le Samedi 28 Mai 2022 à 08h05  
Je crois que les testeurs ne doivent pas faire vite, cela leur prend pas mal de temps pour tester au mieux en atteignant la fréquence de fonctionnement stabilisée, pour ceux qui prennent le temps de le faire. Je doute que des heures d'utilisation soit réalisable. Car je suppose que les heures intenses ne doivent pas seulement n'être que de l'encodage, sinon je vois pas où serait le test, il faut aussi collecter les données mesurées et les compiler pour qu'elles soient lisibles par les lecteurs.
L'encodage se fait sur GPU, je pense, depuis quelques temps déjà. Encoder sur CPU ne doit plus trop représenter un usage réel.