COMPTOIR
  
register

Test • Zen 5 vs Arrow Lake-S : 9800X3D, Core Ultra 285K, 265K et 245K

Consommation en baisse chez Intel, mais à la hausse chez AMD

Certaines cartes mères ayant la fâcheuse tendance de router une partie de l'énergie consommée par le CPU via le 24pins, nous réinstaurons les mesures de consommation à la prise. Il faut toutefois nuancer celles-ci puisqu'elles représentent la consommation totale de la configuration (sans GPU), y compris le rendement de l'alimentation. Nous intègrerons à l'avenir une mesure sur le 12V du 24 pins également. Nous avons également conservé le relevé sur le rail CPU 12V, car il permet certaines comparaisons pertinentes. Notez toutefois que la consommation relevée ici concerne une valeur typique (moyenne sur une minute après 9 minutes d'activité), mais il y aura naturellement des pics réguliers dans un sens ou dans l'autre.

Les améliorations apportées par Intel à sa nouvelle architecture sont claires, puisque le nouveau fleuron, l'Ultra 9 285K, affiche une réduction de 50% par rapport au 14900K. Alors oui, ça n'était pas bien compliqué de faire mieux que ce four digne des Pentium d'antan, mais quand même, le fondeur de Santa Clara amorce un pas dans la bonne direction. Des économies d'énergie qui se propagent sur toute la gamme.

Pour ce qui est du 9800X3D, le passage à une fréquence de base plus élevée fait exploser la consommation lorsqu'il est fortement sollicité. Mais finalement, cela se traduit également par des performances en hausse, de sorte que nous considérons encore cette modification comme une amélioration. Ce d'autant plus qu'au repos ou lors de faibles sollicitations, la puce se montre tout aussi frugale que le 7800X3D. AMD montre une fois encore que son architecture Zen 5 propose le meilleur compromis performance/consommation actuel. 

Températures : finis les fours !

Il est assez drôle de constater que malgré 2 approches très différentes, tant AMD qu'Intel ont réussi a faire baisser la température de leurs CPU, et ce alors que chez AMD, la consommation a augmenté de près de 50%.

Ceci s'explique par le changement de position entre le CCD (la partie du die qui embarque tous les cores et le cache) et les 64 Mo de cache supplémentaire. Auparavant, ce dernier élément était placé par-dessus le premier, de sorte qu'il devenait un obstacle à la dissipation thermique. Désormais, cette partie fait office de base pour le CCD, qui se retrouve donc au-dessus, au plus proche du heatspreader et donc du cooling CPU. Cela se ressent immédiatement sur les températures de fonctionnement, et c'est d'ailleurs ce point qui a permis à AMD d'augmenter les fréquences de base. En pratique, et avec exactement le même refroidissement, on passe de 75,4 à 81,4 °C. Une augmentation de température, oui, mais qui se traduit également par un gain de 27% des performances applicatives. En comparaison, notre 9700X se contentait de 53,4°C !

Pour ce qui est des Arrow Lake, la baisse drastique de la consommation permet de revenir dans des limites plus tolérables. L'Ultra 7 265K se contente de 84°C en charge prolongée sous Cinebench 2024 avec un D15 G2 (à fond). En comparaison et dans les mêmes conditions, l'î7-14700K file vers les 90°C en quelques secondes et s'y accroche ensuite comme une moule à son rocher avec une température maximale de 97°C. Et ce alors que les performances dans ce test sont inférieures d'environ 8%.

Overclocking : Joker !

Grosse nouveauté sur le 9800X3D, il est possible de l'overclocker. C'est le gros avantage de virer la couche de cache 3D des CCD : ils sont mieux refroidis et on obtient une bien meilleure montée en fréquence. En pratique, vous pouvez donc tout à fait régler votre overclocking comme ça vous chante, mais pas de quoi casser 3 pattes à un canard. En effet, comme souvent avec les CPU modernes, il est compliqué d'atteindre manuellement le même niveau d'optimisation. Il est possible d'obtenir à peu près les mêmes fréquences qu'en Boost maximal, mais au-delà, impossible de stabiliser le CPU. Une utilité toute relative donc, et le tout pour une consommation et une chauffe supérieure au mode par défaut lorsqu'on ne tire pas à 100% dans les cores. En effet, le BIOS de notre Crosshair X870E Hero n'autorisait pas d'offset positif de la courbe de tension, seulement négatif. Il devenait donc obligatoire de passer par une tension fixe pour atteindre les fréquences visées. 

arrow lake s oc

Chez Intel, la plateforme Arrow Lake-S apporte de nombreux changements, à commencer par un pas de 16 MHz pour l'ajustement de la fréquence CPU. Mais en réalité, c'est surtout utile à Intel afin de grappiller chaque dixième de MHz partout où c'est possible. Mais pour un overclocking quotidien, pouvoir stabiliser 5433 MHz ou 5400 MHz ne change finalement pas grand-chose. Et comme chez AMD, il est possible d'atteindre les fréquences maximales du Turbo Boost multicore, mais pas vraiment plus. Ça pourrait se révéler utile pour verrouiller des fréquences multicore prolongées, mais on y perd du côté des usages 1 ou 2 cores. L'overclocking séparé des E-cores est également de la partie, mais là encore, Intel a bien travaillé sa copie et il n'était pas possible de stabiliser le 285K au-delà des 4600 MHz d'usine.

DLVR par ci, DLVR par là

Acronyme de Digital Linear Voltage Regulator, cette nouveauté sur Arrow Lake autorise l'activation, via un composant interne au package processeur, d'un canal d'alimentation auxiliaire destiné à lisser les variations de courants, ou courants transitoires, ayant notamment lieu lors des variations brutales des besoins énergétiques — le fait de passer d'idle à 50 % de charge par exemple. Le principe est similaire à l'application d'un Vdroop bien connu de ceux qui aiment tripoter leur BIOS,  à la différence que le DLVR est appliqué en fonction des besoins, et non pas en continu, impliquant dès lors un bien meilleur rendement et par la même une baisse de consommation lorsque non sollicité.

En cas d'overclocking, le DVLR se retrouve néanmoins moins intéressant par un rendement trop faible : il est ainsi possible de le désactiver en activant le Power Galting Mode pour favoriser les montées en fréquence. Du moins, il était possible, car Intel à vérouillé la chose avec le microcode 0x112 le rendant désormais éventuellement accessible aux tréfonds des options avancées d'OC des BIOS des cartes maman spécialisées dans cette activité, devenue plus ou moins inutile depuis pas mal de générations maintenant.



Un poil avant ?

Windows 365 Link, le mini-PC exclusivement cloud de Microsoft

Un peu plus tard ...

Le marché des processeurs reprend du poil du CPU

Les 11 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur qui aime les BX du Grand Est 📱, le Vendredi 29 Novembre 2024 à 21h21  
Merci pour les tests applicatifs, c'est utile !
par Lydamis en Île-de-France 📱, le Jeudi 28 Novembre 2024 à 13h21  
Moi je viens de me prendre un 9900x le meilleur de tout les monde des perf en appli très bonne, en jeu c'est pareil dans le haut du panier (surtout que je joue en 4k). La consommation est raisonnable et le tout pour 470€ couplé a une rog strix-E et la ram en 8000mhz avec le petit PBO qui va bien suis ravi.
par Scrabble, le Vendredi 22 Novembre 2024 à 06h03  
Super test.
On voit que les performances en jeu des Intel Core Ultra sont tout a fait correctes, et que leurs performances en applicatif sont carrement bonnes.
Le Intel® Core? Ultra 7 265K a 430 euros sur Amazon.de est une bonne affaire.
par Un ragoteur bio du Grand Est 📱, le Jeudi 21 Novembre 2024 à 19h59  
par Benjamin B., le Jeudi 21 Novembre 2024 à 14h17
Tout à fait, mais alors il faut aussi se poser la question de comment on accède aux ressources en question. Ca sous-entend un abonnement à du cloud computing et des données relativement compactes, ou une connexion solide. Ca marche pour du rendu3D, selon les sources, mais ca l'est un peu moins pour du montage par ex. Ou alors ca implique de bosser avec des proxys, ce qui nécessite quand meme un transcodage à un moment et une gestion distante des bibliothèques.
C'est sur que d'un point de vue écologique, il serait bien plus pertinent de centraliser et de mutualiser la puissance de calcul, tant pour les jeux que le boulot. Mais tant que ca ne se démocratise pas, certains auront toujours besoin d'un PC pour jouer, et finalement qu'est-ce que 100, 200, 300€ de plus sur le CPU pour doubler les perfs justement. A titre perso, mon PC ne me sert pas souvent pour du montage, mais quand c'est le cas, gagner 10 minutes me change la vie (c'est très subjectif) et il me suffit de quelques fois pour que le surcout du CPU soit "rentabilisé".
Je ne parlais pas des jeux qui doivent justement être "en temps-réel", mais bien des rendus longs tels que ceux qui servent aux benchmarks, et même encore plus lourds en fait.

Le cloud n'est pas non plus pertinent : les serveurs de calcul existaient bien avant ce concept un peu fourre-tout.
par Benjamin B., le Jeudi 21 Novembre 2024 à 14h17  
par Un ragoteur bio embusqué, le Jeudi 21 Novembre 2024 à 08h12
Pour en revenir brièvement aux usages spécifiques, la plupart étant très éloignés du "temps-réel", il convient aussi de se poser la question de ce que peut apporter un gain de perfs, fût-il (futile? ) de 100% : l'organisation du travail, la disponibilité H24 de l'outil informatique même sans supervision humaine et le déchargement de ces tâches sur des machines dédiées aux calculs lourds qu'elles impliquent deviennent logiquement les points de réflexion privilégiés, reléguant le PC au statut de terminal plus ou moins apte par lui-même à faire le boulot préparatoire.
Tout à fait, mais alors il faut aussi se poser la question de comment on accède aux ressources en question. Ca sous-entend un abonnement à du cloud computing et des données relativement compactes, ou une connexion solide. Ca marche pour du rendu3D, selon les sources, mais ca l'est un peu moins pour du montage par ex. Ou alors ca implique de bosser avec des proxys, ce qui nécessite quand meme un transcodage à un moment et une gestion distante des bibliothèques.
C'est sur que d'un point de vue écologique, il serait bien plus pertinent de centraliser et de mutualiser la puissance de calcul, tant pour les jeux que le boulot. Mais tant que ca ne se démocratise pas, certains auront toujours besoin d'un PC pour jouer, et finalement qu'est-ce que 100, 200, 300€ de plus sur le CPU pour doubler les perfs justement. A titre perso, mon PC ne me sert pas souvent pour du montage, mais quand c'est le cas, gagner 10 minutes me change la vie (c'est très subjectif) et il me suffit de quelques fois pour que le surcout du CPU soit "rentabilisé".
par Un ragoteur bio embusqué, le Jeudi 21 Novembre 2024 à 08h12  
Le graph de consommation système est très parlant : bien qu'Intel ait pas mal mis en avant la baisse de consommation, ces Core Ultra 200 consomment encore beaucoup d'énergie...

Un i5-245K à 197W, (système) c'est pas franchement glorieux, même si le 9800X3D donne la fausse impression que ça pourrait être bon : le 9700X consomme quand même presque 50W de moins pour des perfs respectables hors usages spécifiques (qui concernent malheureusement une bonne part des benchmarks, d'autres, comme la compression de fichiers, étant anecdotiques). Juste dommage que la plateforme AMD consomme trop au repos, qui concerne quand même une bonne part de l'uptime d'un PC (entre autres, pour la lecture de tests sur le comptoir, par exemple )

Pour en revenir brièvement aux usages spécifiques, la plupart étant très éloignés du "temps-réel", il convient aussi de se poser la question de ce que peut apporter un gain de perfs, fût-il (futile? ) de 100% : l'organisation du travail, la disponibilité H24 de l'outil informatique même sans supervision humaine et le déchargement de ces tâches sur des machines dédiées aux calculs lourds qu'elles impliquent deviennent logiquement les points de réflexion privilégiés, reléguant le PC au statut de terminal plus ou moins apte par lui-même à faire le boulot préparatoire.

Tout ceci amène à la conclusion assez peu optimiste que les dérives des fournisseurs de matériel ont fini par pervertir les protocoles de test, les usages n'ayant pas réellement changé depuis plus d'une décennie, a contrario du panel d'usages considérés. Je note d'ailleurs que ça aurait commencé avec l'Athlon, qui nous a, sauf erreur, valu l'intégration des premiers outils de rendu 3D.
par Bébert le rahoteux en Wallonie 📱, le Jeudi 21 Novembre 2024 à 07h43  
Bonjour. Lassé des problèmes avec deux Intel de 13e gen. Je viens d'acheter le Ryzen 9 dernière mouture. Ce n'est pas par plaisir mais il me faut un outil de travail fiable. Un avantage est que ma ddr5 fonctionne à la vitesse annoncée et 1200 MHz de plus c'est déjà cela de pris. Je souligne que mon second pc reste un Intel I9 12e gen en DDR4 fonctionne très bien. La suite vous imposera un nouveau socket et peut-être une alim pour les câbles V1 et V2 comme les derniers AMD. Pour le reste faites selon votre budget. Pas nécessaire de se ruiner pour un pc valable.
par Adam & Eve 📱, le Jeudi 21 Novembre 2024 à 07h21  
Content de voir enfin arriver ce test sur CDH. J'ai eu tout loisir de le consulter faute de FS2024 jouable hier soir

Même castrées, les évolutions de vos protocoles sont au rendez-vous. On attend la suite annoncée avec (im)patience
par Un davistos83 non co de Normandie 📱, le Jeudi 21 Novembre 2024 à 05h28  
Merci bcp pour ce test.
par Reflections, le Mercredi 20 Novembre 2024 à 20h54  
Merci pour les différents tests
par beguemot, le Mercredi 20 Novembre 2024 à 19h45  
Merci pour ce comparatif. Je vais garder mon 7800X3D pas assez de gain à mon gout