Test • Intel Core i9-14900K, Core i7-14700K & Core i5-14600K |
————— 17 Octobre 2023
Test • Intel Core i9-14900K, Core i7-14700K & Core i5-14600K |
————— 17 Octobre 2023
Nous débutons nos tests synthétiques par AIDA64 et ses outils de "bande passante mémoire" dans un premier temps. La configuration retenue pour les processeurs est pour rappel la suivante : 3200 MHz pour la DDR4, côté DDR5 c'est 4800 MHz pour les puces Alder Lake (fréquence maximale officielle) et 5200 MHz pour les Zen 4 / Raptor Lake. Là aussi, il s'agit de la spécification officielle maximale. La quatorzième génération pousse le bouchon un peu plus loin avec une fréquence officiellement supportée de 5600 MHz. Logiquement, cette augmentation de fréquence permet de gagner en bande passante.
En ce qui concerne les latences mémoires, nous observons un petit contrepied du gros 14900K qui se retrouve légèrement dépassé par son petit frère, qui lui fait jeu égale avec le fer de lance de la série 13. Pas de nette évolution sur ce point, les séries 10 et 11 dominant toujours le sujet côté Intel.
Le benchmark synthétique suivant est tiré de CPU-Z et vous permettant une comparaison plus aisée avec votre propre matériel. Nous reportons toujours les résultats monothread et multithreads. Ici, nos deux nouveaux venus et leurs fréquences plus importantes prennent la tête du convoi Intel, et creusent encore plus l'écart face aux rouges. Le 14700K profite de son apport de cores pour venir titiller en multithread le gros Ryzen 9 7950X.
Nous passons ensuite les deux CPU par Cinebench R23. La fréquence plus élevée du 14900K permet à Intel de conserver la première place en mono thread. Par contre, AMD mène toujours la dance en multithread, devançant de très peu le nouveau Core i9. Le "petit" 14700K quant à lui se démarque nettement de son prédecesseur,
Voilà, c'est terminé pour les benchs synthétiques, passons à présent aux tests pratiques.
|
Un poil avant ?Des chambres à vapeur qui s'oxydent sur des RTX Founders Edition | Un peu plus tard ...« Super ! Je suis de retour ! » déclare un GPU |