COMPTOIR
  
register

Les fréquences élevées des Core Raptor Lake à l'origine de plantages dans certains jeux ?

Les Core i9 de 13e et 14e générations comptent parmi les meilleurs processeurs pour jouer. Outre leur armada de cœurs CPU, ces Core i9-13900K et autres Core i9-14900K atteignent des fréquences aberrantes : jusqu’à 6,2 GHz pour le Core i9-14900KS. Seulement des rapports les accusent d'être la source de plantages dans certains titres.

infinity siege

Une recommandation surprenante

Cette affaire agite certains internautes depuis plusieurs semaines, mais vient d’être ravivée par les déclarations des développeurs d'Outpost : Infinity Siege. C’est un jeu développé par Team Ranger qui est paru le 26 mars dernier. À l’instar d’autres productions, comme Star Wars Jedi : Survivor – dont les développeurs avaient d’ailleurs présenté leurs excuses – ce soft est très mal optimisé. Dans les notes d’un patch censé corriger certaines sources de plantages, les membres de la Team Ranger font quelques recommandations habituelles, telles que vérifier l’intégralité des fichiers du jeu ou mettre à jour ses pilotes graphiques. La dernière est toutefois moins usuelle : elle invite les possesseurs de Core i9-13900K et de Core i9-14900K à limiter les fréquences du CPU lorsque celui-ci collabore avec une GeForce RTX 4090 (on se demande tout de même ce que la carte graphique de NVIDIA vient faire ici).

patch note infinity siege

De prime abord, cette directive peut paraître assez farfelue ; une excuse bidon servant à se dédouaner, en somme. Seulement tel que rapporté en début d’article, les deux accusés sont suspectés depuis plusieurs mois.

Notre confrère Jarred Walton, par exemple, confesse avoir subi de nombreuses instabilités lors de ses tests GPU avec le Raptor Lake. Parmi les titres problématiques, il cite Alan Wake 2, Hogwarts Legacy, ou encore Metro Exodus Enhanced Edition.

Dans un article consacré à ce sujet et publié le 23 février dernier, TH.US précise ainsi « qu’un nombre croissant d'utilisateurs des Core i9-13900K et Core i7-13700K ont signalé des plantages dans certains des jeux les plus récents, généralement accompagnés d'une erreur de mémoire vidéo insuffisante ». Outre Jarred Walton, Hassan Mujtaba de WCCFTech a indiqué, en réponse à une publication d’un certain Sebastian Castellanos incriminant globalement les jeux sous Unreal Engine 4 et 5, avoir lui aussi été confronté à ces désagréments.

Contactée par nos confrères, Intel avait répondu : « Intel est au courant des rapports concernant les processeurs d'ordinateur de bureau Intel Core 13e et 14e Génération non verrouillés qui rencontrent des problèmes avec certaines charges de travail. Nous sommes en contact avec nos partenaires et nous analysons les problèmes signalés ». La société n'a rien ajouté depuis.

Des CPU pas tous capables d’encaisser de telles fréquences ?

Sur Steam, un dénommé MrPlowjoy documente son message des préconisations formulées par deux autres développeurs : Fatshark, à qui l’on doit notamment Warhammer: Vermintide 2 et Warhammer 40,000: Darktide, mais aussi Gunfire Games, le studio derrière Remnant II / Remnant I.

Sur le site du premier, nous pouvons lire :

« Intel i9 13900k/i7 13700k : Underclocker la vitesse du 'Performance Core' (cœur de performance) : Il a été noté que les joueurs équipés du processeur Intel i9 13900k/i7 13700k sont sujets à des plantages. Les joueurs ont pu contourner le problème en sous-cadençant la vitesse du "Performance Core" à l'aide d'Intel XTU, de x55 à x53. »

Sur celui du second :

« Nous avons identifié un problème sur certains processeurs Intel de 13ème génération. Au démarrage, le jeu affiche un message indiquant qu'il n'y a plus de mémoire vidéo ou un rapport de crash s'affiche, faisant référence à un problème de décompression d'un shader. Si vous rencontrez ce problème, vous le verrez probablement aussi dans d'autres jeux DX12. Si votre processeur est overclocké, essayez de revenir aux valeurs par défaut. S'il n'est pas overclocké ou si cette méthode ne fonctionne pas, essayez d'installer Intel Extreme Tuning Utility
et de réduire votre "Performance Core Ratio" de 55x à 54x. »

cpu gearbox souscadencer core

Selon notre confrère de TH.US, le souci vient des limites fixées par défaut par la plupart des cartes mères pour les processeurs Raptor Lake : 4096 W. Il argue que cela peut « conduire à l'instabilité de l'application dans certains cas, en fonction de la qualité du silicium ». Une manière polie de dire qu’Intel commercialise des puces qui ne sont pas en mesure d’encaisser les fréquences que l'entreprise a elle-même fixées ?

Un poil avant ?

MSI Spatium M580 FROZR, le SSD qui se prenait pour un GPU

Un peu plus tard ...

La NAND continue à faire le yoyo : 15 % de hausse sur les SSD au 2e trimestre

Les 31 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un galvaudeur du guignol du Grand Est, le Vendredi 12 Avril 2024 à 12h12  
par Un énarque des ragots en Île-de-France, le Mardi 09 Avril 2024 à 06h47
Pour revenir à l'article, personnellement, j'attendrai les conclusions d'Intel. C'est comme un BSOD sous Windows, tout le monde incriminait Windows alors que dans la très majorité des cas, il s'agissait d'un problème de pilotes mal conçu par le fabricant (d'où le WHQL).
De nombreux plantages étaient également dûs à des barrettes de RAM défectueuses, voire... de câbles ATA un peu martyrisés.

Reste que la gestion d'énergie par le processeur se situe encore plus bas que l'OS et il suffit d'y faire des petits "réglages" pour dépasser, à l'occasion horriblement, les paramètres validés par Intel. L'exemple le plus évident est la limite de consommation poussée à 4kW, mais le boost maximum autorisé sur N cores au lieu d'un peut éventuellement multiplier par autant la consommation.
par Un énarque des ragots en Île-de-France, le Mardi 09 Avril 2024 à 06h47  
par Scrabble, le Samedi 06 Avril 2024 à 13h47
Oui, voila. C'est au matériel de fixer lui-même ses propres limites, c'est pas au logiciel de décider a sa place
Ce n'est pas comme ça que cela fonctionne. Le développeur code sur la base d'API, de SDK ou de Framework le tout basé sur un OS. Il est agnostique du hardware sur le plan du dev, il utilise des librairies qui font l'interface avec le matériel au travers des pilotes Windows (cas des GPU) mais pour la CPU tout se fait au travers de Windows.

Pour revenir à l'article, personnellement, j'attendrai les conclusions d'Intel. C'est comme un BSOD sous Windows, tout le monde incriminait Windows alors que dans la très majorité des cas, il s'agissait d'un problème de pilotes mal conçu par le fabricant (d'où le WHQL).
par Scrabble, le Samedi 06 Avril 2024 à 13h47  
par Un galvaudeur du guignol du Grand Est¶, le Vendredi 05 Avril 2024 à 21h05
Car ils sollicitent plus le matériel, tout simplement.
Oui, voila. C'est au matériel de fixer lui-même ses propres limites, c'est pas au logiciel de décider a sa place
par Un galvaudeur du guignol du Grand Est, le Vendredi 05 Avril 2024 à 21h05  
par Moebius13¶, le Vendredi 05 Avril 2024 à 12h18
Mais pourquoi spécifiquement en jouant à ces jeux et pas à d'autres ?
Car ils sollicitent plus le matériel, tout simplement.
par mistergrix en Auvergne-Rhône-Alpes, le Vendredi 05 Avril 2024 à 19h08  
par Un champion du monde embusqué¶, le Lundi 01 Avril 2024 à 17h27
C'est toi qui est dans l'erreur... dans une interview un type de chez nVidia avait indiqué que le coût de production de la 4090 était d'environ 600$... ils se font juste une marge de porc. Je sais plus où j'avais vu ça
par Unragoteurpashype en Auvergne-Rhône-Alpes, le Mardi 02 Avril 2024 à 10h25
Les 60% de marge , c'est en moyenne.
Amha les marges sont plus faibles sur le bas de gamme (4060 , ça doit faire 40/50%), mais une 4090 , c'est du 100% de marge à coup sûr (et encore je pense être gentil)
par YulFi, le Mardi 02 Avril 2024 à 13h01
jais retrouver la vidéo et my bad cest pas diamtech cest pax
aller a 29minute 30
un petit lien tout mignon
par Moebius13, le Vendredi 05 Avril 2024 à 12h18  
par Scrabble, le Vendredi 05 Avril 2024 à 11h58
Euh, non, la tu fait carrement fausse route, il s'agit de crash du CPU en lui meme, pas de crash logiciel
En aucun cas le code ou le processus de developpement n'est en cause
Mais pourquoi spécifiquement en jouant à ces jeux et pas à d'autres ?
par Scrabble, le Vendredi 05 Avril 2024 à 11h58  
par Moebius13¶, le Jeudi 04 Avril 2024 à 22h04
J'essaie d'être pragmatique, si dans 90% des jeux y'a pas de problèmes et que dans les 10% restants ce sont souvent les mêmes moteurs qui reviennent, alors le problème a plus de chances de venir du code et du processus de développement que du matériel en lui même.
Euh, non, la tu fait carrement fausse route, il s'agit de crash du CPU en lui meme, pas de crash logiciel
En aucun cas le code ou le processus de developpement n'est en cause
par Moebius13, le Jeudi 04 Avril 2024 à 22h04  
Mouais?.

Ayant justement un 14900K et une RTX 4090, je n'ai pas constaté de problèmes sur les jeux auxquels je joue et je n'ai pas downclocké mon CPU.

J'aurais donc plutôt tendance à pointer du doigt des développeurs qui codent mal leurs jeux sous UE4 et surtout UE5 pour prendre en charge correctement des CPU avec de telles fréquences et spécificités.

Ça ma rappelle je ne sais plus quel jeu qui fonctionnait mieux si on désactivait les E-Cores sur les CPU Intel, ça ne posait pas de problèmes sur les autres jeux mais celui là oui, du coup le problème venait du jeu selon moi.

J'essaie d'être pragmatique, si dans 90% des jeux y'a pas de problèmes et que dans les 10% restants ce sont souvent les mêmes moteurs qui reviennent, alors le problème a plus de chances de venir du code et du processus de développement que du matériel en lui même.
par Un ragoteur bio du Grand Est, le Jeudi 04 Avril 2024 à 14h11  
par Unragoteurpashype en Auvergne-Rhône-Alpes, le Mardi 02 Avril 2024 à 10h25
Les 60% de marge , c'est en moyenne.
Amha les marges sont plus faibles sur le bas de gamme (4060 , ça doit faire 40/50%), mais une 4090 , c'est du 100% de marge à coup sûr (et encore je pense être gentil)
Si on intègre la plus forte proportion de mise au rebut de dies plus gros, ça doit quand même être assez constant, sachant que l'alimentation évolue elle-même assez linéairement et la RAM aussi ces derniers temps. Reste à voir le PCB et le cooler, plus chers, mais sans que je puisse dire dans quelle mesure.

Et qu'on ne me parle pas des unités désactivées, car si un truc pue la segmentation marketing, c'est bien ça (la variante la plus castrée doit systématiquement être proche du coût de production en réalité, comme pour l'automobile où les équipements sont surfacturés par rapport à des versions dépouillées pas forcément rentables, mais aussi pas forcément très vendues en jouant sur les délais d'attente et l'attribution d'office aux concessionnaires pour forcer la main, en notant que je mets sciemment de côté la marge revendeur, qui reste relativement constante)
par YulFi, le Mardi 02 Avril 2024 à 13h01  
par Scrabble, le Lundi 01 Avril 2024 à 11h29
Tu est dans l'erreur, une RTX 4090 ca coute vraiment cher a fabriquer, donc le tarif de 1800 balles est justifié
Apres, je suis d'accord que tout le monde n'a pas besoin d'une 4090, mais ca c'est un autre problème
par Unragoteurpashype en Auvergne-Rhône-Alpes, le Mardi 02 Avril 2024 à 10h25  
Les 60% de marge , c'est en moyenne.
Amha les marges sont plus faibles sur le bas de gamme (4060 , ça doit faire 40/50%), mais une 4090 , c'est du 100% de marge à coup sûr (et encore je pense être gentil)
par Un champion du monde embusqué, le Mardi 02 Avril 2024 à 08h20  
Suite:
Irrecevable car les perf ont quasi stagné même regressé
Avec des gpu plus castré que leur équivalent rtx3000

Rappel que la rtx3060ti fait mieux que la rtx4060ti en haute résolution coucou la largeur de bus

Et désolé mais on t'a juste vendu plus cher des carte moins perf auquel on a rajouté 400-500Mhz pour compenser

Un autre bel exemple la 7900gre durant 1an castré par une fréquence mémoire de pignouf

Et donc ces rtx4060/4070 pouvait très bien n être elle basé que sur du 7-6nm tsmc rien obligeait à les faire en 4nm

regarder les futur rtx5000 des économie d énergie font se faire avant tout sur l emploi de la gddr7 moins energivore que la gddr6x
Et en terme fabrication la gddr7 est moins complexe à fabriquer que la gddr6x

Ne penser pas que NVIDIA ne le sait pas et ne va pas négocier ces puces gddr7 à la baisse de prix
C est pas pour rien si il se contentera de puce gddr7 à moindre fréquence

Par contre si NVIDIA fait encore ça "censuré" sur la largeur de bus
Ils joueront n en doutez pas sur l argument "mais du coup on a fait l effort de mettre des puces 3GB" donc c est plus cher pour 16GB
Lorsqu il sagira de gonfler la mémoire sur des CG avec un bus mémoire ridicule de 96/128/256bits
Comme si qqun leur avait mit un couteau sous la gorge pour castrer volontairement la largeur de puce memoire