COMPTOIR
  
register

Faut-il un gros CPU pour une RTX 4090 : second round !

Il y a deux semaines, TPU avait sorti un article concernant la puissance du CPU idéale pour faire carburer une RTX 4090. Nos confrères avaient choisi un 5800X et un 12900K, le premier représentant le milieu de gamme, peu importe la gamme, le second le haut de gamme, toutes séries confondues. Beaucoup n'y ont vu qu'un duel de CPU de marque différente, favorisant plus une entité qu'une autre, après tout, on voit le diable où on veut bien le voir. Du coup, TPU a remis le couvert, en conservant le 5800X, et en ajoutant le plus gros CPU gaming rouge, le 5800X3D.

 

Sur les 53 jeux, et les 3 définitions standard, notre confrère a fait ses mesures. Il en ressort ceci, synthétisé dans un zouli tableau :

 

wtf1080p1440p2160p
Ryzen 7 5800X 100 % 100% 100%
Core i9-12900K 115.7 % 113.8 % 106.5 %
Ryzen 7 5800X3D 118.5 % 115.4 % 106.8 %

 

On voit donc une tendance identique, avec des chiffres qui le sont quasiment. Et cela confirme que le choix initial était bon afin de mettre en avant l'importance du CPU dans l'exploitation de la RTX 4090. Évidemment, le 580X3D est un peu supérieur en FHD, un petit peu moins en QHD, et égal en UHD que son ennemi bleu, mais il ne change pas la conclusion. Ce qui est intéressant finalement, c'est de voir comment se comporte le meilleur CPU rouge en gaming, puisque les Ryzen 7000 ne lui ont pas repris la couronne, même s'ils la touchent des 9 doigts. Selon les jeux, au détail, vous aurez beaucoup ou peu de gains en passant d'un 5800X à un 5800X3D, ça dépend grandement des moteurs 3D, mais c'était déjà le cas dans le match entre 5800X et 12900K. À vous de voir quel est le jeu (moteur) que vous utilisez le plus, mais en UHD, il n'est pas très pertinent de changer de processeur pour gagner 6 à 7 % de perfs avec une RTX 4090. Il y a fort à parier que sur la RTX 4080, ça soit encore moins marqué, pour RDNA 3, nous verrons demain soir ce que nous a réservé AMD !

 

palit rtx 40 gamerock

 

Un poil avant ?

Vous trouvez qu'un connecteur PCIe 16 pins n'est pas assez ? Et deux, c'est mieux ?

Un peu plus tard ...

Toujours plus de supputations sur le 12VHPWR, mais rien encore de bien certain

Les 15 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Jemporte, le Dimanche 06 Novembre 2022 à 00h57  
par Un ragoteur des lumières du Centre-Val de Loire, le Jeudi 03 Novembre 2022 à 15h11
C'est quoi ce charabia?
Oui c'est pas très clair. J'ai cru comprendre que le fait de flouter n,'est pas la bonne méthode mais qu'il fallait afficher des superpositions d'images intermédiaires, ce que semble vouloir faire Nvidia en estimant l'image intermédiaire sans devoir la rendre. Du moins c'est ce que j'ai compris.
De toute façon ces principes trompent l'oeil et la compréhension. Le cerveau traite le résultat (l'impression sur la rétine) mais ne voit pas les choses au niveau des FPS abracadrabants qu'on veut nous vendre. Il suffit donc de donner l'impression qu'il y plus de FPS perçus.
par Un ragoteur des lumières du Centre-Val de Loire, le Jeudi 03 Novembre 2022 à 15h11  
par Jemporte, le Jeudi 03 Novembre 2022 à 13h42
Sauf que c'est pas encore en place pour ce qui est annoncé.
Je parle pas du motion blur des LCD ou d'un éventuel blur basique entre les images pour le mouvement... qui d'ailleurs doivent être supprimés...
Si j'ai bien compris Nvidia compte estimer la saccade de l'image intermédiaire et pas générer une trainée moyenne qui dégrade l'image, tout ça sans avoir à rendre l'image intermédiaire.
C'est quoi ce charabia?

par Jemporte, le Jeudi 03 Novembre 2022 à 13h42  
par jumorolo, le Jeudi 03 Novembre 2022 à 06h56
le blur dans les jeux c'est dégueulasse
Sauf que c'est pas encore en place pour ce qui est annoncé.
Je parle pas du motion blur des LCD ou d'un éventuel blur basique entre les images pour le mouvement... qui d'ailleurs doivent être supprimés...
Si j'ai bien compris Nvidia compte estimer la saccade de l'image intermédiaire et pas générer une trainée moyenne qui dégrade l'image, tout ça sans avoir à rendre l'image intermédiaire.
par Jemporte, le Jeudi 03 Novembre 2022 à 13h40  
par Kptèïne¶, le Jeudi 03 Novembre 2022 à 08h35
À quand des supraconducteurs pour alimenter nos CG ?
Associés bien sûr à de nouveaux circuits de cryocooling car les godets pour l'azote liquide c'est quand même un peu délicat à manier...
Gain mineur. Je préférerais des GPU à base de supraconducteurs, histoire de booster le puissance de calcul x1000.
par Un ragoteur qui draille en Bourgogne-Franche-Comté, le Jeudi 03 Novembre 2022 à 12h14  
par Jemporte, le Jeudi 03 Novembre 2022 à 00h24
Mais tout le monde n'a pas des yeux bioniques et le commun des mortels se contente d'un très confortable 144hz surtout en FHD.

Comme déjà discuté, un simple blur bein géré entre les images permet même de se passer du 144hz, l'oeil étant incapable de suivre. Il me semble que Nvidia en a parlé pour Lovelace.
En effet, si tu ajoutes du flou entre les images, ça permet de se passer de jouer tellement c'est moche. Du coup, un simple écran 24Hz et un minipc suffisent.
par Un gpgpu des ragots des Pays de la Loire, le Jeudi 03 Novembre 2022 à 11h13  
Avec la possible baisse de prix à venir, c'est très intéressant
par Kptèïne, le Jeudi 03 Novembre 2022 à 08h35  
par dfd, le Mercredi 02 Novembre 2022 à 18h56
Le plus important avec la RTX 4090 reste le bundle : un bon extincteur à CO² collé à l'équerre reste le must have.
En plus, en action, l'effet réfrigérant augmente encore les perfs de la bête...
À quand des supraconducteurs pour alimenter nos CG ?
Associés bien sûr à de nouveaux circuits de cryocooling car les godets pour l'azote liquide c'est quand même un peu délicat à manier...
par Thibaut G., le Jeudi 03 Novembre 2022 à 08h07  
par jumorolo, le Jeudi 03 Novembre 2022 à 06h56
le blur dans les jeux c'est dégueulasse
+10000000000000000
par jumorolo, le Jeudi 03 Novembre 2022 à 06h56  
par Jemporte, le Jeudi 03 Novembre 2022 à 00h24
Mais tout le monde n'a pas des yeux bioniques et le commun des mortels se contente d'un très confortable 144hz surtout en FHD.

Comme déjà discuté, un simple blur bein géré entre les images permet même de se passer du 144hz, l'oeil étant incapable de suivre. Il me semble que Nvidia en a parlé pour Lovelace.
le blur dans les jeux c'est dégueulasse
par Jemporte, le Jeudi 03 Novembre 2022 à 00h24  
par ragoteur d'Occitanie, le Mercredi 02 Novembre 2022 à 22h05
Pas forcément. Elle est faite aussi pour les écrans 1080p et 1440p à 360hz ou 500hz.
Mais tout le monde n'a pas des yeux bioniques et le commun des mortels se contente d'un très confortable 144hz surtout en FHD.

Comme déjà discuté, un simple blur bein géré entre les images permet même de se passer du 144hz, l'oeil étant incapable de suivre. Il me semble que Nvidia en a parlé pour Lovelace.
par ragoteur d'Occitanie, le Mercredi 02 Novembre 2022 à 22h05  
par Scrabble¶, le Mercredi 02 Novembre 2022 à 20h26
Bah la RTX 4090 est faite pour de l UHD, donc ça sert à rien de s exciter sur le CPU
Pas forcément. Elle est faite aussi pour les écrans 1080p et 1440p à 360hz ou 500hz.
par Wulfy, le Mercredi 02 Novembre 2022 à 21h34  
Le travail est faramineux, mais voir un test de plusieurs CPU avec la 4090 me botterait bien.
Là on a des %, c'est pas toujours parlant