COMPTOIR
register

Ryzen vs Kaby vs Sandy en jeu : le bilan !

Que vaut réellement Ryzen en jeu ? HardOCP a tenté d'apporter une réponse. Pour ce faire, notre confrère a fait un protocole sympa mais pas exhaustif dans son approche, du moins qui ne permet pas de mettre en confrontation directe les puces testées du fait de fréquences différentes. Il a pris un R7 1700X à 4 GHz, un Core i7 2600K à 4.5 GHz et un Core i7 7700K à 5 GHz, et a placé dessus différentes cartes graphiques à tour de rôle. Il y a une GTX 1080Ti pour de l'UHD, une GTX 1080 pour du 1440p, une GTX 1060 pour du 1080p, une RX 480 pour du Full HD également, et un Crossfire de RX 480 pour du Full HD et du 1440p. Derrière tout ça il y a 10 jeux dont deux qui utilisent le même moteur (Mass Effect Andromeda et Battlefield 1).

 

Si vous voulez comparer les performances des CPU directement, il faudra attendre notre prochain test à venir. Par contre l'article de HardOCP permet de voir quelle influence a le CPU surtout en 1080p, et selon la puissance de la carte graphique. C'est quand même bien sympa à lire, et il se pourrait qu'il y ait quelques surprises en 1080p, car on le sait, dès qu'on monte en définition, c'est le GPU qui limite la chose. Ce n'est d'ailleurs pas pour rien qu'AMD parlait de jeu en UHD lors de sa présentation Ryzen en décembre dernier, car ça ne permet absolument pas de dire ce que vaut en jeu le CPU, malins et coquins chez AMD !

 

amd vs intel v2

 

Un poil avant ?

Test • Corsair Carbide SPEC-04

Un peu plus tard ...

Baisse de prix pour les Ryzen 7 1700X et 1700 ?

Les 54 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Magnafull, le Lundi 05 Juin 2017 à 11h02  
pour du 1080p perso je viens seulement de virée mon i3 3220 pour un i5 3470@4ghz pour 40€ en occasion et avec ma Gtx1060 et 8go de ddr3 tout les jeux passe a 60fps min en ultra , du coup me voila encore tranquille minimum 2 bonne années je pense
par Un médecin des ragots du Nord-Pas-de-Calais, le Lundi 05 Juin 2017 à 09h49  
par Un ragoteur de transit embusqué le Dimanche 04 Juin 2017 à 18h25
Tu ne sais vraisemblablement pas de quoi tu parles
La VR ce n'est pas juste déporter l'affichage sinon une gtx760 suffirait.
J'imagine que le fait de passer de 2d à 3d et avoir un framerate mini à 90 ips c'est du marketing et qu'avec une vieillerie quelconque on y arrive pourvu qu'on sache oc
ET sinon moi j'ai un Oculus avec une gtx670 et ça fonctionne très bien? sinon ça va toi question crédibilité tu tiens la route?
le logo VR ready servira à vendre visiblement
Message de Kevinkiki de Thessaloniki supprimé par un modérateur : HS
par Un adepte de Godwin embusqué, le Dimanche 04 Juin 2017 à 18h59  
par xenogear le Samedi 03 Juin 2017 à 09h46
Mon 2500K@4.7Ghz avec ma GTX970@stock pour du 1080p en high je les sens bien encore pour 2017 et 2018.
Pour jouer a des jeux la linié Candy Crush il tiendra encore bien plus longtemps
par Un adepte de Godwin embusqué, le Dimanche 04 Juin 2017 à 18h57  
par Un ragoteur macagneur de Harjumaa le Dimanche 04 Juin 2017 à 13h11
J'ai une config encore plus vieille, i7 980, le seul et unique problème que j'ai c'est que le PCIe 3.0 et l'USB 3.0 ne sont pas supporté.

Sinon le CPU pure, c'est juste de la folie, une config aussi vieille qui envoie toujours autant 8 ans plus tard...
A l'époque pour env 1000 euros le i7 980, encore heureux qu'il tienne encore la route
par Un ragoteur de transit embusqué, le Dimanche 04 Juin 2017 à 18h25  
par Un médecin des ragots du Nord-Pas-de-Calais le Dimanche 04 Juin 2017 à 09h56
Depuis quand le fait de déporter l'affichage dans un casque l'exclurait!? étrange conclusion que tu tires là. Ah ces gens qui ne pensent plus par eux même...Manipuler et décérébré par le marketing...Ton plumage grisonne méfie toi!
Tu ne sais vraisemblablement pas de quoi tu parles
La VR ce n'est pas juste déporter l'affichage sinon une gtx760 suffirait.
J'imagine que le fait de passer de 2d à 3d et avoir un framerate mini à 90 ips c'est du marketing et qu'avec une vieillerie quelconque on y arrive pourvu qu'on sache oc
par Un ragoteur macagneur de Harjumaa, le Dimanche 04 Juin 2017 à 13h11  
par Janus31 le Vendredi 02 Juin 2017 à 18h00
+1 : je tiens a souligner que :
1) les Sandy ne gerent pas le PCIe 3.0,
2) les Sandy sont limités à 2133Mhz
donc les résultats du 2600K sont pénalisés d'environ 8-10%.

Pour info je tourne sur SABERTOOTH P67 (normalement PCI 2.0) avec un Ivy i7-3770K (qui gère le PCIe 3.0 (et 2400Mhz max), CPU-Z m'indique que les lignes sont passées en PCIe 3.0 x16 (avec un P67 !!!).
Du coup j'ai trouvé une SABERTOOTH Z77 (nativement en PCI 3.0) + un autre Ivy i7-3770K et j'ai partagé mes 16 Go en 2 fois 8Go sur 2 PCs.
Cout total : SABERTOOTH Z77 (173&euro + 2 x ~140€ (2 x i7-3770K, OC a 4.8 et 4.6) et 2 PCs ultra performants.
Donc oui, les années passent mais les CPU n'améliorent pas grand chose POUR LE JEU ...
FAUT METTRE SON POGNON DANS LA CG !!!
J'ai une config encore plus vieille, i7 980, le seul et unique problème que j'ai c'est que le PCIe 3.0 et l'USB 3.0 ne sont pas supporté.

Sinon le CPU pure, c'est juste de la folie, une config aussi vieille qui envoie toujours autant 8 ans plus tard...
par Un médecin des ragots du Nord-Pas-de-Calais, le Dimanche 04 Juin 2017 à 09h56  
par cerealkellogs du Nord-Pas-de-Calais le Samedi 03 Juin 2017 à 10h00
Tant que vous ne jouez pas en VR ou au jeu de simu , oui le 2600k reste valable , mais pas pour autre chose ,il devient limite quand même quand on joue a autre chose que des fps...
Depuis quand le fait de déporter l'affichage dans un casque l'exclurait!? étrange conclusion que tu tires là. Ah ces gens qui ne pensent plus par eux même...Manipuler et décérébré par le marketing...Ton plumage grisonne méfie toi!
Message de Va s' y de Kerkira supprimé par un modérateur : HS
Message de En route de Kerkira supprimé par un modérateur : HS
par Janus31, le Samedi 03 Juin 2017 à 17h14  
par Starkuch le Samedi 03 Juin 2017 à 16h06
Bien que DX12 promettait de faciliter le multi-GPU, depuis son arrivé, jamais il n'y a eu autant de jeu avec si peu de compatibilité M-GPU que ce soit en DX11 ou 12. Les test plus ou moins récent en sont la preuve.
Il n'y a pas que le nombre de transistors et caches qui comptent, c'est un ensemble de choses. Et jusqu'à maintenant, ils nous le démontrent bien, enfin surtout Nvidia pour le moment. J'ai donc de gros doute en plus que le M-GPU est loin d'être utilisé par une majorité.
Et comme tu le dis, il faut un minimum de puissance CPU contrairement à quand tu as une seule carte donc une contrainte en plus. L'avenir nous le dira.
Ben normalement des efforts seront faits (au moins pour les conf dual) avec la démocratisation de la VR (même scène calculée depuis 2 positions distinctes par 2 GPUs).
NVIDIA et AMD ont leur propre techno, faudra sans doute du temps pour qu'un standard s'impose (comme pour le Freesync).
Faudrait un jour que je télécharge un SDK pour faire des tests mais "normalement" les cartes dual-GPU (avec pont SLI ou CF câblé ) devraient prendre le dessus sur les solutions de type SLI (ou CF) 2-way puisque les 2 GPUs communiquent par un pont SLI pour NV (bus PCIe pour AMD) sans parler des échanges avec le CPU pour la mémoire virtuelle, etc ...
Mon fiston finit ses études dans ce domaine, hâte de discuter de ça
par Starkuch, le Samedi 03 Juin 2017 à 16h06  
par Janus31 le Samedi 03 Juin 2017 à 15h36
Hum le multi-GPU a son avenir devant lui (DX12 et +) et tu imagines bien qu'un jour ou l'autre,.....
Ce qui explique performance EN JEU (!) de Rysen < 2600K(OC4.5) avec DDR 2133MHz
Bien que DX12 promettait de faciliter le multi-GPU, depuis son arrivé, jamais il n'y a eu autant de jeu avec si peu de compatibilité M-GPU que ce soit en DX11 ou 12. Les test plus ou moins récent en sont la preuve.
Il n'y a pas que le nombre de transistors et caches qui comptent, c'est un ensemble de choses. Et jusqu'à maintenant, ils nous le démontrent bien, enfin surtout Nvidia pour le moment. J'ai donc de gros doute en plus que le M-GPU est loin d'être utilisé par une majorité.
Et comme tu le dis, il faut un minimum de puissance CPU contrairement à quand tu as une seule carte donc une contrainte en plus. L'avenir nous le dira.