COMPTOIR
  
register

Crysis 3 benché : AMD vs Nvidia, ça joue des coudes !

Crysis 3, c'est l'histoire d'un nouveau rendez-vous raté de Crytek avec les gamers. Si Crysis 2 avait déçu techniquement et assuré une certaine histoire solo, Crysis 3 est le contraire. le jeu est techniquement impeccable, et ceci est inversément proportionnel à la qualité du jeu solo - un désastre finalement qui coûte en moyenne 10€ l'heure de jeu - pas franchement appréciée. Si d'aventure Cevat Yerli pouvait s'inspirer du dernier Tomb Raider dans l'équilibre technique/solo....

 

Bref tout ça pour dire qu'il n'est quand même pas complètement illogique de vouloir tester la brute Cry Engine 3 sous sa plus belle robe. HardOCP a fait sa review, d'abord axée sur les performances des cartes du moment HD 7800/7900 et GTX 660Ti à 680, et ce avec le patch 1.2 publié il y a 4 jours, sans omettre de mentionner les derniers pilotes Catalyst 13.2 bêta 7 et Geforce 314.14 bêta. L'article se termine sur une analyse visuelle des divers effets d'antialiasing, à vous de trouver le réglage qui ira bien à votre configuration.

 

crysis3_banniere.jpg  

 

Accéder au test chez HardOCP

Un poil avant ?

Seagate rentre dans l'histoire du dédé

Un peu plus tard ...

La GTX Titan iChill d'Inno3D

Les 54 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par simous, le Vendredi 15 Mars 2013 à 07h32  
par Un ragoteur gaulois de Illinois, le Jeudi 14 Mars 2013 à 23h58
Sinon autrement il moche ou quoi ? Le gars il a besoin de mettre le jeu en msaa 8x pour le trouver magnifique.
en x8 , oui il est superbe , niveau qualité détails les particule de poussiére qui volent partout quand les mec balance des grenades en multi mais en x4 , x2 il est beau aussi mais la différence se vois , aprés c'est une question d'abitude peut étre
le ressentie des filtres certain aiment d'autre non , certain peuvent les mettre , d'autre non
par Un ragoteur gaulois de Illinois, le Jeudi 14 Mars 2013 à 23h58  
par simous, le Jeudi 14 Mars 2013 à 20h16
en msaa x8 , je le trouve magnifique ce jeux
Sinon autrement il moche ou quoi ? Le gars il a besoin de mettre le jeu en msaa 8x pour le trouver magnifique.
par simous, le Jeudi 14 Mars 2013 à 20h16  
en msaa x8 , je le trouve magnifique ce jeux
par ilyon, le Jeudi 14 Mars 2013 à 18h25  
Le TXAA d'NVIDIA en prend un coup en tout cas. C'est assez dommage, j'ai toujours trouvé que l'implémentation d'AA non Multisample était plus homogène chez les verts, et là, ça semble être déconseillé.
A voir ce que le SMAA (un MLAA teinté de multisample) peut donner sur le long terme et surtout sur d'autres moteurs, car si son impact est aussi faible pour un rendu aussi bon, c'est l'avenir: le FXAA et le MLAA sont au mieux des blurrers fous, et le MSAA est de toute façon, à chaque génération, un destructeur de performances.
par t3ddy, le Jeudi 14 Mars 2013 à 17h59  
C'est super, j'ai appris quelque chose. Merci
Je pense que le débat est intéressant. Il me semble qu'à l'époque HFR avait fait un dossier la dessus (les histoires de trafic des filtrages pour gagner quelques fps dans les tests des sites ) mais je n'arrive pas à le retrouver.
Si les développeurs ne se sont pas pris la tête et font tout calculer en FP32 ( float precision ? c'est ça? ) même lorsque cela n'est pas nécessaire ( quitte à ce que ça rame avec une carte MDG ) , ce n'est effectivement pas top.
par Un ragoteur de transit de Haute-Normandie, le Jeudi 14 Mars 2013 à 17h03  
par Un ragoteur qui revient embusqué, le Jeudi 14 Mars 2013 à 16h10
Mouai, sur PC, ce qui plombe surtout les perfs, c'est l'empilement de couche software : DirectX / windows / Drivers. Après, les modif de driver ça existe depuis un baille j'avais des vieux détonators et des catalyst DNA modifiés, mais globalement, les paramètres modifiés sont toujours les mêmes : LOD negatifs / Type d'AA / filtrage etc etc Bref; rien de magique. on peut faire pareil avec NVinspector / Rivatuner / radeon inspector etc etc
C'est clair, un problème de fond dans la lourdeur du système, maintenant ceci de la part microsoft à bien sous DX11: "To use minimum precision in HLSL shader code, declare individual variables with types like min16float (min16float4 for a vector), min16int, min10float, and so on. With these variables, your shader code indicates that it doesn't require more precision than what the variables indicate. But hardware can ignore the minimum precision indicators and run at full 32-bit precision. When your shader code is used on hardware that takes advantage of minimum precision, you use less memory bandwidth and as a result you also use less system power as long as your shader code doesn't expect more precision than it specified. "


par Un ragoteur qui revient embusqué, le Jeudi 14 Mars 2013 à 16h10  
par Un ragoteur de transit de Haute-Normandie, le Jeudi 14 Mars 2013 à 14h15
Non, tu n' y es pas, Il suffit de regarder sur console du premier au dernier jeux pour comparer l'évolution graphique et performance avec le même matériel afin ce donner une idée. Maintenant PC c'est pas possible d'optimiser à fond le même matériel, et ce au profit de justifier les nouvelles cartes graphique, sinon à ce titre moins vente et justifier les nouvelles recherche technologique ...
Mouai, sur PC, ce qui plombe surtout les perfs, c'est l'empilement de couche software : DirectX / windows / Drivers. Après, les modif de driver ça existe depuis un baille j'avais des vieux détonators et des catalyst DNA modifiés, mais globalement, les paramètres modifiés sont toujours les mêmes : LOD negatifs / Type d'AA / filtrage etc etc Bref; rien de magique. on peut faire pareil avec NVinspector / Rivatuner / radeon inspector etc etc
par Un ragoteur de transit de Haute-Normandie, le Jeudi 14 Mars 2013 à 14h15  
par Un ragoteur qui revient embusqué, le Jeudi 14 Mars 2013 à 13h46
C'est vrai que chez NV, question drivers, c'est des quiches, les optimisations toussa, savent pas faire... heureusement qu'il est la knyz avec ses algos magiques...
Non, tu n' y es pas, Il suffit de regarder sur console du premier au dernier jeux pour comparer l'évolution graphique et performance avec le même matériel afin ce donner une idée. Maintenant PC c'est pas possible d'optimiser à fond le même matériel, et ce au profit de justifier les nouvelles cartes graphique, sinon à ce titre moins vente et justifier les nouvelles recherche technologique ...
par Tnerolf, le Jeudi 14 Mars 2013 à 14h07  
par Thibaut G., le Mercredi 13 Mars 2013 à 18h54
c'est bien ce qu'il fait knyz, mais son pilote miracle, pour augmenter les perfs, ça doit tailler ailleurs, y a pas de secret
C'est certain. Maintenant il faut analyser le rapport suivant : perte de qualité constatable ingname / et gain de performances
par Un ragoteur qui revient embusqué, le Jeudi 14 Mars 2013 à 13h46  
par Un ragoteur foufou de Haute-Normandie, le Jeudi 14 Mars 2013 à 08h40
Pas obligatoirement, il fait une restructuration de la gestion des Shaders, par une optimisation en FP16/FP20, améliorant la qualité sans perte de performance. il dit avoir crée une algo qui permet de faire un calcul partagé beaucoup plus rapidement que ce que permet habituellement les drivers Nvidia. Pour ma part test effectué sur divers machine et le constat, un gain de 5 à 15 fps non négligeable en fonction des jeux sans perte de qualité bien au contraire.
C'est vrai que chez NV, question drivers, c'est des quiches, les optimisations toussa, savent pas faire... heureusement qu'il est la knyz avec ses algos magiques...
par Un ragoteur foufou de Haute-Normandie, le Jeudi 14 Mars 2013 à 08h40  
par Thibaut G., le Mercredi 13 Mars 2013 à 18h54
c'est bien ce qu'il fait knyz, mais son pilote miracle, pour augmenter les perfs, ça doit tailler ailleurs, y a pas de secret
Pas obligatoirement, il fait une restructuration de la gestion des Shaders, par une optimisation en FP16/FP20, améliorant la qualité sans perte de performance. il dit avoir crée une algo qui permet de faire un calcul partagé beaucoup plus rapidement que ce que permet habituellement les drivers Nvidia. Pour ma part test effectué sur divers machine et le constat, un gain de 5 à 15 fps non négligeable en fonction des jeux sans perte de qualité bien au contraire.
par Un ragoteur qui revient de Provence-Alpes-Cote d'Azur, le Jeudi 14 Mars 2013 à 08h37  
par t3ddy, le Mercredi 13 Mars 2013 à 21h58
La question est posée. Malheureusement je ne penses pas qu'on aura une réponse.
Ma pure spéculation:
Ces dernières années AMD et nividia se ont régulièrement accusés de tricher sur la qualité de certains filtres ou certains shaders pour être en tête dans les benchmark. (sur crysis 1 par ex)
Certains effets sont tellement subtils et gourmand qu'il y a moyen de faire un rendu similaire pour moins de cout en performance, et les joueurs ne le remarqueront même pas.
Je pense que knyz se permet de simplifier des calculs, ce que les fabricants n'osent pas faire. Faire des modifs directement dans les pilotes doit être plus efficace que de modifier le fichier ini du jeu, d'où les gains spectaculaire.
Quand au développeurs, ils permettent 4 niveaux de qualité avec une bonne dizaines d'options réglables indépendantes, c'est déjà pas mal pour assurer une compatibilité avec le parc hardware existant. D'ailleurs une simple GTX650 peut le faire tourner fluide en low / 1680x1050, quand on voit la beauté du jeu en low c'est pas si mal.