COMPTOIR
register

Les benchmarks des GTX 980 Ti, Titan 2, R9 380X et 390X en fuite ?

Un membre des forums du site Chiphell vient de poster deux images fort intéressantes. En effet, elles représenteraient les performances et la consommation de la puce GM200 de Nvidia en mode complète et en mode bridée, ce qui fait penser à une GTX Titan 2 et une GTX 980 Ti, mais également les puces Fiji XT et Bermuda XT d'AMD, qui correspondraient aux R9 390X et R9 380X. Ca nous rappellera les benchs de Capitaine Jack qu'on avait vu passer en novembre dernier. Toutefois, on prendra les bonnes vieilles pincettes de rigueur et le conditionnel est bien sûr aussi de la fête.

 

Tout d'abord, au niveau technique, Nvidia aurait dans ses cartons deux cartes basées sur le GM200 : une castrée avec 2688 coeurs CUDA et une autre débridée avec un nombre inconnu de coeurs CUDA. Pour AMD, les Fiji XT et Bermuda XT seraient gravés en 20nm chez Global Foundries, délaissant alors TSMC et allant à contre-courant des rumeurs faisant état de l'abandon de ce process de gravure jusqu'à ce qu'AMD dévisse cette rumeur il y a quelques jours.

bench_gm200_fiji_bermuda_xt.jpg

Pour les plus curieux, on intègre les résultats des performances et consommation de ces puces fantômes sur une vingtaine de jeux en 2560 x 1440 pixels et les perfs en UHD sur 5 titres : Battlefield 4, CoD: Advanced Warfare, Dragon Age: Inquisition, Ryse: Son of Rome et Watch Dogs: Bad Blood. Si les résultats sont authentiques, le rapport performance / consommation des futurs GPU d'AMD s'annoncerait excellent et du même niveau que les Maxwell de Nvidia. Mais il n'y a que Madame Irma qui connaît la vérité et il faudra attendre le début 2015 pour l'officialisation de ces puces. (Source : ChipHell)

bench_gm200_fiji_bermuda_xt_2.jpg

 

Un poil avant ?

Geforce Experience passe en 2.1.5.0

Un peu plus tard ...

NVIDIA sort les pilotes GeForce 347.09 Bêta

Les 27 ragots
Les ragots sont actuellement
Pour éviter les débordementsouverts aux ragoteurs logués
par xenogear, le Jeudi 18 Décembre 2014 à 16h15  
Avec un TDP à 250W ( comme la 780 ou la Titan ) Maxwell en 28nm va quand même envoyer du lourd

Je ne m'en fait pas pour les verts et leurs ventes...
par Marc C., le Jeudi 18 Décembre 2014 à 07h56  
par roth le Jeudi 18 Décembre 2014 à 00h18
quelques trucs que je pige pas ...

j'avais cru comprendre que 980Ti et Titan 2 étaient en GM200, qui lui-même ne pouvait pas être dispo avant un bail, en 2016 (lien ).

Les cartes ci-dessus sont censées être les prochaines à sortir ? C'est pas du GM200 alors , mais un die-shrink de GM204 alors, donc en gros l'équivalent pour les 980 /970 de ce qu'étaient les 780/770 pour les 680/670.
Non ?

Et si je capte bien le graphique, la 380X (Fiji) est plus puissante que la 980 jusqu'au 2560*1440, mais moins bonne en 4K.
Est-ce que tarifairement on peut imaginer positionner la 380X par rapport à la 390X comme est positionnée la 280X par rapport à la 290X ?
Pourquoi n'a-t-on pas Fiji XT pour 390 et Bermuda XT pour 390X ?
Non pas forcement, Nvidia peut très bien sortir le GM200 en 28nm donc assez rapidement, c'est le 16nm qui se fera attendre.
Fiji sera comme Tonga, et Bermuda comme Hawaii en 20nm. Donc la 390X sera Bermuda XT et la 390 bermuda Pro, comme la 380X Fiji XT et la 380 Fiji Pro.
Le problème avec le GM200 sera la taille du die en 28nm mais niveau conso ça ira (vu la conso des GTX980).
par roth, le Jeudi 18 Décembre 2014 à 00h18  
quelques trucs que je pige pas ...

j'avais cru comprendre que 980Ti et Titan 2 étaient en GM200, qui lui-même ne pouvait pas être dispo avant un bail, en 2016 (lien ).

Les cartes ci-dessus sont censées être les prochaines à sortir ? C'est pas du GM200 alors , mais un die-shrink de GM204 alors, donc en gros l'équivalent pour les 980 /970 de ce qu'étaient les 780/770 pour les 680/670.
Non ?

Et si je capte bien le graphique, la 380X (Fiji) est plus puissante que la 980 jusqu'au 2560*1440, mais moins bonne en 4K.
Est-ce que tarifairement on peut imaginer positionner la 380X par rapport à la 390X comme est positionnée la 280X par rapport à la 290X ?
Pourquoi n'a-t-on pas Fiji XT pour 390 et Bermuda XT pour 390X ?
par Ben, le Mercredi 17 Décembre 2014 à 21h08  
par Marc C. le Mercredi 17 Décembre 2014 à 20h46
Baisser les options des ombres ne veut pas dire les pixeliser, mais plutôt les rendre moins présentes, soit plus pâles, soit certains objets en ont plus du tout.
Des fois tu as raison ça joue sur la pixellisation, mais ça c'est les antialiasing qui devrait s'en charger, pas la qualité des ombres.
Enfin bref, tous ça pour dire que des options gourmandes, les jeux en sont blindés et des fois entre l'option "personnalisé" et "ultra", tu vois aucune différence graphique si tu choisis d'abaisser les bonnes options, mais par contre niveau fluidité la différence est flagrante.
Oui ça c'est clair, rien que de passer d'un SSAA à un MSAA ne change visuellement quasiment rien et soulage beaucoup le GPU.
par Marc C., le Mercredi 17 Décembre 2014 à 20h46  
par Ben le Mercredi 17 Décembre 2014 à 20h30
Oui, d'accord pour l'AA qui ne sert plus à rien, mais pour les ombre ça fait quand même un effet escalier assez désagréable à cette résolution-là.
Baisser les options des ombres ne veut pas dire les pixeliser, mais plutôt les rendre moins présentes, soit plus pâles, soit certains objets en ont plus du tout.
Des fois tu as raison ça joue sur la pixellisation, mais ça c'est les antialiasing qui devrait s'en charger, pas la qualité des ombres.
Enfin bref, tous ça pour dire que des options gourmandes, les jeux en sont blindés et des fois entre l'option "personnalisé" et "ultra", tu vois aucune différence graphique si tu choisis d'abaisser les bonnes options, mais par contre niveau fluidité la différence est flagrante.
par Ben, le Mercredi 17 Décembre 2014 à 20h30  
par Marc C. le Mercredi 17 Décembre 2014 à 20h10
Détrompe toi, enfin passer de "ultra" à "low" OK, ça fait vomir. Mais en 4K tu peux te permettre de bien baisser l'AA, puis faire quelques concessions sur les ombres (passer de "ultra" à "moyen" par exemple) puis abaisser deux, trois options comme ça.
Au final tu peux gagner en fps en dégradant que très peu l'aspect graphique du rendu "ultra".
Oui, d'accord pour l'AA qui ne sert plus à rien, mais pour les ombre ça fait quand même un effet escalier assez désagréable à cette résolution-là.
par Marc C., le Mercredi 17 Décembre 2014 à 20h10  
par Ben le Mercredi 17 Décembre 2014 à 19h45
M'enfin vaut mieux jouer en ultra en 1080p qu'en low/medium en 4K. Ca sert à rien d'avoir plein de pixels pour afficher des textures pourries.
Détrompe toi, enfin passer de "ultra" à "low" OK, ça fait vomir. Mais en 4K tu peux te permettre de bien baisser l'AA, puis faire quelques concessions sur les ombres (passer de "ultra" à "moyen" par exemple) puis abaisser deux, trois options comme ça.
Au final tu peux gagner en fps en dégradant que très peu l'aspect graphique du rendu "ultra".
par Ben, le Mercredi 17 Décembre 2014 à 19h45  
par castor-tout-nu le Mercredi 17 Décembre 2014 à 19h16
Mais bien sûr que si ça suffit pour la 4k.
Faut savoir qu'on peut aussi jouer en medium ou low
Mais des fois j'ai l'impression que pour certain c'est inconcevable <img src='http://www.forumsducomptoir.com/public/style_emoticons/<#EMO_DIR#>/wacko.gif' class='bbc_emoticon' alt='' />
M'enfin vaut mieux jouer en ultra en 1080p qu'en low/medium en 4K. Ca sert à rien d'avoir plein de pixels pour afficher des textures pourries.
par castor-tout-nu, le Mercredi 17 Décembre 2014 à 19h16  
Mais bien sûr que si ça suffit pour la 4k.
Faut savoir qu'on peut aussi jouer en medium ou low
Mais des fois j'ai l'impression que pour certain c'est inconcevable <img src='http://www.forumsducomptoir.com/public/style_emoticons/<#EMO_DIR#>/wacko.gif' class='bbc_emoticon' alt='' />
par MeFabzi, le Mercredi 17 Décembre 2014 à 18h56  
par Jeliel le Mercredi 17 Décembre 2014 à 15h31
Et si il faut un SLI de 980Ti pour que ca soit à peine fluide pas sur que la prochaine génération à 600 € le ticket d'entrée fasse grimper ce petit nombre d'aficionados.
Avec une simple GTX660 tu peux faire tourner Skyrim en élevé (ultra si OC) sur l'Oculus.
Si la 3D nVidia ne se démocratise pas c'est à cause du prix des lunettes : 120 brouzouf sur l'amazone, plus l'écran qui va avec pour 400 à 700 septims
par Titouf, le Mercredi 17 Décembre 2014 à 17h31  
par Jeliel le Mercredi 17 Décembre 2014 à 13h39
On n'est pas vraiment dans le saut de génération meme si on voit un gap de performance, ce qui va vraiment dicter la réussite de ces puces c'est bien le prix. Aujourd'hui peu de jeux necessitent "en vrai" autant de puissance. (Que l'on ne me parle pas du 4K ou du 3D vision on atteint meme pas le 0.01% d'utilisateurs)
La GTX 970 est la carte qui va phagocyter la gamme sur les 6-8 prochains mois.
Il est tout de même à noter que la démocratisation du downsampling via les drivers chez AMD et Nvidia va permettre à plus de monde justement de profiter de ça (rien à voir avec un vrai écran 4K, c'est sûr) et que le gain de performances reste intéressant.

Mais clairement, en ce moment c'est bien plus une guerre de prix que de perfs.
par Eurilochus, le Mercredi 17 Décembre 2014 à 16h50