COMPTOIR
  
register

Selon Nvidia, il n'y a pas de problème sur les GTX 970, juste une erreur de communication...

Suite aux remontées de pertes de performances lorsque la carte GTX 970 utilise plus de 3.5 Go de GDDR5, Nvidia ne reconnait pas le problème matériel. Selon le caméléon, il y a bien une architecture un peu spéciale du fait des GPC amputés, avec des contrôleurs mémoire dégroupés, ceci induirait en erreur certains logiciels ou utilitaires de monitoring sur la vraie quantité utilisée : une GTX 970 peut donc complètement utiliser ses 4Go de GDDR5 sans que les utilitaires s'en rendent compte. Suite à cela, MSi Allemagne a déclaré mettre au point un bios pour ses GTX 970 Gaming dans un premier temps pour permettre une lecture plus juste de la consommation mémoire.

 

Pour autant, Nvidia a un peu plus lâché du leste avec notre confrère HFR, et la problématique technique n'en serait pas une selon le caméléon. Evidemment il y a bien deux pools mémoire, un de 3.5 et un autre de 0.5Go, on avait déjà vu un tel montage avec la GTX 660 2Go qui disposait de 1.5Go bus 192-bit + 0.5Go bus 64-bit, on avait alors mis en évidence que cette mémoire asymétrique posait souci de lecture puisqu'on ne voyait que 1.5Go utilisés dans les jeux au max, ce qui n'était pas le cas pour autant. Cependant, HFR en se penchant sur l'architecture interne donnée sur des documents Nvidia, a donc constaté que la GTX 970 était plutôt à considérer comme une carte 224-bit et 56ROP ainsi que 1.75Mo de L2 avec quand même 4Go de mémoire. En effet, pour les jeux qui tirent plus que 3.5Go, il vaut mieux que la carte tourne ou alloue 512Mo lents que rien du tout, ce qui obligerait le pilote à faire appel au bus PCIe et à la mémoire centrale, ce qui serait encore plus pénalisant.

 

Donc sur ces allégations, Nvidia reconnait l'erreur de communication d'une manière un peu trop innocente à notre goût, qui mieux que le caméléon connait l'architecture de ses GPU. Tentant d'apaiser la fronde, il faut savoir que malgré cela, la GTX 970, telle que nous l'avons testée, est celle qui est dans sa version "castrée", donc on sait ce qu'elle vaut réellement, on peut juste penser que dans certains cas particuliers, c'est à dire des jeux moddés ou en UHD (via DSR si besoin), les 3.5Go seront dépassés, et dans le cas du DSR, le GM204 de toute façon sera largué en premier. Néanmoins, cette pratique de cache données est une bombe qui a explosé dans les mains du caméléon, sûrement bien au courant des choses au moment du lancement, et ceux qui ont investi dedans ont toute légitimité pour se sentir trahis. il aurait juste fallu que Nvidia communique les vrais chiffres de 224-bit et de 56ROP, et la pilule serait passée normalement, les gens achetant en pleine connaissance.

 

L'affaire donc a pris des proportions énormes, à bon escient d'ailleurs, et les possesseurs de GTX 970 devraient conserver malgré tout leur carte, en espérant que le géant fasse un geste, qui sait ? Vous noterez que la GTX 980 alloue ses 4Go entièrement sur bus 256-bit, elle respecte sur le papier ses véritables données techniques. Voilà comment une division marketing peut fusiller la réputation d'un produit excellent par ailleurs !

 

nvidia_new.jpg  

Un poil avant ?

15 minutes de gameplay pour The Witcher 3

Un peu plus tard ...

Deux nouveaux mulots TORQ chez EVGA, les X3 et X5

Les 191 ragots
Les ragots sont actuellement
parce queouverts aux ragoteurs logués
par BX GTI 16s, le Dimanche 01 Février 2015 à 21h25  
Pour la partie effet en JV selon la supposée partition de RAM :
http://www.guru3d.com/news-story/middle-earth-shadow-of-mordor-geforce-gtx-970-vram-stress-test.html
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/68595-gtx -970s-memory-explained-tested-2.html
http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-Looking-GTX-970-Memory-Performance/Battlefield-4-Results
par BX GTI 16s, le Dimanche 01 Février 2015 à 21h14  
par Marc le Dimanche 01 Février 2015 à 19h54
Je ne sais pas ce que tu as à nous chercher des poux mais tu pourrais au moins essayer de comprendre ce que tu poste au lieu de prendre n'importe quoi pour argent comptant.

Dans le lien que tu donnes les tests fait sous Nai's Benchmark montrent bien que les 0.5 Go de VRAM qui n'existent soit disant pas d'après je ne sais quel quidam sur Internet sont bien là et fonctionnent à 22,35 Go /s qu'on soit en DDR3-800 ou 1600, donc ne sont pas en mémoire système. Seul le dernier chunk de 128 Mo testé, qui a un résultat plus bas, varie un peu avec la vitesse de la DDR3, parce qu'il y'a cette fois un peu des 128 Mo qui est alloué mémoire centrale car la mémoire vidéo était utilisée à plus de 256 Mo avant de lancer le test.
Je ne pense pas vous connaître, le vouvoiement devrait être de mise? Qui êtes vous?
par Marc, le Dimanche 01 Février 2015 à 19h54  
par BX GTI 16s le Dimanche 01 Février 2015 à 17h18
J'ai lu le focus du fameux site HFR, je me rend compte qu'ils n'ont même pas tenté cette piste http://www.reddit.com/r/pcgaming/comments/2uco43/boris_vorontsov_from_enbseries_has_a_theory_on/ , pour ce que certains ici les font passer pour des demi dieux, y a de la marge. Alors que d'autres sites arrivent à mesurer la perte de performance en JV quand l'allocation RAM s'approche des 4GB, eux n'ont aucun résultat, faut il considérer une incompétence ou tout simplement le refus de remettre en question le test préalable de Maxwell GM204 ?
Je ne sais pas ce que tu as à nous chercher des poux mais tu pourrais au moins essayer de comprendre ce que tu poste au lieu de prendre n'importe quoi pour argent comptant.

Dans le lien que tu donnes les tests fait sous Nai's Benchmark montrent bien que les 0.5 Go de VRAM qui n'existent soit disant pas d'après je ne sais quel quidam sur Internet sont bien là et fonctionnent à 22,35 Go /s qu'on soit en DDR3-800 ou 1600, donc ne sont pas en mémoire système. Seul le dernier chunk de 128 Mo testé, qui a un résultat plus bas, varie un peu avec la vitesse de la DDR3, parce qu'il y'a cette fois un peu des 128 Mo qui est alloué mémoire centrale car la mémoire vidéo était utilisée à plus de 256 Mo avant de lancer le test.
par BX GTI 16s, le Dimanche 01 Février 2015 à 17h18  
J'ai lu le focus du fameux site HFR, je me rend compte qu'ils n'ont même pas tenté cette piste http://www.reddit.com/r/pcgaming/comments/2uco43/boris_vorontsov_from_enbseries_has_a_theory_on/ , pour ce que certains ici les font passer pour des demi dieux, y a de la marge. Alors que d'autres sites arrivent à mesurer la perte de performance en JV quand l'allocation RAM s'approche des 4GB, eux n'ont aucun résultat, faut il considérer une incompétence ou tout simplement le refus de remettre en question le test préalable de Maxwell GM204 ?
par pelouze, le Jeudi 29 Janvier 2015 à 11h37  
par Aquina le Mercredi 28 Janvier 2015 à 09h10
5200 heures d'utilisation à l'année, ça grimpe vite, très vite... Je suis à 280-290W max avec carte OC pour la config complète. !
J'espère pour toi que c'est ton travail, parce que sinon, tu dois pas beaucoup voir le soleil.
par Dark, le Mercredi 28 Janvier 2015 à 20h29  
par Vraaaaaam d'Ile-de-France le Mercredi 28 Janvier 2015 à 16h59
Nai's benchmark = CUDA Runtime (v6.5 = août 2014)

GTX750 1Go
GTX660 2Go
...
Merci
par Vraaaaaam d'Ile-de-France, le Mercredi 28 Janvier 2015 à 16h59  
par Un ragoteur de passage embusqué le Mercredi 28 Janvier 2015 à 12h48
Sinon, quelqu'un à pensé à tester les autres cartes (nvidia et AMD) avec le fameux Nai's benchmark ?
Nai's benchmark = CUDA Runtime (v6.5 = août 2014)

GTX750 1Go
GTX660 2Go
...
par Blablateur de Rhone-Alpes, le Mercredi 28 Janvier 2015 à 16h53  
par Un ragoteur de passage embusqué le Mercredi 28 Janvier 2015 à 15h50
Dans ce cas, je reprends la question de Tnerolf, cela voudrait dire qu'il y a intention de nous faire acheter de nouveaux écrans de la part des deux marques ? Ça serait gros.
Si je puis avoir la liberté de m'exprimer.
Il n'y a rien d'impossible en effet. D'ailleurs AMD avait insinué que des écrans sur le marché pouvait être compatible par simple MAJ Firmware. Dans le cas de Nvidia cela serait bien plus fâcheux si les 150-200€ ne servent qu'à payer une protection DRM qui n'aurait vraiment pas lieu sur une capacité technologique déjà existante. Étant donné le niveau du marketing NV cela ne serait pas impossible.
par Un ragoteur de passage embusqué, le Mercredi 28 Janvier 2015 à 15h53  
Ca serait la semaine des scandales
Les sites spécialisés vont se transformer en "Voici" ou "Gala" de l'informatique si ça continue
par Un ragoteur de passage embusqué, le Mercredi 28 Janvier 2015 à 15h50  
Dans ce cas, je reprends la question de Tnerolf, cela voudrait dire qu'il y a intention de nous faire acheter de nouveaux écrans de la part des deux marques ? Ça serait gros.
Si je puis avoir la liberté de m'exprimer.
par BX GTI embusqué, le Mercredi 28 Janvier 2015 à 15h36  
"Which Monitors are compatible with the G-sync Modded Drivers ?

All the external monitors that include DP 1.2 (past 2010) and all the Laptops that include eDP.

Example : Yamakasi, Crossover, Dell, Asus (for example PB278Q), etc and MSI, Alienware, Asus, etc Laptop.
"

par BX GTI embusqué, le Mercredi 28 Janvier 2015 à 15h32  
par Un ragoteur de passage embusqué le Mercredi 28 Janvier 2015 à 15h15
Parce que les scalers des écrans de portables utilisent cette fonctionnalité depuis un moment à des fins d'économie d'énergie. Par ailleurs ils utilisent une connectique particulière qui le permettait déjà, sans puce additionnelle, contrairement au DP1.2 qui a du évoluer pour intégrer la feature sans puce supplémentaire.
Il semble affirmer que cela fonctionne sur un écran externe. Mais est ce depuis uniquement une puce mobile uniquement?

Ca mérite d'être testé en effet.