COMPTOIR
register

×

geforce_gtx_750_ti_bench_nvidia_t.jpg

Les performances des GTX 750 (Ti) se dévoilent un peu plus
geforce_gtx_750_ti_bench_nvidia_t.jpg
gtx_750_bench_wccftech_t.jpg

Alors que les premières cartes graphiques NVIDIA équipées de la nouvelle architecture Maxwell devraient être officiellement dévoilées demain, des premières fuites sur la toile nous en apprennent un peu plus sur ses performances dans les jeux.

 

Nos confrères de chez Videocardz ont mis la main sur les slides de présentation NVIDIA où l'on découvre que Mister Maxwell serait fortement overclockable avec des modèles constructeurs dont les fréquences pourraient être jusqu'à 32% supérieures à celles recommandées par NVIDIA. Ces cartes seraient équipées d'au moins un connecteur d'alimentation pour subvenir à leur besoin qui dépasse ce que le port PCIe peut leur fournir. On peut citer la GTX 750 Ti de Galaxy qui devrait carburer à 1350 MHz pour le GM107 et 7000 MHz pour les 2 Gigots de GDDR5.

 

geforce_gtx_750_ti_bench_nvidia_t.jpg [cliquer pour agrandir]

On clique pour y voir plus clair !

 

Dans ces slides, on retrouve également les performances de la GTX 750 face à la R7 260 d'AMD ainsi que la GTX 750 Ti face à la R7 260X. Chiffres officiels obligent, les GeForce sont devant les Radeon sur chaque jeu. Ces chiffres sont nuancés par un test de performance de WCCFTech où l'écart est moindre entre AMD et NVIDIA d'autant que les GTX utilisent des fréquences plus élevées que celles préconisées par NVIDIA (1123 et 1215 MHz au lieu de 1020 ou 1080 MHz). Mais ce qui va faire le plus mal à nos chères Radeons, c'est que la GTX 750 et 750 Ti ont un TDP respectif de 55W et 60W, avec les fréquences officielles, là où les R7 260 et 260X culminent à 95W et 115W. On attend donc la tombée du NDA et des tests complets mais ça risque de chauffer pour les rouges !

 

gtx_750_bench_wccftech_t.jpg [cliquer pour agrandir]

On clique pour la santé de ses yeux !

Un poil avant ?

Kickstarter hacké, attention à votre mot de passe

Un peu plus tard ...

Test • Xigmatek Aquila

Les 26 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur macagneur de Picardie, le Mardi 18 Février 2014 à 21h57  
D'après HFR, on aurait donc un gain de 5% sur le rapport perf/watt comparé à une 7790 oc sur BF3 en high 1080p.

De plus la consommation ingame est plus élevé que le TDP annoncé par nvidia (par exemple +8% dans Anno 2070).

Test des 750 : http://www.hardware.fr/news/13568/nvidia-lance-geforce-gtx-750-ti-750-maxwell.html
Test de la 7790 oc : http://www.hardware.fr/articles/890-7/consommation-efficacite-energetique.html
par Vincent S., le Mardi 18 Février 2014 à 09h45  
par Un ragoteur de passage d'Ile-de-France le Mardi 18 Février 2014 à 09h44
Cette bonne blague.
C'est pas comme si avec Fermi nvidia avait commencé à parler de TDP moyen observé en mettant de coté les furmarks et autres powervirus...
J'aurais peut être dû rajouter "dans les jeux"
par Un ragoteur de passage d'Ile-de-France, le Mardi 18 Février 2014 à 09h44  
par Vincent S. le Lundi 17 Février 2014 à 21h24
Le TDP sera toujours plus important que la consommation réelle de la carte. Et le boost chez NVIDIA (en tout cas pour les 650 Ti) fonctionne de la manière suivante : il se déclenche du moment que la conso est inférieure à 115W. Le TDP pour sa part est de 140W.
Cette bonne blague.
C'est pas comme si avec Fermi nvidia avait commencé à parler de TDP moyen observé en mettant de coté les furmarks et autres powervirus...
par Vincent S., le Lundi 17 Février 2014 à 21h24  
par Un ragoteur qui troll de Picardie le Lundi 17 Février 2014 à 20h30
ok, donc ca confirme ce que je disais, le TDP annoncé ne veut rien dire.
Car il est basé sur la consommation hors boost, et sur ces 750 le boost à l'air d'être bien plus important que sur n'importe quelle autre carte nvidia...
Le TDP sera toujours plus important que la consommation réelle de la carte. Et le boost chez NVIDIA (en tout cas pour les 650 Ti) fonctionne de la manière suivante : il se déclenche du moment que la conso est inférieure à 115W. Le TDP pour sa part est de 140W.
par Un ragoteur dégouté embusqué, le Lundi 17 Février 2014 à 20h41  
rien à voir mais clubic vient de faire un quality test de Mantle Vs Dx 11 sur Bf4 et leur bilan est pour le moins inquiétant. AMD triche une nouvelle fois. De nombreux détails disparaissent sous Mantle, ce qui permet évidement d'afficher de meilleurs résultats que sous DX11.
Sur ce coup là, c'est un véritable scandale. Mantle est définitivement mort né.
par Un ragoteur qui troll de Picardie, le Lundi 17 Février 2014 à 20h30  
par ragoteur sans nom de Midi-Pyrenees le Lundi 17 Février 2014 à 18h18
Ce sera comme pour toutes les cartes nvidia.
ok, donc ca confirme ce que je disais, le TDP annoncé ne veut rien dire.
Car il est basé sur la consommation hors boost, et sur ces 750 le boost à l'air d'être bien plus important que sur n'importe quelle autre carte nvidia...
par ragoteur sans nom de Midi-Pyrenees, le Lundi 17 Février 2014 à 18h18  
par Un ragoteur qui troll de Picardie le Lundi 17 Février 2014 à 18h03
Ils annoncent 60W de TDP pour la 750Ti, mais dans quelles conditions ? Car si c'est la consommation dans certains jeux et pas ce que consomme vraiment la carte lorsqu'elle est sollicité à 100% ca ne veut rien dire.
Tentative de troll détectée.
Ce sera comme pour toutes les cartes nvidia.
par Un ragoteur qui troll de Picardie, le Lundi 17 Février 2014 à 18h03  
Ils annoncent 60W de TDP pour la 750Ti, mais dans quelles conditions ? Car si c'est la consommation dans certains jeux et pas ce que consomme vraiment la carte lorsqu'elle est sollicité à 100% ca ne veut rien dire.

Je pense que nvidia peut battre le record de rendement avec ces cartes, mais face à ce qui se fait de mieux actuellement (cad une 7790 oc) le gain ne sera pas énorme. (+10 à +20% au mieux)
par cabou83, le Lundi 17 Février 2014 à 17h20  
par Un ragoteur d'Auvergne le Lundi 17 Février 2014 à 17h12
Ok ok, mercie pour ces infos
On parle meme de HBM (High Bandwidth Memory), pour les futurs Radeon... Mais très honnêtement si cette technologie vois le jour elle sea certainement pas embarqué sur la prochaine génération de GPU AMD, mais celle d'après (en étant optimiste).
La HBM (128Go/s ) est seulement plus de 4 fois plus rapide que la GDRR5 (28Go/s ) !
par Un ragoteur à la bourre de Lorraine, le Lundi 17 Février 2014 à 17h19  
par Un ragoteur qui se tâte de Hainaut le Lundi 17 Février 2014 à 14h58
Quel est le critère qui te dis que la GDDR5 est à bout ? <img src='http://www.forumsducomptoir.com/public/style_emoticons/<#EMO_DIR#>/wacko.gif' class='bbc_emoticon' alt='' />
Elle doit pas en être loin techniquement.

L'interface utilisée est trop gourmande pour continuer à monter beaucoup et sauf erreur personne n'a tablé sur plus de 8Gbps/pin.

On retrouve un peu le RAMBUS vs world, sauf que RAMBUS s'était vautré en prime, la GDDR5 peut d'ailleurs être vue comme de la RAM à interface 33bits, tout l'inverse de ce qu'ils avaient tenté en réduisant la largeur.

Là où RAMBUS a eu raison, c'était sur la transmission sur paires différentielles, mais c'était visiblement trop tôt, beaucoup trop tôt puisqu'on arrive seulement à en voir l'utilité, sans compter qu'ils n'avaient rien inventé là puisque c'est connu et exploité de longue date aussi bien en numérique qu'en analogique (audio notamment, Cf. connectique XLR).
par lord Varices, le Lundi 17 Février 2014 à 17h14  
Le probleme avec la GRRD5 si s'en est un qui n'y a rien à court terme pour remplacer la GDDR5.
Mais si on prend le cas de la DDR3, la référence la plus basse à sa commercialisation était la PC3-8400 à 800Mhz, le fabriquant nous sortent maintenant de la DDR3 à 3200 Mhz, si on fait le parallèle il y a de la marge.
par Un ragoteur d'Auvergne, le Lundi 17 Février 2014 à 17h12  
par cabou83 le Lundi 17 Février 2014 à 17h06
Oui pardon 1750MHz.
Pour le bus certe plus il est haut et plus ça coute chere, mais ça dépend aussi des commande, je m'explique. AMD utilise la meme puce pour ses GPU en 1250MHz ou 1500MHz. C'est une configuration à 1.3V pour la 1250 et 1.5V pour la 1500MHz, mais au final c'est la meme puce mémoire.
Alors pour la R9-290(X) AMD avait deux choix car la 1500MHz sur 384bits était insuffisant.
Soit ils utilisaient de la 1750MHz sur 384bits, mais alors obliger de commandé une nouvelle puce spécifique pour ces R9-290(X).
Soit il utilisé un bus plus grand et augmenter les commande des puces déja existante pour le reste de la gamme. Au final AMD y gagne, car plus grosse commande meilleur prix pour la ram (et donc baisse de prix des gammes inférieurs), mais perd sur le bus. Au final ça s'équilibre.
Donc juste pour te dire que le 1500MHz/1750MHz sur 512bits, ne limitera pas les prochain GPU HDG.
Mais comme je te l'ai dis la GDDR6 arrive bientôt. AMD équipera donc ses GPU des qu'elle sera disponible. (Pour Nvidia il faudra surement attendre la gen prochaine).
Ok ok, mercie pour ces infos