COMPTOIR
  
register

Test • Gigabyte GTX 980 Ti G1 Gaming

Le sommet de la gamme Gigabyte

 

Comme ce fut le cas à l'époque du GK110, NVIDIA a décliné sa puce très haut de gamme au sein d'une carte élitiste aka Titan X, qui se doit de reprendre le refroidisseur à air de référence (ou exceptionnellement un waterblock), mais aussi d'une carte personnalisable par les différents constructeurs, à savoir la 980 Ti. Bien entendu, ces derniers ne se sont pas fait prier pour tenter de se distinguer par des refroidisseurs voir des PCB "maison". Mieux, les performances atteintes par ces modèles modifiés sont largement supérieures à celles de la Titan X, cette dernière nettement plus chère ne conservant que le très maigre avantage de la quantité de mémoire embarquée, sans réel intérêt pour les jeux actuels ! Gigabyte propose de son côté trois 980 Ti : une au design de référence et deux autres employant son célèbre refroidisseur WindForce. Parmi ces dernières, nous testons aujourd'hui la plus rapide (et onéreuse), aka G1 Gaming. Quid en pratique ? Verdict dans ce dossier.

 

test gtx 980 ti g1 gigabyte



Un poil avant ?

Intel transforme son NUC Braswell en petit PC prêt à l'emploi

Un peu plus tard ...

Un nouveau test de protection des antivirus par AV-Comparatives

Les 30 ragots
Les ragots sont actuellement
verrouillage dossierouverts aux ragoteurs logués
par Str2G embusqué, le Mercredi 25 Novembre 2015 à 14h01  
Bonjour,

Ma MSI GTX 660 Ti vient de me lâcher (après 3ans seulement ) Et je souhaiterai la remplacer par cette carte. J'ai une carte mère Gigabyte GA-X79-UD3 et une alimentation Cooler Master Silent Pro Gold de 600W. Je pense être un peu juste niveau puissance. Pourriez-vous m'éclairer SVP?
par Eric B., le Mardi 20 Octobre 2015 à 10h26  
par MaK le Mardi 20 Octobre 2015 à 08h55
Ben, ce que l'on reproche souvent aux AMD, cartes qui chauffent beaucoup avec grosse consommation. Sans compter avec les 8800 qui avaient tendance à se dessouder, les 8600m qui grillaient à répétition.
Non, ce qui est généralement reproché aux cartes d'AMD contemporaines, c'est de consommer trop pour leurs performances en comparaison de la concurrence. La 8800 GTX consommait à peine plus qu'une X1950 XTX (le haut de gamme d'Ati/AMD de l'époque) tout en doublant ses performances une fois les pilotes au point, la situation actuelle n'a donc rien de comparable comme tu le sous-entends... Elle est restée 6 mois sans concurrence et quand cette dernière (2900XT) est enfin sortie, elle consommait davantage tout en étant moins performante, bref faut vraiment avoir de gros problèmes de mémoire ou être de mauvaise foi pour écrire comme tu l'as fait que la 8800 GTX est une casserole traînée par NVIDIA !
par Un ragoteur midediouuuuu embusqué, le Mardi 20 Octobre 2015 à 10h24  
par MaK le Mardi 20 Octobre 2015 à 08h55
Ben, ce que l'on reproche souvent aux AMD, cartes qui chauffent beaucoup avec grosse consommation. Sans compter avec les 8800 qui avaient tendance à se dessouder, les 8600m qui grillaient à répétition.
Les 8800GTX et 580gtx consommaient beaucoup et chauffaient en rapport, mais elles avaient le bon goût d'être plus performantes que les cartes de la concurrence. Quand c'est le cas, il est plus facile pour certains adeptes de l'achat du top du moment de s'accommoder de ces défauts.
par MaK, le Mardi 20 Octobre 2015 à 08h55  
par Eric B. le Mardi 20 Octobre 2015 à 06h33
depuis quand les 8800 GTX et GTX 580 ont été de mauvaises cartes ? Faudrait voir à faire preuve d'un minimum de bonne foi...
Ben, ce que l'on reproche souvent aux AMD, cartes qui chauffent beaucoup avec grosse consommation. Sans compter avec les 8800 qui avaient tendance à se dessouder, les 8600m qui grillaient à répétition.
par Eric B., le Mardi 20 Octobre 2015 à 06h33  
par MaK le Lundi 19 Octobre 2015 à 21h07
Tu peux ajouter les FX 5900, les 8800 gtx, les 480 et 580 gtx, les gt 8600m....Nvidia trainent pas mal de casseroles, certains l'oublient !
depuis quand les 8800 GTX et GTX 580 ont été de mauvaises cartes ? Faudrait voir à faire preuve d'un minimum de bonne foi...
Message de Un ragoteur de picardie embusqué supprimé par un modérateur : idem
Message de Un ragoteur de picardie embusqué supprimé par un modérateur : supprimé par un modérateur : Merci d'utiliser le bouton "Signaler un truc" pour cela.
par Un ragoteur midediouuuuu embusqué, le Lundi 19 Octobre 2015 à 23h45  
par MaK le Lundi 19 Octobre 2015 à 23h07
Sur une Xbox One qui a 2 Async compute on arrive à 50% de gain, une ps4 en a 8....Je te laisse réfléchir là-dessus.
Ton 50% sort d'où ?
Les gains sont loin d'être aussi liés au nombre d'ACE... Je te laisse réfléchir là-dessus.
par MaK, le Lundi 19 Octobre 2015 à 23h07  
par Un ragoteur qui passe embusqué le Lundi 19 Octobre 2015 à 21h33
Les chiffres sont mythos comme d'hab. Les gains de perfs sur consoles atteignent jusqu'à 30% et non pas 70%. Les slides AMD prévoient un gain jusqu'à 46% ( may improve ... up to 46 % ) en VR avec cette fonction.
Quand aux magouilles sur les pilotes, on va espérer que les développeurs se sortiront les doigts du *bip* pour tirer profit de cet accès au hardware. Ce ne sont pas les dernières grosses productions qui vont me rassurer sur les capacités des développeurs à ce niveau. Qu'ils arrivent déjà à sortir un jeu fonctionnel sans avoir à DL des patchs de plusieurs gigas le jour du lancement.
Sur une Xbox One qui a 2 Async compute on arrive à 50% de gain, une ps4 en a 8....Je te laisse réfléchir là-dessus.
par Un ragoteur blond de Provence-Alpes-Cote d'Azur, le Lundi 19 Octobre 2015 à 22h33  
actuelement l'entré du millieu de gamme chez nvidia ,c'est 350€ avec les GTX970 sinon ca passe direct a 550€ pour les 980 .avec pascal ,le 14/16 nm et la hbm v2 qui va avec ,va falloir s'attendre a combien pour des perfs similaires ? 800 € avec moins de conso ?
par Un ragoteur qui passe embusqué, le Lundi 19 Octobre 2015 à 21h33  
par MaK le Lundi 19 Octobre 2015 à 20h19
Nvidia = Async logiciel = no futurproof.

Les dernières consoles de jeu en date utilisent massivement l'Async avec un gain de performance allant de 30% à 70% grâce à cette option. Pour ceux qui veulent investir dans une carte graphique maintenant, réfléchissez-y. Les cartes AMD ont cette option hardware depuis GCN 1.0. En plus, avec DirectX12, Vulkan et la programmation de bas niveau, fini les magouilles et optimisations par les drivers. Les développeurs auront directement accés aux possibilités hardware des cartes graphiques
Les chiffres sont mythos comme d'hab. Les gains de perfs sur consoles atteignent jusqu'à 30% et non pas 70%. Les slides AMD prévoient un gain jusqu'à 46% ( may improve ... up to 46 % ) en VR avec cette fonction.
Quand aux magouilles sur les pilotes, on va espérer que les développeurs se sortiront les doigts du *bip* pour tirer profit de cet accès au hardware. Ce ne sont pas les dernières grosses productions qui vont me rassurer sur les capacités des développeurs à ce niveau. Qu'ils arrivent déjà à sortir un jeu fonctionnel sans avoir à DL des patchs de plusieurs gigas le jour du lancement.
par MaK, le Lundi 19 Octobre 2015 à 21h07  
par 1am le Lundi 19 Octobre 2015 à 18h42
Quelle excellente fournée ces GTX 980 et Ti. Toutes montent bien en fréquences et tellement de puissance à en revendre dans leur segment. On sent qu'en face les cartes d'AMD sont au bout du bout...
J'ai même l'impression que Nvidia peut continuer de sortir de nouvelles carte en 28nm, tellement ils maîtrisent actuellement !

Ca n'a pas toujours été le cas..loin de là! (gtx 480...)
Tu peux ajouter les FX 5900, les 8800 gtx, les 480 et 580 gtx, les gt 8600m....Nvidia trainent pas mal de casseroles, certains l'oublient !