COMPTOIR
register

Test • RADEON R9 380X

• Verdict

Alors que penser de la RADEON R9 380X basée sur Tonga dans une version presque complète ? Inutile de tourner autour du pot, c'est la déception qui prime avec une carte qui peine à se différencier significativement des R9 380, tout en coutant jusqu'à 70 € de plus, on a déjà vu bien plus pertinent en terme de ratio performances/prix, en particulier chez AMD qui finit mal une année 2015 difficile.

 

Box Gigabyte R9 380X G1 Gaming

 

Bien sûr, tout n'est pas à jeter dans cette carte, mais sa trop grande proximité vis-à-vis des R9 380, qu'elles embarquent 2 ou 4 Go, la rend inutile à ce tarif ! Cela peut paraitre très dur, mais c'est un fait difficile à nier : qui viendrait payer 70 € de plus, soit +37% pour 6% de performances supplémentaires au sein d'une même gamme (l'argument du "je n'aime pas la marque" n'étant même pas invocable ici) ? Bien peu de personnes en définitive, ce qui laisse ouvertes les motivations premières d'AMD qui ne pouvait ignorer la promiscuité induite par ce lancement. Le concepteur de CPU/GPU a un besoin impératif de faire rentrer des liquidités, vendre plus cher une carte aide forcément à atteindre cet objectif. Après tout NVIDIA ne s'en prive pas, alors pourquoi pas ? Mais pour cela, autant éviter de se faire soi-même des croche-pieds... 

 

TongaLe département marketing des rouges a développé toute une communication expliquant que pour à peine plus cher qu'une GTX 960 (4 Go), cette 380X est 15% plus performante. C'est une vérité, là aussi indéniable, mais l'adage est encore plus intéressant si on l'adapte aux 380 à la fois moins chères et plus performantes. Malheureusement pour cette nouvelle venue, elle n'est pas capable de rendre un jeu jouable avec certains réglages alors qu'il ne l'est pas avec des 960/380. Pour cela, il eut fallu un réservoir de performance plus conséquent, peut-être accessible avec le bus 384-bit qu'AMD a sacrifié sur l'autel des coûts et du marketing (pas facile d'expliquer qu'une carte avec 3 Go peut être plus performante qu'une autre moins chère dotée de 4). Reste qu'avec une telle configuration, le tarif eut été plus légitime même si, comble de malchance pour la 380X, elle doit également composer avec la concurrence des dernières 290 bradées en fin de vie, et qui sont d'un tout autre niveau. De quoi constituer le maitre achat à 250 €. Cela permet aussi de réaliser le trou béant existant dans la gamme de NVIDIA entre 970 et 960, qu'une 960 Ti basée sur un GM204 castré pourrait aisément combler. De quoi probablement retirer une partie de l'intérêt porté à ces 2 cartes, assurément très rentables pour le caméléon, ce qui explique très probablement cette "anomalie" jamais corrigée. Cela poserait également des problèmes à AMD, qui a dû hésiter très longuement avant de prendre le risque de faire bouger les lignes à ce niveau, puisque déjà très bien placé avec les R9 380.  

 

 

• RADEON R9 380X et Gigabyte R9 380X G1 Gaming

Avec un prix public annoncé à 260 €, vous l'aurez compris, la R9 380X ne nous emballe pas du tout. Même en excluant les R9 290 encore dénichables à ce tarif (puisque destinées à disparaitre), la nouvelle référence d'AMD peine beaucoup trop à se différencier des "simples" 380 pour constituer une alternative séduisante à qui voudrait "plus de puissance". Pour ces derniers, les 390 ou 970 constitueront des offres certes plus chères, mais ô combien plus adaptées. Quel dommage de n'avoir pas pu gouter à un véritable Tonga intégral, à moins qu'AMD ne se réserve cette solution (385X ?) au cas où NVIDIA viendrait finalement à lancer une 960 Ti, qui sait... Concernant le modèle personnalisé de Gigabyte, ce dernier s'avère bien conçu même si nous aurions souhaité un profil de ventilation faisant une part plus belle au silence de fonctionnement quitte à "sacrifier quelques degrés". On pointera également du doigt un overclocking par défaut du GPU plus symbolique que véritablement utile. Pour le reste, il s'agit d'une carte très bien conçue qui ne pêche vraiment que par le manque criant d'intérêt de son GPU à ce tarif !      


Logo AsusLogo G Skilllogo IntelLogo Antecgigabyte 40xfx 40

Nous remercions naturellement nos partenaires pour la mise à disposition du matériel de test



Un poil avant ?

AOC lance un 28" UHD et FreeSync

Un peu plus tard ...

Adieu GCN, bonjour Polaris ?


Sur le comptoir, au ~même sujet

 
 
 
 
 
 
 
 
 
 
 
 

Les 54 ragots
Les ragots sont actuellement
place à la réflexionouverts aux ragoteurs logués
par Pascal M., le Lundi 11 Janvier 2016 à 15h37  
par Volk le Vendredi 08 Janvier 2016 à 17h03
Un grand merci pour le test, et les améliorations constantes de la qualité de vos articles.

Et respect complet de parvenir à rester calme, droit et poli dans toutes les situations . Vraiment pro. Et bonne année
merci !
par Volk, le Vendredi 08 Janvier 2016 à 17h03  
Un grand merci pour le test, et les améliorations constantes de la qualité de vos articles.

Et respect complet de parvenir à rester calme, droit et poli dans toutes les situations . Vraiment pro. Et bonne année
par Horn_Dragon, le Dimanche 03 Janvier 2016 à 10h14  
C'est quand même impressionnant qu'il y ai toujours ces gens à vouloir te ramener leurs science infuse ... à défaut de pouvoir faire valoir leurs neurones irl --".

Bon après qui ne tente rien n'a rien mais cela en devient lourd à lire.

Comme à chaque fois, beau comparatif, merci à vous.
Espérons que les prochaines génération d'AMéDé puissent venir clairement foutre des tartes à nVIDIA, pour qu'on puisse enfin re-avoir des prix correctes sur le très haut de gamme.

Beaunéné
par cabou83, le Samedi 02 Janvier 2016 à 17h23  
par Un ragoteur Gaulois de Provence-Alpes-Cote d'Azur le Samedi 02 Janvier 2016 à 14h36
je ne sais pas mais dans les graphs , je voie plutot du 30 fps en moyennes , selon les jeux pour les 380x .
en fps minimal ca donne quoi ? du 10/15 fps , c'est pas un peu injouable ?
N'importe quoi, pour avoir une R9-280X je t'assure que tu peux jouer a presque tout les jeux en ultra 1080p si environs 40fps (constant) te suffit. Si tu vise que les 60fps ou rien il faudra baisser certaines options comme les ombres et le AA sans trop rogner sur la qualité graphique, ou sinon passer à la gamme au dessus.
Pour te donner un exemple, The witcher 3, avec ma 280X c'est ultra 1080p avec les options Nvidia désactivé et la porté du feuillage en élevé au lieux de très élevé : fps min 38, max +60 (ds les grottes/habitations) et environs 43 fps de moyenne. Si je laisse tout a fond j'ai les même résultat que Eric soit environs 25fps, mais graphiquement je perd presque rien avec mes concessions dans les options, dur de voir la différence entre ultra et mes options si ce n'est la fluidité.
Encore aujourd'hui, les HD7970/280X et GTX680/770 restent d'excellents GPU pour du 1080p.
par Thibaut G., le Samedi 02 Janvier 2016 à 16h01  
voilà le premier ouineur de 2016
Message de Oo de Provence-Alpes-Cote d'Azur supprimé par un modérateur : Cette fois ça suffit, on a été suffisamment patient, si tu n'es pas capable de comprendre que des modifications de réglages sur des paramètres différents n'ont pas forcément un impact identique, on ne peut plus rien pour toi. En parlant d'être à court d'arguments, tu te poses là ! On ne va pas passer notre vie à répondre et argumenter des heures avec une personne qui ne veut pas entendre raison et profites de notre système de commentaires libres pour se défouler, critiquer gratuitement et insulter. Donc on ne te retient pas et tu as beau te sentir fort, bien caché derrière ton clavier, tu n'auras jamais le dernier mot ici avec de telles imprécisions ou confusions dans ton argumentaire. Bonne année quand même, taches de prendre de bonnes résolutions !
Message de Oo de Provence-Alpes-Cote d'Azur supprimé par un modérateur : prends le temps de lire et comprendre au lieu de tenter absolument d'avoir le dernier mot !
Message de Oo de Provence-Alpes-Cote d'Azur supprimé par un modérateur : stop ton flood et tes anneries
par Eric B., le Samedi 02 Janvier 2016 à 15h40  
Donc ta démonstration est la suivante : comme le réglage sur les ombres a un gros impact sur les perfs, alors forcément il en est de même entre les textures "normales" et "élevées" pour la 970 en 1080P ? Rassures-moi, tu n'es pas scientifique de formation ?

Edit: Comme je suis beau joueur je suis allé tester la 970 avec les 2 réglages de textures et la même version du jeu, d'os et de pilote cette fois : sur les moyennes de 3 passes avec chaque réglage, il y a mirobolant 0,22 i/s d'écart...

Comme je te l'écrivais précédemment, la taille des textures n'a un impact significatif que lorsqu'elles saturent la mémoire vidéo, mais plutôt que d'admettre que tu as accusé un peu à la va vite, tu essaies absolument de trouver une pseudo faille pour ne pas perdre la face.
par Oo de Provence-Alpes-Cote d'Azur, le Samedi 02 Janvier 2016 à 15h39  
par Eric B. le Samedi 02 Janvier 2016 à 15h36
Mais de quoi parles-tu à la fin ? Je t'explique pourquoi les i/s ne changent pour ainsi dire pas entre les 2 réglages de textures différents dans nos tests et tu me sors un test faisant varier la qualité des ombres ce qui n'a rien à voir !
pour te montrer que ca a un gros impact sur les perfs , a la fin . ont s'en fou de l'utilisation memoire que tu m'as sorti . c'est vraiment pas le sujet .
par Eric B., le Samedi 02 Janvier 2016 à 15h38  
Ecoute, je t'ai répondu précédemment : tu critiques gratuitement, toutes les cartes ont été retestées dans les mêmes conditions pour ce test (nouvel OS, nouveaux pilotes, nouvelle version des jeux) mais tu veux absolument que cela ne soit pas le cas, quitte à tout confondre et user de mauvaise foi pour étayer tes affabulations... Continue à ramer, tu vas peut-être réussir à t'en sortir.
Message de Oo de Provence-Alpes-Cote d'Azur supprimé par un modérateur : Non pas vraiment, décidément tu as décidé d'insister dans le n'importe quoi ! Par contre que tu sois d'un avis différent ne t'autorise pas à être désagréable.