COMPTOIR
register

Test • GeForce GTX 1650 SUPER vs Radeon RX 5500 XT

• Verdict

tu116 250 miniNous voici parvenus au terme de ce dossier, et l'on ne peut que se réjouir du regain de forme d'AMD via son architecture RDNA, poussant le caméléon a enfin améliorer ses cartes Turing au niveau de leur seul véritable défaut, le ratio performances/prix. Les refresh SUPER corrigent quelque peu ce point, la GTX 1650 en étant un exemple flagrant. Cette dernière proposait certes mieux que la génération Pascal au niveau des performances, mais à un tarif la rendant difficilement recommandable, en particulier face aux RX 570 plus performantes. TU117 qui l'anime est parfaitement calibré pour s'intégrer au sein des PC portables, mais s'avère un poil juste face à la concurrence régnant au sein du marché retail. NVIDIA plutôt que de casser les prix, a préféré muscler son offre en "basculant" sur la puce supérieure, TU116, pour sa GTX 1650 SUPER. Ce n'est pas une première, puisque la RTX 2070 SUPER avait elle aussi eu le droit à ce traitement, en passant de TU106 sur le modèle originel, à TU104 pour son refresh. Les verts ne se sont toutefois pas limité à un changement de GPU pour leur petite dernière, puisqu'elle se retrouve dotée également de mémoire plus rapide, avec l'utilisation de GDDR6. Le résultat ne se fait pas attendre, puisque la nouvelle venue s'avère 37% plus rapide que la GTX 1650 originelle. De quoi proposer un niveau de performance suffisant pour le jeux en FHD, sans vraiment nécessiter de compromis au niveau des réglages pour la plupart. Bien sûr, ce n'est pas sans impact au niveau de la consommation, puisque cette dernière se situe aux alentours des 100 W. Rien de bien problématique en soi, si ce n'est que la possibilité de voir des 1650 SUPER dépourvues de cordon d'alimentation externe, disparaît. Autre effet collatéral du changement de GPU, la nouvelle née des verts dispose à présent de la toute dernière version du moteur d'encodage/décodage vidéo, alors qu'il fallait se contenter de l'avant-dernière (génération Volta) sur la GTX 1650. Le bilan global est donc bien plus satisfaisant avec cette déclinaison SUPER, ce qui réjouira les fans des verts. Mais ce n'est pas par grandeur d'âme que le caméléon propose cela, mais bien du fait de la concurrence nouvelle apportée par les rouges. 

 

Cette dernière prend la forme d'un Navi 14, une petite puce de 158 mm², mais qui profite d'un procédé de gravure plus performant que celui utilisé par la concurrence, pour y loger pratiquement le même nombre de transistors que dans un TU116, pourtant 86% plus gros (286 mm²). Le niveau des prestations ludiques atteint par cette puce permet de positionner les rouges au-delà de celles atteintes par TU117, entraînant la réaction des verts. Cela permet également à AMD de proposer les performances d'une RX 580, avec un GPU moderne, plus petit et moins énergivore, ce qui devrait conduire à des coûts de production moindre (PCB, électronique de puissance et refroidisseur simplifié), si tant est que le 7 nm ne soit pas trop onéreux et dispose de bons yieldsnavi14 miniL'utilisation d'une puce (très) légèrement bridée sur une version XT (qui utilise généralement la version intégrale du GPU), devrait toutefois aider à obtenir des rendements compatibles avec ce segment du marché, où le moindre coût compte. Pour finir sur Navi 14, AMD l'a doté également du PCIe Gen 4, sans réel intérêt d'un point de vue performances pour l'heure, mais qui permet toutefois d'économiser 8 lignes sur 16 sans amputer la bande passante. Il faudra pour cela utiliser ce GPU avec une plateforme compatible, pour l'heure uniquement à base de Zen 2. Enfin, les moteurs vidéo ainsi que d'encodage/décodage sont identiques à ceux de Navi 10, donc relativement proches des puces Turing qui conservent malgré tout quelques avantages spécifiques. Difficile également de ne pas parler des efforts continus d'AMD d'un point de vue logiciel. On aimerait voir les verts s'en inspirer afin de refondre enfin l'interface antédiluvienne de leurs pilotes, même si cela n'a pas d'impact sur la qualité intrinsèque de ces derniers. Un mot sur Radeon Boost introduit avec la version 2020 des Adrenalin, et consistant à réduire la définition de rendu là où c'est peu visible (mouvement rapide, etc.). Cette technique peut s'apparenter quelque peu au Multi-RES Shading de NVIDIA, que l'on retrouve dans Shadow Warrior 2 par exemple. Le résultat de ces techniques ne nous convainc pas, car si le gain de performances peut-être intéressant, c'est au prix d'une dégradation visuelle qui ne passe pas inaperçue. À ce niveau, le VRS (Variable Rate Shading) déjà intégré à Turing, s'avère infiniment supérieur. Radeon Boost semble donc plus être un palliatif temporaire à son absence des Navi actuels, qu'une réelle solution pérenne, puisque tant du côté rouge que bleu, le support du VRS semble être prévu à l'avenir. 

 

En résumé, les GTX 1650 SUPER et RX 5500 XT proposent des prestations relativement proches à tous niveaux, rendant le choix un peu plus difficile pour ceux totalement agnostiques vis-à-vis de l'attachement à une quelconque marque. Le corollaire de cet état de fait, c'est qu'aucun des deux choix n'est foncièrement mauvais ni préférable à l'autre. C'est donc le tarif associé à la qualité intrinsèque du modèle choisi (nuisances sonores, refroidissement), qui seront les critères déterminants pour l'acquéreur. À ce petit jeu, la 1650 SUPER est pour l'instant mieux positionnée au moment d'écrire ces lignes, mais il sera intéressant de vérifier l'évolution tarifaire avec le temps, la période des fêtes de fin d'année étant source de distorsion à ce niveau. Attention aussi à ne pas se laisser entraîner par une surenchère d'équipements ou finition, conduisant à un tarif trop proche de la gamme supérieure. Car c'est aussi un des enseignements de ce double lancement, pas moins de 5 références se marchent sur les pieds côté performances, et même davantage si on prend en considération les 2 tailles de mémoire disponible sur certains modèles. Cela n'a par exemple pas beaucoup de sens, d'opter pour une 5500 XT 4 Go plus chère qu'une GTX 1660...

Est-il d'ailleurs préférable de se tourner vers une carte embarquant 4, 6 ou 8 Go de mémoire ? Comme vous l'aurez remarqué au sein de ce dossier, le modèle 4 Go de la 5500 XT peut s'avérer d'ores et déjà juste à ce niveau, il peut donc être tentant de choisir une carte dotée de 6 ou 8 Go dès à présent. Oui, surtout si la carte est destinée à être conservée un certain temps, mais pas à n'importe quel tarif non plus. Il est en effet souvent aisé de corriger ce déficit de mémoire par un réglage ou 2 au sein du jeu, sans pour autant dénaturer le résultat visuel. Il est d'ailleurs fort probable que le GPU en lui même s'avérera trop juste, lorsque 4 Go seront réellement problématiques. C'est pourquoi le surcoût ne doit pas excéder une grosse vingtaine d'euros tout au plus, ce qui n'est déjà pas négligeable en termes de pourcentage. Faut-il préférer une carte dotée d'une architecture moderne (5500 XT / 1650 SUPER) ou plus ancienne ? Là aussi tout dépend du prix, une RX 580 8 Go sera par exemple plus pertinente qu'une 5500 XT 4 Go plus chère, de bonnes affaires seront donc possibles dans les semaines qui viennent, ceux réellement intéressés par la nouvelle génération rouge seraient avisés de patienter quelque peu avant de craquer. 

amd 40 bequiet 40 Logo G Skill logo Intel nvidia 40 

Nous remercions naturellement nos partenaires pour la mise à disposition du matériel de test

 


• Les tarifs dans la vraie vie ?

 



Un poil avant ?

Les ventes de RDR2 décevantes ... sur l'Epic Games Store

Un peu plus tard ...

Quoi de neuf dans le noyau Linux pour Noël ?

Les 41 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par cabou83, le Samedi 28 Décembre 2019 à 21h06  
par Eric B. le Samedi 28 Décembre 2019 à 07h51
Tu n'étais pas déjà sur une Vega56 ? Oui en farlouillant toutes les options on doit certainement pouvoir trouver le réglage tiptop pour sa configuration, de mon côté, j'ai visé pour ce test des perfs proches des 60 i/s pour les 5500 XT & 1650 SUPER en utilisant des presets "simples" afin d'avoir une idée des compromis nécessaires pour atteindre ce niveau de performance avec ces cartes en FHD.
3615mavie, je l'ai vendu, car j'étais au chômage et j'avais besoin d'argent rapidement. J'ai retrouvé du taff donc je pouvais reprendre un bon gpu vers 350€ max (ou sinon fallait que j'attendent plus, avec ma 280X, mais quand on a connu le jeux en Ultra 1440p, repasser en moyen 1080p même pas à 60fps c'est trop dur ) et j'avoue que la, là promo ma fait de l'oeil et le rad est bien plus silencieux que la ref donc que du +.

D'ailleurs pour la petite anecdote. Pour la même fréquence entre la 56 et la 64 sous 3D mark j'ai 3.5% de gain avec la 64. Pour 1610MHz régler en P4/P5/P6/P7, ça permet à la carte de stabiliser la fréquence fixe et pas d'osciller, contrairement à l'OC uniquement du P7 que la carte n'arrive pas a atteindre.

Bref 4% pour 512sp de plus, ça prouve bien que FULL les CU sont mal alimenté, car je pense que le gain est du uniquement au cache L1 supplémentaire du au CU en +, et au TMU à 256 contre 224 sur la 56. Mais clairement les 512sp ne servent à rien ou presque vu le gain faiblard.
par Eric B., le Samedi 28 Décembre 2019 à 07h51  
Tu n'étais pas déjà sur une Vega56 ? Oui en farlouillant toutes les options on doit certainement pouvoir trouver le réglage tiptop pour sa configuration, de mon côté, j'ai visé pour ce test des perfs proches des 60 i/s pour les 5500 XT & 1650 SUPER en utilisant des presets "simples" afin d'avoir une idée des compromis nécessaires pour atteindre ce niveau de performance avec ces cartes en FHD.
par cabou83, le Vendredi 27 Décembre 2019 à 21h38  
par Eric B. le Jeudi 26 Décembre 2019 à 10h01
Il faut se contenter du moyen sur ce jeu pour atteindre les 60 i/s, cela n'a rien de déshonorant d'autant que le rendu est déjà très correct à ce niveau de détails. Après on peut aussi sacrifier les sacro-saints 60 i/s pour améliorer quelque peu le visuel, tout est histoire de choix.
Avec ce preset. On perd pas grand chose graphiquement face au "ultra". Et avec une Vega 64 optimisé j'ai 45fps en 4K, contre 35fps en ultra, et en passant en 1800p je monte a 55/60fps (contre 40/45fps en ultra) pour presque aucune différence de finesse entre le 1800p ou 2160p.
Je me suis laisser tenté par la V64 de Gigabyte a 278€ sur RDC, je me dis j'ai 220€ en bon d'achat pendant 12 mois avec leur pack reprise si je veux upgrade et je dois dire je suis plutôt satisfait, elle est silencieuse et bien refroidi.
C'était pour moi le meilleure bp des fêtes de fin d'année sur le marché des GPU.
par Une ragoteur de 14-18 d'Occitanie, le Vendredi 27 Décembre 2019 à 16h25  
Si je ne suis pas à 60 fps, cela ne m'empêche pas de dormir
par Eric B., le Jeudi 26 Décembre 2019 à 10h01  
Il faut se contenter du moyen sur ce jeu pour atteindre les 60 i/s, cela n'a rien de déshonorant d'autant que le rendu est déjà très correct à ce niveau de détails. Après on peut aussi sacrifier les sacro-saints 60 i/s pour améliorer quelque peu le visuel, tout est histoire de choix.
par Un ragoteur de 14-18 embusqué, le Jeudi 26 Décembre 2019 à 09h57  
Moi je vois que c'est un peu juste pour RDR2
par Un ragoteur qui draille embusqué, le Jeudi 26 Décembre 2019 à 09h48  
Merci pour ce test, enfin une évaluation sérieuse de ces cartes dans la langue de Molière. Ça valait la peine de patienter quelques peu, car le niveau de certains de vos confrères francophones fait peine à voir, s'en est presque gênant pour eux.
par Eric B., le Jeudi 26 Décembre 2019 à 01h17  
Tu sais que comme tu es loggé, tu as la possibilité de corriger directement ton ragot plutôt que d'ajouter d'autres messages ? Tu as trop l'habitude de poster en anonyme
par Jemporte, le Jeudi 26 Décembre 2019 à 01h15  
2e correct. : Double Slot SLIM Low Profile.
par Jemporte, le Jeudi 26 Décembre 2019 à 01h13  
TU115117 pour le 1650.
par Eric B., le Jeudi 26 Décembre 2019 à 01h12  
par Ideal le Mercredi 25 Décembre 2019 à 22h36
Clairement car entre l'inaction et ce qu'on vient de voir sur cette news, comme masse de réponses à un simple troll vu et revu des dizaines de fois sur chaque news 7nm ou RDNA2, y a quand même de quoi de faire en terme de réponses + concises et + claires.
Ce n'est malheureusement pas si simple à mon sens : comme indiqué précédemment si on ne ne dit rien on laisse la possibilité à certains d'être influencés par les propos tenus. Si on censure on passe pour les méchants qui n'acceptent pas la critique. Si on se montre dédaigneux vis-à-vis du message, on passe cette fois pour ceux à cours d'arguments pour répondre et jouant du sarcasme pour décrédibiliser le « savant/sachant ». Il n'y a pas de méthode miracle contre les trolls, sinon le web n'en serait pas infecté à ce point. Moi, mais ce n'est que mon avis, je trouve plus efficace d'étayer les réponses ( suffit de les lire attentivement pour se rendre compte que personne n'est dupe ici) en pointant du doigt les incohérences tout en restant correct, puisque c'est aussi le message que l'on souhaite faire passer. Le débat est toujours possible si dans la correction et la bonne foi, je l'ai d'ailleurs écrit précédemment. Par contre apporter une réponse argumentée c'est rarement faisable de manière concise et en une seule fois, surtout lorsque le mensonge est « emballé » au milieu de vérités utilisées à mauvais escient pour se donner une pseudo légitimité. C'est tout un talent pour certains, il faut savoir le reconnaître et détricoter tout ce fouillis n'est pas si aisé et ça demande des réponses / explications en conséquence .
par Jemporte, le Jeudi 26 Décembre 2019 à 01h10  
Je sais qu'on est sur des GTX 1650 Super TU116, mais les 1650 non Super, donc TU115, et leur TDP de 75W dans prise supplémentaire, qui gardent des perfs pas trop déclalées, permettent pour certaines, le double slot SLIM. Ca colle avec des PC mini-ITX très compacts ou micro-ATX fins. Autant dire un gros avantage qu'on est pas prêt de retrouver chez AMD avec un produit équivalent, du fait des TDP. Du coup, effectivement c'est raisonnable de penser qu'en 7nm, AMD aurait pu faire mieux et permettre une telle carte aux specs d'une GTX 1650 Super, parce que Nvidia le fait depuis un certains temps déjà en 12nm..