COMPTOIR
register

GTX 1650 à la TU106, TU116, T117... Attention à l'encodeur NVENC

Un peu avant son lancement en 2019, on avait déjà appris que la toute petite GTX 1650 n’allait pas profiter du nouvel encodeur NVENC Turing contrairement à ses consœurs Turing, mais conserverait l’encodeur de la génération Volta, très semblable à celui de la génération Pascal. La carte en question ne s’en sort pas trop trop mal en Full HD, même si la version SUPER lui fait désormais beaucoup d’ombre, en sachant qu’une GTX 1650 ULTRA a été détectée récemment (y’aurait clairement du TU106 en rab dans les stocks). Il faut avouer que l’entrée de gamme GTX du Caméléon est un pwàl bordélique (ce qui n’est guère une première, souvenons-nous des GT 730 et GTX 1060), la preuve avec cette GTX 1650 dont circulent désormais 4 variantes partageant le même nom, plus ou moins silencieusement. Voyez plutôt :

 

 

NvidiaGTX 1650GTX 1650GTX 1650GTX 1650
GPU TU106 TU116 TU117  TU117
Encodeur NVENC Turing Turing Volta Volta
Nombre de transistors 10,8 milliards 6,6 milliards 4,7 milliards 4,7 milliards
Taille du die 445 mm² 284 mm² 200 mm ² 200 mm ²
CUDA Cores/TMU/ROPs 896/56/32
Fréquences base/boost 1410 - 1590 MHz 1485 - 1665 MHz
GDDR6 4 Go GDDR6 12 Gbps 4 Go GDDR5 8 Gbps
Bus 128-bit
TDP 75 W

 

Bien sûr, le détail le plus important qui diffère est celui de l’encodeur NVENC, celui de Turing est plus efficace d’environ 15 % et apporte quelques fonctionnalités supplémentaires. Un détail qui peut faire la différence pour qui en a l’utilité (par exemple pour du streaming). Nvidia a ajouté une mention à ce sujet en tout petit en bas de sa page dédiée aux GTX 1650 — confirmant de fait le recyclage de puces TU106 (RTX 2060/2070) et TU116 (GTX 1660 [SUPER & Ti], GTX 1650 SUPER). Typiquement, aucun partenaire du Caméléon ne mentionne le nom de la puce graphique, il faudra donc se renseigner pour connaître le modèle exact du GPU de la GTX 1650 qui vous intéresserait. Cela dit, certains constructeurs indiquent désormais la présence de l’encodeur NVENC Turing sur les pages produits, c’est le cas par exemple chez GIGABYTE avec sa GTX 1650 D6 WindForce OC 4G (rev. 2.0).

 

Un détail, certes assez minime, qu’il faudra garder à l’esprit si celui-ci est important pour vous. On peut parfaitement comprendre l’intérêt économique (et environnemental, si l’on ose dire) de recycler des puces partiellement défectueuses, mais l’on regrettera tout de même encore cette pratique d’une intégration souvent assez peu explicite — que ce soit chez Nvidia ou chez AMD, les deux savent très bien y faire — qui ne fait que compliquer les choses pour l’acheteur. (Source : Tom's)

 

gigabyte gtx 1650 windforce

Un poil avant ?

L'évolution de la mémoire des GPU Nvidia depuis Fermi, qu'attendre d'Ampere ?

Un peu plus tard ...

Test • Ryzen 5 3600XT / Ryzen 7 3800XT / Ryzen 9 3900XT

Les 5 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par viph, l'autre en Île-de-France, le Mardi 07 Juillet 2020 à 14h26  
par Un ragoteur Wankel en Île-de-France le Mardi 07 Juillet 2020 à 11h58
Nvidia l'avait annoncé dès le départ sur son tableau d'encodage/décodage.
https://developer.nvidia.com/video-encode-decode-gpu-support-matrix

Très honnêtement, cela ne change rien, le streaming avec une GTX1650 ne me parait pas être une super idée (j'entends par là, que le CPU qui sera derrière risque d'être vite limitant, on met rarement un CPU puissant avec une cg bas de gamme), et au delà de cet encodeur, le décodeur (le plus important à mon humble avis) ne change pas lui.

Le seul endroit où je verrais ce genre de carte graphique pour du streaming ce serait sur un pc secondaire qui ne sert qu'à l'encodage MAIS sur ce genre de configuration, on utilise soit une carte additionnelle qui ne servira qu'à cela ou alors on adjoint un gros CPU et l'encodage est fait via le CPU (moins rapide et coûte plus cher sur le matériel mais niveau qualité, vraiment rien à voir généralement).
NOTA: on ne parle que du H265 là
l'arrivée du traitement des "B-frame" a changé la donne.
Certes, le résultat n'est pas aussi bon qu'un x265h12, faut pas rêver, mais il tient la comparaison avec un niveau "moyen"... tout en allant plus vite que du "very fast" ;-)

Donc sauf si l'on veut le top à tout prix, NVENC fera la boulot à merveille tout en laissant de la ressource pour autre chose.
par Thibaut G., le Mardi 07 Juillet 2020 à 13h55  
par Auvergne-Rhône-Alpes en Île-de-France le Mardi 07 Juillet 2020 à 13h28
Vivement qu'Intel arrive pour que Nvidia puisse enfin bouger ses fesses pour des drivers corrects.
Qu appelles tu drivers corrects ? La stabilité, les performances ou l'interface ?
par Auvergne-Rhône-Alpes en Île-de-France, le Mardi 07 Juillet 2020 à 13h28  
par Un médecin des ragots en Nouvelle-Aquitaine le Mardi 07 Juillet 2020 à 12h27
Un autre endroit où c'est possible de voir une config CPU balèze et CG qui pue c'est dans des serveurs de virtualisation non-professionnels (cas assez rare effectivement mais non négligeable), étant donné que dans ce genre de cas on à besoin d'un CPU mastoc (donc probablement du AMD donc pas de iGPU) mais que tout se passe par SSH et/où virt-manager, le GPU n'est la que pour servir de mémoire vidéo (au lieu de bouffer de la précieuse ram) et d'affichage de secours. Mais bon après je vois difficilement quelqu'un s'infliger la pénibilité de se traîner une CG Nvidia sous Linux alors qu'elles sont historiquement des emmerdes et que AMD fait du bon bouleau.
Vivement qu'Intel arrive pour que Nvidia puisse enfin bouger ses fesses pour des drivers corrects.
par Un médecin des ragots en Nouvelle-Aquitaine, le Mardi 07 Juillet 2020 à 12h27  
par Un ragoteur Wankel en Île-de-France le Mardi 07 Juillet 2020 à 11h58
Bla bla ...
Un autre endroit où c'est possible de voir une config CPU balèze et CG qui pue c'est dans des serveurs de virtualisation non-professionnels (cas assez rare effectivement mais non négligeable), étant donné que dans ce genre de cas on à besoin d'un CPU mastoc (donc probablement du AMD donc pas de iGPU) mais que tout se passe par SSH et/où virt-manager, le GPU n'est la que pour servir de mémoire vidéo (au lieu de bouffer de la précieuse ram) et d'affichage de secours. Mais bon après je vois difficilement quelqu'un s'infliger la pénibilité de se traîner une CG Nvidia sous Linux alors qu'elles sont historiquement des emmerdes et que AMD fait du bon bouleau.
par Un ragoteur Wankel en Île-de-France, le Mardi 07 Juillet 2020 à 11h58  
Nvidia l'avait annoncé dès le départ sur son tableau d'encodage/décodage.
https://developer.nvidia.com/video-encode-decode-gpu-support-matrix

Très honnêtement, cela ne change rien, le streaming avec une GTX1650 ne me parait pas être une super idée (j'entends par là, que le CPU qui sera derrière risque d'être vite limitant, on met rarement un CPU puissant avec une cg bas de gamme), et au delà de cet encodeur, le décodeur (le plus important à mon humble avis) ne change pas lui.

Le seul endroit où je verrais ce genre de carte graphique pour du streaming ce serait sur un pc secondaire qui ne sert qu'à l'encodage MAIS sur ce genre de configuration, on utilise soit une carte additionnelle qui ne servira qu'à cela ou alors on adjoint un gros CPU et l'encodage est fait via le CPU (moins rapide et coûte plus cher sur le matériel mais niveau qualité, vraiment rien à voir généralement).