La GTX 1650 SUPER officiellement annoncée |
————— 30 Octobre 2019 à 09h41 —— 14477 vues
La GTX 1650 SUPER officiellement annoncée |
————— 30 Octobre 2019 à 09h41 —— 14477 vues
Il n'y avait pas que la GTX 1660 SUPER qui était à l'honneur hier. En effet Nvidia en a profité pour confirmer que la GTX 1650 SUPER était sur les rails, et serait dans nos assiettes à partir du 22 novembre prochain. Est-ce que ça signera la fin de la GTX 1650 ? Possible, mais rien n'a filtré sur ce point. Pour autant on connait en gros les specs par les diverses fuites qui ont été orchestrées. Cependant, Nvidia a confirmé 2 points dans sa communication.
Premièrement la GDDR utilisée devient la GDDR6 à 12 Gbps, pour mémoire sans jeu de mot pourritos, la GTX 1650 avait 4 gigots de GDDR5 à 8 Gbps. Ensuite le boost est confirmé pour quelque chose "jusqu'à 1.8 GHz". Ca c'est pour l'officiel, pour l'officieux, on devrait avoir 1280 cuda cores au lieu de 896 à la GTX 1650, 32 ROP partout, et ce serait le TU116 qui serait utilisé en lieu et place du TU117 de la GTX 1650. Ou alors cette partie est fausse au sujet des 1280 cuda cores, et la carte pourrait utiliser le TU117 complet à 1024 cuda cores, réactivant les 2 SM qui pioncent sur la GTX 1650.
Bref tout ça pour dire qu'ainsi faite, la carte pourrait donc bien venir chatouiller la GTX 1660 pour un prix moindre, mais on devrait donc découvrir tout ça à partir du 22 novembre prochain, ça, c'est une certitude !
![]() | Un poil avant ?Afterburner 4.6.2 stable est là | Un peu plus tard ...Et AMD alors ? Zen 2, Epyc 2 et Navi, mission accomplie ? | ![]() |
elle a vraiment l'air d'être bonne
tu fais tourner
Pourquoi ?
Nvidia annonce lors du passage du 16nm+ nommé 12nm TSMC au 7nm EUV Samsung, équivalent 6nm TSMC en plus maîtrisé, une augmentation des fréquences et une diminution de la consommations... grâce à une baisse jamais vue de a tension interne.
Mais surtout, des chips de taille conséquente (car Samsung maîtrise très bien le process) très nettement plus puissants niveau CUDA cores, du style 2x plus, mais autrement plus puissants niveau Raytrace et IA, du genre 10x plus. Ca fait 3 ans qu'ils ne planchent que là-dessus pendant que les concurrents se dispersent. Ces GPU devraient recevoir, en plus, le double de VRAM GDDR6 par rapport aux prédecesseurs.
Et cerise sur le gateau, Nvidia promet une baisse des prix conséquent, à gamme équivalente, dans le moyen et haut de gamme par rapport aux prix actuels des Turing.
Bref, AMD et Intel pourraient bien ne pas pouvoir vendre leur future gamme XE et RDNA2 déjà prêtes.