COMPTOIR
  
register

Allez, la 1660 Ti refait parler d'elle

Il faut croire qu'après la RTX 2060, c'est désormais au tour de la 1660 Ti de fuiter un peu plus chaque semaine. Quand sera dévoilée la belle ? Existe-t-elle réellement ? Est-ce vraiment une 1660 Ti plutôt qu'une 1160 Ti ? Tant de questions auxquelles une réponse directe serait bien hasardeuse, mais les leaks gardent une certaine constance avec toujours 1536 cœurs CUDA prévus.

 

La puce, dépourvue de capacité de Ray Tracing, a été flashée sur Ashes of the Singularity avec un score à prendre avec des pincettes de 7400, contre 6200 pour une GTX 1060 version mobile toujours. Cela représenterait un gain de presque 20%, ça fait rêver, presque un peu trop en fait ! Notons également des bruits sur la GTX 1660 pas-Ti, qui devrait être lancée en même temps que sa copine, mais hériterait de GDDR5 ou 5X, là ou l'aînée conserve la GDDR6 de Turing. On se demande du coup comment seront faits les contrôleurs mémoire du TU116, à moins que la puce ne soit pas commune... un vrai sac de nœuds !

 

nvidia gtx 1660 ti aos

 

Ce qui est drôle ans ce résultat est que la carte graphique n'est peut-être même pas l'élément le plus important de leak puisque le processeur est un inconnu au bataillon à 8 cœurs physiques et 16 logiques moulinant à 2,1 GHz de base, annoncé comme une version portable. S'agit-il d'un Sunny Cove sauvage ? Impossible d'en savoir plus, armons-nous de patience pour déchiffrer cette énigme intrigante ! (Source : WCCFTech)

Un poil avant ?

Après le 970 EVO vint le 970 EVO Plus chez Samsung (MAJ)

Un peu plus tard ...

Firefox se ferme aux DLL externes "pour plus de sécurité"

Les 28 ragots
Les ragots sont actuellement
ragots réservés aux QI élevésouverts aux ragoteurs logués
par TwoFace, le Vendredi 25 Janvier 2019 à 13h41  
Bon et bien j'avais vu juste https://videocardz.com/79847/hardocp-nvidia-geforce-gtx-1660-ti-to-cost-279-usd

279 euros, donc avec les customs les moins chères ça devrait taper dans les 240 euros...
par Dark, le Jeudi 24 Janvier 2019 à 16h08  
par AntiZ, le Mercredi 23 Janvier 2019 à 18h43
Sauf qu'RTX a forcément besoin d'un GPU nVidia, là est tout le problème.

Donc c'est balaise de penser qu'RTX sera différent alors que DXR existe.

Sauf que FreeSync (cf wikipedia) est libre, et sans FPGA inutile contrairement à G-Sync.

Gsync est dans la liste parce que c'est propriétaire contrairement à FreeSync qui est libre.
Si AMD voulait implémenter G-Gync ça aurait été impossible alors que le contraire lui l'est.

nVidia est donc le moins défendable dans l'histoire, donc venir parler d'oeillères c'est magique de ta part.
Ton charabia qui ne répond pas à ce qu'on te dit mais qui nous cite montre que tu ne comprends pas ce dont tu parles. Donc parler d'oeillères est loin d'être le bon terme, mais en employer un autre vaudrait une modération.
Tiens en passant, tu confirmes bien qu'amd renomme aussi des techno libres et ouvertes, contrairement à ce que tu affirmais avant, mais ça, tu te gardes bien de l'admettre et préfère répondre à côté.
par Thibaut G., le Mercredi 23 Janvier 2019 à 21h09  
par AntiZ, le Mercredi 23 Janvier 2019 à 19h02
DXR peût être, mais certainement pas RTX.

Il faudrait déjà que les éditeurs songent à allouer du temps de développement sur DirectX 12, et c'est au mieux l'année prochaine qu'on en verra vraiment les couleurs.
Donc DXR pourrait n'être exploité que d'ici 5 minimum ans pour être gentil.

Sony a aussi l'air de s'occuper de cette vaste blague qu'est la VR, c'est pas gagné.
t'as vraiment du mal quand même. Le RT, c'est Microsoft DXR. Si un GPU doit traiter du RT, c'ets avec DXR. RTX, c'est juste la boite à outil de Nvidia pour aider les devs à optimiser le RT sur l'archi particulière de Turing. Nvidia RTX n'est pas plus voué à l'échec que la solution que développera AMD pour la même chose. La base du RT, c'est DXR de Microsoft.
par TwoFace, le Mercredi 23 Janvier 2019 à 19h25  
par AntiZ, le Mercredi 23 Janvier 2019 à 18h43
Sauf qu'RTX a forcément besoin d'un GPU nVidia, là est tout le problème.

Donc c'est balaise de penser qu'RTX sera différent alors que DXR existe.

Sauf que FreeSync (cf wikipedia) est libre, et sans FPGA inutile contrairement à G-Sync.

Gsync est dans la liste parce que c'est propriétaire contrairement à FreeSync qui est libre.
Si AMD voulait implémenter G-Gync ça aurait été impossible alors que le contraire lui l'est.

nVidia est donc le moins défendable dans l'histoire, donc venir parler d'oeillères c'est magique de ta part.
Mais tu n'as toujours rien compris !!! c'est excessivement grave d'être aussi borné...
RTX c'est un peu comme dire GTX c'est un argument commercial et non technique !!!! les RT cores font partis de l'architecture de turing et permettent des unités spécialisés pour le calcul raytracing et ensuite CA PASSE PAR LE DXR qui EST LUI OUVERT A TOUS...

Chaque marque à son archi mais utilise par exemple DX11 / DX12 cela ne change en rien et n'impose absolument pas une techno propriétaire...

Faudrait arrêter un peu de faire semblant de rien comprendre et dire que RTX propriétaire nvidia dégueu..
par AntiZ, le Mercredi 23 Janvier 2019 à 19h02  
par TwoFace, le Mercredi 23 Janvier 2019 à 18h08
Vu le gain visuel et probablement dans le gameplay + techno ouverte (via microsoft) je pense que ça risque de percer, actuellement ça reste jouable sauf en 4K.
Plus qu'à attendre la prochaine révision des turing pour avoir du DXR jouable en 1440p pour 470 euros et ce sera parfait
DXR peût être, mais certainement pas RTX.

Il faudrait déjà que les éditeurs songent à allouer du temps de développement sur DirectX 12, et c'est au mieux l'année prochaine qu'on en verra vraiment les couleurs.
Donc DXR pourrait n'être exploité que d'ici 5 minimum ans pour être gentil.

Sony a aussi l'air de s'occuper de cette vaste blague qu'est la VR, c'est pas gagné.
par AntiZ, le Mercredi 23 Janvier 2019 à 18h56  
par Sarge, le Mercredi 23 Janvier 2019 à 12h21
En effet, on ne peut pas l'affirmer, mais on peut imaginer une même finalité ?!
PhysX n'est pas vraiment mort car il est implémenté directement dans certains moteurs de jeu, cela permet une utilisation par n'importe quelle CG (ce que je trouve super, j'adorais cette tech. depuis Ageia). Les exemples de moteurs/jeux : ArmA 3, UE4, UE3 (ds les dernières maj.), WoT et sûrement d'autres..
Donc, si demain (comprenez ds un futur proche), le RayTracing serait éventuellement gérer par les "engine", on n'aurait ainsi même plus besoin de carte dédiée...une carte suffisamment puissante pourrait éventuellement faire le travail, car le job serait déjà mâché par "l'engine" et calculable par des cg "classiques" ?!
Le problème c'est que ça demande plus de temps de développement même si c'est directement intégré dans les moteurs.
A partir du moment où une implémentation ne ressemble pas beaucoup à celle du plus petit dénominateur commun (les consoles, ces boulets ), il faudra croiser les doigts pour le voir apparaître.

PhysX a été rarement utilisé à sa juste valeur.
La plupart du temps, c'était pour des trucs totalement gérables facilement par le CPU (coucou Mirror's Edge, coucou Tom Clancy's Ghost Recon Advanced Warfighter, Metro 2033, etc) avec juste 2-3 trucs par-ci, par-là pour apâter le chaland.

Ca reste du ragdoll physics, donc il n'y a aucun ajout de réalisme en tant que tel. Son vrai intérêt est juste de soulager le CPU quand il y a vraiment beaucoup d'objets en mouvement.
Perso, un seul jeu m'a marqué pour son utilisation juste de PhysX: CellFactor - Revolution
par AntiZ, le Mercredi 23 Janvier 2019 à 18h43  
par TwoFace, le Mercredi 23 Janvier 2019 à 09h34
Le DRX est encore une fois une extension de DX12, donc ouvert à n'importe quel constructeur...
Faut arrêter de raconter n'importe quoi, le RTX c'est une dénomination commercial et pour le technique ce sont les RT cores, conçu pour faire du raytracing.
AMD sortira son architecture compatible DXR et il n'y aura aucun problème.
Sauf qu'RTX a forcément besoin d'un GPU nVidia, là est tout le problème.

Donc c'est balaise de penser qu'RTX sera différent alors que DXR existe.
par -------------------, le Mercredi 23 Janvier 2019 à 10h44
Quitte a citer le G-Sync,n'omets pas non plus le Freesync

Il me semble qu'on puise également rajouter Lucid Virtu MVP a cette liste.
Sauf que FreeSync (cf wikipedia) est libre, et sans FPGA inutile contrairement à G-Sync.
par Dark, le Mercredi 23 Janvier 2019 à 11h09
T'as totalement raison. AMD n'a jamais renommé l'adapatative sync pour le transformer en freesync dans ses produits par exemple. Et des exemples il y en a d'autres.
Quand je parlais d'oeillères, je ne pensais pas que tu en avais d'aussi grandes.

Que vient faire le Gsync là dedans ? Depuis quand l'utilsation de Gsync est dépendant de l'implantation dans les jeux ?
Gsync est dans la liste parce que c'est propriétaire contrairement à FreeSync qui est libre.
Si AMD voulait implémenter G-Gync ça aurait été impossible alors que le contraire lui l'est.

nVidia est donc le moins défendable dans l'histoire, donc venir parler d'oeillères c'est magique de ta part.

par TwoFace, le Mercredi 23 Janvier 2019 à 18h08  
par Sarge, le Mercredi 23 Janvier 2019 à 12h21
En effet, on ne peut pas l'affirmer, mais on peut imaginer une même finalité ?!
PhysX n'est pas vraiment mort car il est implémenté directement dans certains moteurs de jeu, cela permet une utilisation par n'importe quelle CG (ce que je trouve super, j'adorais cette tech. depuis Ageia). Les exemples de moteurs/jeux : ArmA 3, UE4, UE3 (ds les dernières maj.), WoT et sûrement d'autres..
Donc, si demain (comprenez ds un futur proche), le RayTracing serait éventuellement gérer par les "engine", on n'aurait ainsi même plus besoin de carte dédiée...une carte suffisamment puissante pourrait éventuellement faire le travail, car le job serait déjà mâché par "l'engine" et calculable par des cg "classiques" ?!
Vu le gain visuel et probablement dans le gameplay + techno ouverte (via microsoft) je pense que ça risque de percer, actuellement ça reste jouable sauf en 4K.
Plus qu'à attendre la prochaine révision des turing pour avoir du DXR jouable en 1440p pour 470 euros et ce sera parfait
par Sarge, le Mercredi 23 Janvier 2019 à 12h21  
par TwoFace, le Mercredi 23 Janvier 2019 à 00h28
Et pour le reste c'est balaise d'affirmer que le raytracing va faire comme physX !!!
En effet, on ne peut pas l'affirmer, mais on peut imaginer une même finalité ?!
PhysX n'est pas vraiment mort car il est implémenté directement dans certains moteurs de jeu, cela permet une utilisation par n'importe quelle CG (ce que je trouve super, j'adorais cette tech. depuis Ageia). Les exemples de moteurs/jeux : ArmA 3, UE4, UE3 (ds les dernières maj.), WoT et sûrement d'autres..
Donc, si demain (comprenez ds un futur proche), le RayTracing serait éventuellement gérer par les "engine", on n'aurait ainsi même plus besoin de carte dédiée...une carte suffisamment puissante pourrait éventuellement faire le travail, car le job serait déjà mâché par "l'engine" et calculable par des cg "classiques" ?!
par Dark, le Mercredi 23 Janvier 2019 à 11h09  
par AntiZ, le Mercredi 23 Janvier 2019 à 00h05
Problème: c'est pas le genre de la maison de faire ça contrairement à nVidia
...
T'as totalement raison. AMD n'a jamais renommé l'adapatative sync pour le transformer en freesync dans ses produits par exemple. Et des exemples il y en a d'autres.
Quand je parlais d'oeillères, je ne pensais pas que tu en avais d'aussi grandes.
par AntiZ, le Mercredi 23 Janvier 2019 à 06h49
...inutile...

Anyway, honnêtement, quelle technologie propriétaire est aujourd'hui suffisament (soit au moins sur 30% des jeux) utilisée sur tout ce qui est sorti jusqu'ici ?

TRUForm est mort, l'SLI, le CrossFire, Hair, PhysX, l'SSAO, Mantle, TressFX, VisualFX, Mantle, G-Sync sont tellement peu utilisés qu'on peut les considérer comme tel.

...
Que vient faire le Gsync là dedans ? Depuis quand l'utilsation de Gsync est dépendant de l'implantation dans les jeux ?
par -------------------, le Mercredi 23 Janvier 2019 à 10h44  
par AntiZ, le Mercredi 23 Janvier 2019 à 06h49
TRUForm est mort, l'SLI, le CrossFire, Hair, PhysX, l'SSAO, Mantle, TressFX, VisualFX, Mantle, G-Sync sont tellement peu utilisés qu'on peut les considérer comme tel.
Quitte a citer le G-Sync,n'omets pas non plus le Freesync

Il me semble qu'on puise également rajouter Lucid Virtu MVP a cette liste.
par TwoFace, le Mercredi 23 Janvier 2019 à 09h34  
Le DRX est encore une fois une extension de DX12, donc ouvert à n'importe quel constructeur...
Faut arrêter de raconter n'importe quoi, le RTX c'est une dénomination commercial et pour le technique ce sont les RT cores, conçu pour faire du raytracing.
AMD sortira son architecture compatible DXR et il n'y aura aucun problème.