COMPTOIR
  
register

×

nvidia tableau gtx + rtx; 3d center.org

NVIDIA : une cohabitation Turing-Pascal jusqu'à l'aube de 2019 ?
nvidia tableau gtx + rtx; 3d center.org
une vieille gtx 10

Lors d'une conférence, la Chief Financial Officier de NVIDIA aurait avoué que Pascal et Turing seront officiellement vendus côte à côte au moins jusqu'à la fin de l'année. En d'autres termes, cela signifie que les RTX 2000 ne remplaceront pas encore les GTX 1000 de sitôt. NVIDIA sous-entend aussi par là une continuité étendue de l'ensemble des rejetons de l'architecture Pascal, en témoignent ces paroles de Colette Kress (CFO NVIDIA ).

 

We want to be successful for the holiday season, both our Turing and our Pascal overall architecture.

 

Bref, le message est clair, les GTX 10X0 n'en sont pas encore au stade d'End Of Life (EOL) et animeront le portfolio avec Turing jusqu'à l'aube de 2019, la "holiday season" faisant référence à toutes les fêtes de Thanksgiving fin novembre jusqu'au Nouvel An. Au fond, ce n'est pas si surprenant, on s'en doute déjà que le lancement des GeFORCE RTX se ferait en plusieurs dates - et il ne s'agit là que du haut de gamme - et rien ne garantirait une disponibilité en masse le jour J, laquelle se construirait donc certainement au fur et à mesure du dernier trimestre de l'année. Une décision qui pourrait aussi avoir été motivé par le fait que NVIDIA aurait encore relativement beaucoup de GPU Pascal en stock, peut-être après avoir un peu mal jugé la demande du minage, même si le constructeur a toujours affirmé qu'il ne s'agissait là que de petits GPU. Enfin, une autre vérité pourrait aussi se situer du côté des MSRP du catalogue de NVIDIA, avec des GeFORCE RTX qui pour le coup s’intégreraient (trop) bien à l'offre actuelle.

 

nvidia tableau gtx + rtx; 3d center.org [cliquer pour agrandir]

 

Que dire ? Vu ainsi, l'offre de NVIDIA aurait du sens, du moins tant que Pascal continue d'exister, les RTX 2000 laissant le sentiment d'avoir été positionnée de sortes à ne surtout pas gêner les GTX 1000 dans leur vie commerciale. De plus, il serait en fin de compte aussi assez normal de voir ces dernières perdurer un peu en attendant à ce que Turing soit décliné dans toutes les gammes de prix, et sans oublier que les premières RTX seront de toute façon assez inabordables dans l’immédiat. Ainsi, en fonction de la roadmap Turing encore inconnue du Caméléon, Pascal pourrait peut-être même survivre bien au-delà 2018, si pas dans nos PC, au moins sous le marché de la mobilité et de l'embarqué, les déclinaisons basses-consommation mobiles de Turing paraissant assez difficile à imaginer sans un passage au 7nm. (Source)

 

une vieille gtx 10 [cliquer pour agrandir]

Un poil avant ?

AMD perd du terrain face à NVIDIA... Retour à la case 2017 et sans cryptomonnaies !

Un peu plus tard ...

Une petite analyse de Kaby Lake-G, ça vous dit ?

Les 19 ragots
Les ragots sont actuellement
ragots réservés aux QI élevésouverts aux ragoteurs logués
par HaVoC, le Mercredi 12 Septembre 2018 à 17h10  
par Jemporte, le Mercredi 12 Septembre 2018 à 17h07
Je trouve plus mais c'est une comparaison qui met les Vega à en gros 60% des Volta sur leurs tensors cores. Et effectivement les Vega actuelles n'ont pas réçu l'optimisation du FP64 des précédentes GCN haut de gamme (Tahiti et Hawai), donc 1/2 et 1/4 des FP32 pour le FP64, au lieu de 1/16, mais ils auraient été retirées pour cause de coût, vitesse, taille du GPU... et on devrait les retrouver sur les Vega 20.
Comparaison à quel niveau ? ça veut pas dire grand chose "équivalent à" "60% des tensors cores" en Int 8 / FP16 etc ?

Les FP64 à part usage bien spécifique ...
par Jemporte, le Mercredi 12 Septembre 2018 à 17h07  
par HaVoC, le Mercredi 12 Septembre 2018 à 16h40
Tu fais allusions à quels tests ? Car bon quand je vois ça :

https://blog.inten.to/hardware-for-deep-learning-part-3-gpu-8906c1644664

Non désolé Vega n'est pas au niveau du V100. Et Vega 10 n'as pas d'unité en FP64 contrairement au V100.

Et un Polaris en 12nm tu gagnerais quoi ? 10/15% à tout casser. c'est pas ça qui révolutionnera le marché.
Je trouve plus mais c'est une comparaison qui met les Vega à en gros 60% des Volta sur leurs tensors cores. Et effectivement les Vega actuelles n'ont pas réçu l'optimisation du FP64 des précédentes GCN haut de gamme (Tahiti et Hawai), donc 1/2 et 1/4 des FP32 pour le FP64, au lieu de 1/16, mais ils auraient été retirées pour cause de coût, vitesse, taille du GPU... et on devrait les retrouver sur les Vega 20.
EDIT :
http://blog.gpueater.com/en/2018/04/23/00011_tech_cifar10_bench_on_tf13/
+ les autres liens à l'intérieur
par HaVoC, le Mercredi 12 Septembre 2018 à 16h40  
par Jemporte, le Mercredi 12 Septembre 2018 à 16h21
La Polaris 10/20 est une petite puce et ils doivent être proches de 0% de taux d'échecs. Passée en 12nm avec la même taille que la 14nm comme pour Zen+ va augmenter sa vitesse et probablement encore diminuer les rebuts (ils pourront probablement faire de RX670 plus proches de RX680).

Pour l'histoire des tensors et des RTX, AMD a des unités de calcul plus capables que Nvidia. Il y a eu des test de vitesse entre les tensors cores Volta et les unités de calcul intégrées à Vega, qui simulaient le calcul des tensor cores, et le résultat c'est que les Vega n'avait pas besoin de nouvelles unités de calcul alors que l'architecture Nvidia, avec des unités moins capables, en a besoin. Vega, pour le demi-GPU (en taille) qu'ils représentent par rapport à Volta, s'en sortaient très bien.

Le dessin GCN d'AMD avec des unités multi-usages plutôt que des assemblages d'unités spécialisées, a l'air plus pertinent pour un usage tous domaines (AI, pro et jeu) en plus d'être plus élégant.
Tu fais allusions à quels tests ? Car bon quand je vois ça :

https://blog.inten.to/hardware-for-deep-learning-part-3-gpu-8906c1644664

Non désolé Vega n'est pas au niveau du V100. Et Vega 10 n'as pas d'unité en FP64 contrairement au V100.

Et un Polaris en 12nm tu gagnerais quoi ? 10/15% à tout casser. c'est pas ça qui révolutionnera le marché.

par Jemporte, le Mercredi 12 Septembre 2018 à 16h32  
par Deus, le Mardi 11 Septembre 2018 à 07h49
J'ai ecrit quasiment ca mot pour mot sur le reddit de AMD et j'ai ete massivement downvoted. Doit yavoir de la frustration chez les rouges
Reddit est une communauté étrange. Il ne faut pas s'attendre à une réaction prévisible dans les votes. Je sais que j'y ai dit des grosses conneries et j'en ai reçu de grosses louanges, faisant grimper mes points. Si vous êtes en mal de karma, c'est comme ça qu'il faut faire. Trouvez une grosse ânerie bien quotée et répétez-là au bon endroit.
par Jemporte, le Mercredi 12 Septembre 2018 à 16h21  
par HaVoC, le Mardi 11 Septembre 2018 à 02h05
Un polaris "30"ça serait quoi ? Une énième version de Ellesmere (P10/20), c'est pas avec ça qu'AMD ira très loin ... Car bon faire une grosse puce Polaris en 12 nm alors que Navi arrive l'année prochaine.

Le Raytracing chez AMD utilisé, c'est maximiser l'utilisation des cœurs, bref c'est plus pour avoir un aperçu du RT via AMD avec un SDK etc pour les pros que quelque chose de comparable avec des RT cores dédiés.

AMD n'a pas les moyens de suivre, ils font évoluer légèrement Vega avec V20, et faudra attendre courant 2019 et Navi pour voir Polaris se faire remplacer.

C'est pas tout à fait ça. Turing introduit des cœurs dédiés spécifiquement au RayTracing en plus des tensors core, les RT Cores.
La Polaris 10/20 est une petite puce et ils doivent être proches de 0% de taux d'échecs. Passée en 12nm avec la même taille que la 14nm comme pour Zen+ va augmenter sa vitesse et probablement encore diminuer les rebuts (ils pourront probablement faire de RX670 plus proches de RX680).

Pour l'histoire des tensors et des RTX, AMD a des unités de calcul plus capables que Nvidia. Il y a eu des test de vitesse entre les tensors cores Volta et les unités de calcul intégrées à Vega, qui simulaient le calcul des tensor cores, et le résultat c'est que les Vega n'avait pas besoin de nouvelles unités de calcul alors que l'architecture Nvidia, avec des unités moins capables, en a besoin. Vega, pour le demi-GPU (en taille) qu'ils représentent par rapport à Volta, s'en sortaient très bien.

Le dessin GCN d'AMD avec des unités multi-usages plutôt que des assemblages d'unités spécialisées, a l'air plus pertinent pour un usage tous domaines (AI, pro et jeu) en plus d'être plus élégant.
par bouba81, le Mardi 11 Septembre 2018 à 14h56  
par fabtech, le Mardi 11 Septembre 2018 à 09h29
une GTX1080Ti se trouve à une moyenne de 400 Euros après seulement 1 an.
Avec la conversion de change en euros j'obtiens bien une moyenne de 400 euros en occasion.
je crois que ça te sera utile

On est largement plus près des 500/550 boules que des 400 dont tu parles et c'est sans regarder la confusion dans la période que tu évoques parce que ça fait 1ans et demi qu'elles sont sorties les 1080Ti. Il y a 6 mois, donc 1an après leur sortie commerciale, elles se touchaient plus à 700 euros en moyenne (d'occase).

Tu ne confondrais pas avec les 1080 (sans "Ti" )?
par fabtech, le Mardi 11 Septembre 2018 à 09h29  
par thunder72fr, le Lundi 10 Septembre 2018 à 12h55
Une 1080ti occaz à 400 euros de moyenne???

Peut être rajouter 100 euros tout de même....

Prix GTX1080ti sur LBC
Avec la conversion de change en euros j'obtiens bien une moyenne de 400 euros en occasion.
par Deus, le Mardi 11 Septembre 2018 à 07h49  
par Jemporte, le Lundi 10 Septembre 2018 à 19h59
En fait ils pourraient répondre avec un Polaris 30 12nm, un bon poil plus performant (sans Raytracing) et des pilotes pour Vega incorporant le raytracing (ils ont affirmé que ça serait le cas, mais pour le monde pro).
J'ai ecrit quasiment ca mot pour mot sur le reddit de AMD et j'ai ete massivement downvoted. Doit yavoir de la frustration chez les rouges
par HaVoC, le Mardi 11 Septembre 2018 à 02h05  
par Jemporte, le Lundi 10 Septembre 2018 à 19h59
En fait ils pourraient répondre avec un Polaris 30 12nm, un bon poil plus performant (sans Raytracing) et des pilotes pour Vega incorporant le raytracing (ils ont affirmé que ça serait le cas, mais pour le monde pro).
Un polaris "30"ça serait quoi ? Une énième version de Ellesmere (P10/20), c'est pas avec ça qu'AMD ira très loin ... Car bon faire une grosse puce Polaris en 12 nm alors que Navi arrive l'année prochaine.

Le Raytracing chez AMD utilisé, c'est maximiser l'utilisation des cœurs, bref c'est plus pour avoir un aperçu du RT via AMD avec un SDK etc pour les pros que quelque chose de comparable avec des RT cores dédiés.
par Jemporte, le Lundi 10 Septembre 2018 à 19h59
Bref, s'il n'y a pas entente entre AMD et Nvidia, leurs annonces très différenciée sent la collusion, avec AMD plus préoccupé de prendre des parts de gâteau CPU à Intel, qui est autrement plus lucratif qu'aller se battre sur le GPU gaming (par contre le domaine GPU Pro très juteux les intéresse).
.
AMD n'a pas les moyens de suivre, ils font évoluer légèrement Vega avec V20, et faudra attendre courant 2019 et Navi pour voir Polaris se faire remplacer.
par AntiZ, le Lundi 10 Septembre 2018 à 21h27
Ah et: Turing = Volta (En tout cas, très fortement au moins)
C'est juste que les tensor cores sont utilisés pour le raytraycing.
C'est pas tout à fait ça. Turing introduit des cœurs dédiés spécifiquement au RayTracing en plus des tensors core, les RT Cores.

par AntiZ, le Lundi 10 Septembre 2018 à 21h27  
par Jemporte, le Lundi 10 Septembre 2018 à 20h35
Maintenant que tu le dis, je me rends compte de ça: Il n'y aura peut-être pas de bas de gamme Turing, ce sera le rôle de Pascal et du surplus. Y'a pas de petites économies.
nVidia savait très bien que tout le monde bouderait RTX par rapport à Pascal vu les performances, c'était prévu.

En faisant comme ça, ça laisse non seulement des prix chers pour le bas de gamme, mais en plus ça force les kikitoudur à aller direct vers au moins une RTX 2060 qui sera vendue chère à cause du raytracing.

La magie dans tout ça, c'est encore un glissement vers le bas de la gamme via l'augmentation du prix.

C'est soit ce que j'ai dit plus bas, soit ce cas là. Mais celui-là me semble plus probable car ça me paraît très gros qu'nVidia n'ait pas prévu que les gens bouderaient Turing.

Ah et: Turing = Volta (En tout cas, très fortement au moins)
C'est juste que les tensor cores sont utilisés pour le raytraycing. Avantage pour nVidia:
- Une seule architecture et design
- Techno propriétaire comme PhysX pour embrigader les gens
- Justification de la consommation en hausse
- "Justification" du prix plus élevé.
- ...Même si les performances globales sont beaucoup moins en hausse que les précédentes générations

Ce que je note ici, c'est qu'il y aura une deuxième descente en gamme, mais pas en prix !
Et ce, pour la raison suivante (en SM x shaders):
- GTX 780 Ti (15 x 192) vs Titan Black (15x192)
- GTX 980 Ti (22 x 128) vs Titan X (24 x 128)
- GTX 1080 Ti (28 x 128) vs Titan Xp (30 x 128)
- RTX 2080 Ti (68 x 64) vs Titan Turing/Volta (80 x 64)

Ca se trouve, la Titan Turing/Volta aura moins de 80 SM, ou alors ils vont sortir des Titans à gogo comme pour Kepler 2.
par Scrabble, le Lundi 10 Septembre 2018 à 21h02  
par Jemporte, le Lundi 10 Septembre 2018 à 20h35
Apparemment, les RTX (ou GTX) 2060 et moindres seraient sans RTX et tensors, juste des upgrades Pascal en 12nm et GDDR6
Oui, Nvidia ne pourra pas les appeler RTX si elles n'implémentent pas le ray-tracing.
par Jemporte, le Lundi 10 Septembre 2018 à 20h35  
par Scrabble, le Lundi 10 Septembre 2018 à 20h22
Il y a peut être aussi le fait que Turing n'a pas vraiment de sens pour des CG de moyen et bas de gamme. En effet, le ray-tracing demande une puissance de calcul conséquente, il est donc logique de le désactiver totalement sur une carte moyen de gamme, ce qui est le cas avec les GTX 1070Ti qui se trouvent reléguées à ce niveau, ainsi que tous les autre modèles à architecture Pascal (Sauf la 1080Ti qui devrait rapidement arrêter de se vendre).
Apparemment, les RTX (ou GTX) 2060 et moindres seraient sans RTX et tensors, juste des upgrades Pascal en 12nm et GDDR6, ultra-rentables à produire par contre. Quand les stocks de Pascals auront été écoulés.
Les RTX 2070 auront beaucoup de mal avec le raytracing en Full HD (les références à peine potables de Ful HD le sont à partir RTX 2080Ti), alors je vois mal un retour au 600x800 pour faire du Raytracing sur une éventuelle RTX 2060 et au 480x640 pour une RTX 2050. Et comme ces unités RTX et tensors ne servent qu'à ça en gaming, elles n'auront aucun intérêt sur ces cartes.

Je pense qu'il y aura des Turing 2 ou autre gamme 7nm en automne 2018 face aux AMD Navi 7nm. Les Turing 12nm, assez monstrueux en taille et vendus anormalement peu cher par Nvidia, donnent une impression de sortie préventive. Il sont particulièrement inefficaces sur les jeux existants et ne présentent pas d'intérêt réel du fait du rabaissement au Full HD pour le raytracing. On a des GPU deux fois plus gros en détails, en 12nm au lieu de 16nm et 754mm² au lieu de 471mm², vendus seulement 10% plus cher.
On est dans l'ordre de grandeur de silicium de la Titan V ( 815mm² ), que Nvidia vendait à un prix extravagant (et sa variante pro V100 encore plus).