COMPTOIR
register

×

nvidia turing / GPU

NVIDIA officialise ses RTX série 2000, qu'en penser ?
nvidia turing / GPU
RTX 2080 ti dissipateur (rendu trouadé)
RTX 2070 backplate (rendu trouadé)

Ça y est, c'est plié, papa Jensen et son cuir intemporel ont fait sensation avec un grand renfort de superlatif et de poudre aux yeux à la keynote d'hier soir. Ça sera donc du Turing pour tout le monde : pour les pro, on le savait déjà ; c'est désormais sûr pour les joueurs. Préparez-vous donc aux Geforce RTX sauce gamers, à croire que le G de "Graphics" était devenu trop ancien ou trop mainstream, ou encore qu'une carte graphique est désormais capable de faire bien plus que du rendu, au point de condenser tout un cluster de calcul dans un die de quelques cm². On ne vous cache pas émettre de bonnes réserves quant à ce dernier point !

 

nvidia turing / GPU [cliquer pour agrandir]

 

C'est ainsi que trois cartes graphiques ont été officiellement dévoilées : la RTX 2080 Ti, la RTX 2080 et la RTX 2070. Voyons cela d'un peu plus près comparé aux Pascal précédentes.

 

P'tit nomFréquence
(base-Boost)
coeurs CUDARay tracingVRAMEt a quelle vitesse ?TDPMSRPDispo
RTX 2080 Ti 1350-1635 MHz (Founders Edition)
1350-1545 MHz
4352 10 GigaRay / sec
78 T RTX-OPS
11 Go GDDR6 14 Gbps (bus 352-bit) 260 W (FE)
250 W
1119$ / 1259€ (FE) 20/09/2018
GTX 1080 Ti 1480-1582 MHz 3584 Non 11 Go GDDR5X 11 Gbps (bus 352-bit) 250 W

699$ /

824 € (FE)

Déjà là
RTX 2080 1515-1800 MHz (Founders Edition)
1515-1710 MHz
2944 8 GigaRay / sec
60 T RTX-OPS
8 Go GDDR6 14 Gbps (bus 256-bit) 225 W (FE)
215 W
799 $ / 849€ (FE) 20/09/2018
GTX 1080 1607-1733 MHz 2560 Non plus 8 Go GDDR5X 10 Gbps (bus 256-bit) 180 W 699$ / 790 € (FE) Pascal, voyons
RTX 2070 1410-1710 MHz (Founders Edition)
1410-1620 MHz
2304 6 GigaRay / sec
45 T RTX-OPS
8 Go GDDR6 14 Gbps (bus 256-bit) 185 W (FE)
175 W
599$ / 639€ (FE) Plus tard...
GTX 1070 1506-1683 MHz 1920 Toujours pas 8 Go GDDR5 8 Gbps (bus 256-bit) 150 W 449$ / 499 € (FE) Pas nouvelle celle-là

 

D'une part, on observe une démarcation moins marquée entre les Founders Edition et les modèles custom, les premières bénéficiant à présent elle aussi d'un overclocking de série et TDP accru, par contre le différentiel financier par rapport au premier prix, est lui aussi bien plus marqué au sommet de la gamme. Par rapport à Pascal, les unités de calcul sont en augmentation de 20 % environ ce qui laisse présager un bon gain côté performances, bien qu'il soit difficile d'inférer les comportements de ces chiffres seuls en particulier sans les fréquences réelles en charge, car depuis Turbo Boost, les valeurs officielles sont rarement respectées... De plus, Turing se présente pour être une évolution importante (enfin !) du côté des architectures GPU, telle qu'on n’a pas vu depuis Tesla avec son introduction d'une architecture unifiée pour les shaders. Nous n'avons pas à l'heure actuelle plus de détails à vous donner, nous vous tiendrons informés de ce qui filtrera depuis la muraille verte, tout comme la pertinence de ces 78 Tera RTX-OPS dont le nombre nous laisse encore songeur.

 

La mémoire bascule du combo GDDR5/X vers la seule GDDR6 à 14 Gbps qui permet des gains énergétiques (surtout face à la version non X) et une bande passante accrue de 75% pour la plus petite à 27% pour le Flagship (+40% pour la 2080). Le TDP est également en légère hausse, ce qui n'est pas vraiment étonnant au vu de la gravure en 12 nm utilisée, optimisation du 16 nm plus que nouveau NODE. Quant aux prix, ils s'envolent littéralement à des niveaux stratosphériques, particulièrement au sommet de gamme, fruit d'un manque de concurrent assez flagrant sur ce secteur, et d'un GPU tout simplement énorme -754 mm² pour celui de la RTX 2080 Ti (à priori RT102-. NVIDIA ne précise d'ailleurs pas à l'heure actuelle les GPU embarqués, mais il semble que ce soit un TU104 (plus petit) qui officie sur les 2070/2080.  Pour les tarifs des modèles customs, il faudra voir avec chaque constructeur, ce que nous ne manquerons pas de faire avec délectation dans les heures qui suivent.

 

RTX 2080 ti dissipateur (rendu trouadé) [cliquer pour agrandir]

Tout en double pour le nouveau design de ref des Founder's Eidtion : 2x8 pins pour l'alim et 2 moulins axiaux (qu'on devine être des 80mm)

 

Cette nouvelle génération inaugure aussi un design de référence inédit : fini le blower, place à deux ventilateurs pour refroidir les ardeurs des engins, et a priori dans un silence de cathédrale ; que restera-t-il aux cartes custom pourront se demander d'aucuns, alors que d'autres pourront tiquer sur l'évacuation calorifique intra boitier, alors que les blowers des ventirads FE antérieurs diffusaient généralement vers l'extérieur du boitier. On notera également l'abandon du connecteur SLI sur la RTX 2070, et l'évolution de ce dernier en un connecteur NVLink - technologie maison issue du monde professionnel - ne supportant que 2 cartes simultanément (mais à une vitesse largement plus élevée), et dont le pont se monnayera à 84€, quand-même !

 

RTX 2070 backplate (rendu trouadé) [cliquer pour agrandir]

La RTX 2070 profite également d'un carénage complet (encore heureux, vu le tarif !) et voit son unique connecteur d'alimentation déporté sur le flanc de la carte

 

NVIDIA vante pour ses cartes une capacité de rendu en Ray Tracing en temps réel. Pour rappel, cette technologie consiste à lancer des rayons depuis les pixels pour par la suite calculer les réflexions et réfractions en fonction des matériaux traversés. La plateforme RTX sera ainsi constituée d'unités spécialisées pour le rendu graphique (rastérisation), le lancer de rayon (RT cores), les calculs (CUDA) et l'IA (Tensor cores). La pile logicielle devrait suivre avec une compatibilité Vulkan, DXR (DirectX sauce lancer de rayons) et OptiX, une API propriétaire des verts.

 

Selon Jensen, cela a nécessité "près de 10 ans" de développement afin de paralléliser ces calculs, marketing quand tu nous tiens ! Mais qu'en est-il du rendu in-game ? NVIDIA a dévoilé quelques trailers des jeux à venir - Battlefield V, Shadow of the Tom Raider (comment ça "Tomb" ?) et Metro Exodus - histoire de se rendre compte de l'influence de la qualité d'image. Si les ombres ray-tracées sont bel et bien au rendez-vous et les changements d'indice optique bien présents (admirez les réflexions sur les surfaces réfléchissantes, ça envoie tout de même du lourd),  le rendu final est toujours couplé à des technologies issues de la rastérisation plus ancienne (notez l'ombre du soldat et des papiers vers 20s dans la démonstration de Battlefield 5). Par ailleurs, la VR est également de la partie avec des gestions possible via l'IA ainsi que de nouvelles améliorations au niveau du rendu pour les écrans larges des casques dédiés.

 


 

La question que beaucoup se posent à présent (nous les premiers), est de savoir quelles seront les performances in game de ces nouveautés. Nous devrions pouvoir vous proposer leurs tests avant leurs commercialisations respectives. A ce sujet, des précommandes sont ouvertes, mais nous ne pouvons que vous conseiller de patienter jusqu'à notre verdict, surtout avec de tels tarifs .

 

Un poil avant ?

Razer Mamba Elite : une évolution trop superficielle ?

Un peu plus tard ...

Sortez l'étal, ASUS prévoit 14 modèles de RTX 2080

Les 114 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Cristallix, le Jeudi 23 Août 2018 à 20h12  
par Jemporte, le Jeudi 23 Août 2018 à 11h58
Je crois que Nvidia a posté les usages, même pro : jeu et développement jeu et simulations.
Effectivement tout autre terrain d'applications nécessite du rendu raytracing réaliste et précis, ce que ne font pas les cores RTX qui rendent un effet raytracing dans des images en mouvement, temps réel.
Pour des calculs de rendus réaliste, on se sert des CUDA cores, en gros la moitié des cores d'un RTX. Pour bien doser la taille de ces cores, le Vega 56/64 qu'on disait gros pour du 14nm récent faisait 484mm². Or le RTX 1080Ti est, en comptant qu'il est en 12nm, deux fois plus gros, soit en partie CUDA cores stricte, équivalente au Vega 56/64, qui comportait en plus sur cette surface des unités de calculs FP16 intégrées. Autant dire que ce GPU monstre ne va pas apporter des marges significatives sur sa gamme gaming à Nvidia, en 12nm.
Cette sortie est là pour que Nvidia garde sa position face à AMD (on n'est jamais trop prudent). Je parie en 2019 sur un downsizing assez strict en 7nm qui apportera un gain de 30% de puissance sans se fatiguer pour un coût nettement moindre de production à ce moment (Nvidia n'aura même pas à modifier les pilotes) et donc des prix, en plus, à la baisse. Si on commerce à manquer de RTX 2000 courant été 2019, vous saurez pourquoi.
A noter que la Vega 20 semble, d'après les leaks, comporter 1.5 plus d'unités de calcul que Vega 10, sera donc plus puissante que la RTX 8000
nVidia occupe le terrain pour le moment et AMD va attendre le 7nm pour avancer. Mais AMD ne doit absolument pas se reposer sur la finesse de gravure pour remonter au niveau de nVidia sinon ils vont se faire pourrir à la prochaine gamme.
par Jemporte, le Jeudi 23 Août 2018 à 11h58  
par Cristallix, le Jeudi 23 Août 2018 à 06h09
Ça sera clairement pas suffisant en terme de perf pour du raytracing pure en temps réel sur des résolutions et à qualité potable. Mais ça a le mérite de le lancer avec derrière une API standardisée par Microsoft et de permettre plus tard sa démocratisation on l'espère.
Je crois que Nvidia a posté les usages, même pro : jeu et développement jeu et simulations.
Effectivement tout autre terrain d'applications nécessite du rendu raytracing réaliste et précis, ce que ne font pas les cores RTX qui rendent un effet raytracing dans des images en mouvement, temps réel.
Pour des calculs de rendus réaliste, on se sert des CUDA cores, en gros la moitié des cores d'un RTX. Pour bien doser la taille de ces cores, le Vega 56/64 qu'on disait gros pour du 14nm récent faisait 484mm². Or le RTX 1080Ti est, en comptant qu'il est en 12nm, deux fois plus gros, soit en partie CUDA cores stricte, équivalente au Vega 56/64, qui comportait en plus sur cette surface des unités de calculs FP16 intégrées. Autant dire que ce GPU monstre ne va pas apporter des marges significatives sur sa gamme gaming à Nvidia, en 12nm.
Cette sortie est là pour que Nvidia garde sa position face à AMD (on n'est jamais trop prudent). Je parie en 2019 sur un downsizing assez strict en 7nm qui apportera un gain de 30% de puissance sans se fatiguer pour un coût nettement moindre de production à ce moment (Nvidia n'aura même pas à modifier les pilotes) et donc des prix, en plus, à la baisse. Si on commerce à manquer de RTX 2000 courant été 2019, vous saurez pourquoi.
A noter que la Vega 20 semble, d'après les leaks, comporter 1.5 plus d'unités de calcul que Vega 10, sera donc plus puissante que la RTX 8000
par philippe, le Jeudi 23 Août 2018 à 11h31  
par Un ragoteur tout mignon d'Occitanie, le Mercredi 22 Août 2018 à 01h32
Les actionnaires INTC/NVDA s'en cognent royalement ... des cadavres planqués dans le bilan de l'industrie bancaire (prêts immobiliers, étudiants, etc).
C'est bien ce que je dis, ils feraient bien de se poser des questions. Après, il est vrai que tout le monde s'en fout, en attendant et ou provoquant la fin du monde.
par Cristallix, le Jeudi 23 Août 2018 à 06h09  
par Un ragoteur qui draille d'Occitanie, le Jeudi 23 Août 2018 à 00h56
L'industrie du cinéma utilise le raytracing principalement pour son réalisme au prix d'un lourd traitement logiciel dont la notion de temps réel n'est pas un critère significatif notamment en matière de coût de production en l'absence de main d'oeuvre.

Pour le jeu vidéo de nombreux artifices graphiques ont été inventé particulièrement pour contourner le raytracing rendant impossible le calcul en temps réel s'il devait être appliqué à l'ensemble d'une scène complexe.

Bien que le GPU peut apporter une amélioration significative des performances, le raytracing en temps réel ne peut être qu'être sévèrement limité à des scènes relativement simples.

Pour le moment, il reste à déterminer si cette nouvelle génération de carte graphique est véritablement capable de produire du raytracing en temps réel mais surtout si le raytracing est une solution pertinente comparativement à d'autres artifices graphiques susceptibles de produire un effet comparable dans un jeu vidéo.
Ça sera clairement pas suffisant en terme de perf pour du raytracing pure en temps réel sur des résolutions et à qualité potable. Mais ça a le mérite de le lancer avec derrière une API standardisée par Microsoft et de permettre plus tard sa démocratisation on l'espère.
par Un ragoteur qui draille d'Occitanie, le Jeudi 23 Août 2018 à 00h56  
par Cristallix, le Mercredi 22 Août 2018 à 17h03
Au final tu réponds pas à ma question. Justement le but c'est de profiter des GPU pour éviter d'avoir à passer autant de temps sur du CPU. Et comme on veut pas non plus un rendu aussi qualitatif sur notre pc que le cinéma alors le temps réel est jouable.
L'industrie du cinéma utilise le raytracing principalement pour son réalisme au prix d'un lourd traitement logiciel dont la notion de temps réel n'est pas un critère significatif notamment en matière de coût de production en l'absence de main d'oeuvre.

Pour le jeu vidéo de nombreux artifices graphiques ont été inventé particulièrement pour contourner le raytracing rendant impossible le calcul en temps réel s'il devait être appliqué à l'ensemble d'une scène complexe.

Bien que le GPU peut apporter une amélioration significative des performances, le raytracing en temps réel ne peut être qu'être sévèrement limité à des scènes relativement simples.

Pour le moment, il reste à déterminer si cette nouvelle génération de carte graphique est véritablement capable de produire du raytracing en temps réel mais surtout si le raytracing est une solution pertinente comparativement à d'autres artifices graphiques susceptibles de produire un effet comparable dans un jeu vidéo.
Message de Zoroastre supprimé par un modérateur : insultes
par TwoFace, le Mercredi 22 Août 2018 à 21h27  
par Un ragoteur qui draille embusqué, le Mardi 21 Août 2018 à 20h00
Si le rapport perf/transistor est le même entre Vega 10 et le GP104 qu'entre le RT102 et un hypothétique Vega X. Il faudrait un Vega X en 7nm de 650mm² pour atteindre les perf de cette RTX 2080 Ti.

A priori on aurait un Vega 20 de 360 mm2, avec quelques optimisations AMD pourrait donc taper une petite 1080ti. Mais à un prix bien plus abordable, dans les 500€ pour la version "XT" et 350€ pour la version "pro" si on garde la même hausse des couts de fabrication entre chaque nouvelle gen de gravure.
Perso ca me conviendrait mieux que ces RTX à plus de 600€.
Faut arrêter de lire les sites putackick qui ont annoncé un VEGA 7nm pour joueur !! pour 2018 t'auras rien !!! pour 2019 t'auras un polaris 7nm pour du milieu de gamme , pour 2020 t'auras AMD qui commencera à bosser sur une nouvelle archi avec enfin l'abandon de GCN !!! bref tu pourras rêver en 2023 au mieux.

Bon ça serait bien que CDH fasse un article la dessus pour que ça arrête un peu les fantasmes de certains et en épinglé sur le site de news que ce soit visible pendant quelques années
par Cristallix, le Mercredi 22 Août 2018 à 17h03  
par Un ragoteur tout mignon d'Occitanie, le Mercredi 22 Août 2018 à 16h38
Dans le cinéma le raytracing c'est tradionnellement de longues heures de rendu sur CPU bien que la modélisation puisse être accélérer sur GPU.
Au final tu réponds pas à ma question. Justement le but c'est de profiter des GPU pour éviter d'avoir à passer autant de temps sur du CPU. Et comme on veut pas non plus un rendu aussi qualitatif sur notre pc que le cinéma alors le temps réel est jouable.
par Un ragoteur tout mignon d'Occitanie, le Mercredi 22 Août 2018 à 16h39  
traditionnellement*
par Un ragoteur tout mignon d'Occitanie, le Mercredi 22 Août 2018 à 16h38  
par Cristallix, le Mercredi 22 Août 2018 à 11h34
Sinon pourquoi l'industrie du cinéma utilise ça depuis perpette ?
Dans le cinéma le raytracing c'est tradionnellement de longues heures de rendu sur CPU bien que la modélisation puisse être accélérer sur GPU.

 

Troy: All the artists have SGI Octanes on their desks (some have two!). That's the main platform for day-to-day work, which is done w/ Maya. Maya is the modeling and animation software, and the interface for setting up all the lighting. Some rendering is done w/ the Maya renderer (mostly effects shots, e.g. explosions), but the majority of the rendering is done w/ Pixar's RenderMan. The Onyxes are used for compositing, and as a platform for our preview system, which lets the artists review full-res playback of long sequences of the movie, spooled on a (very fast) RAID array. The 16-cpu Origin 2000s are primarily used for batch-processing MTOR jobs, which is the Maya-To-Renderman conversion. (This generates .rib files, which are rendered on Linux machines; more on that in a moment.) We also have a number of Origin 200 servers, which are mostly used as disk servers, or to host the backup systems. We have a number of NetApp file servers, that provide most of the disk storage (approx. 4TB of primary disk space). The renderfarm consists primarily of ~1000 Linux machines (PIII, custom-built, rack mounted), running Red Hat 6.2. These machines do all the RenderMan renders, as well as a number of other tasks.


source: http://archive.arstechnica.com/wankerdesk/01q3/ff-interview/ff-interview-1.html
par Un adepte de Godwin d'Occitanie, le Mercredi 22 Août 2018 à 16h22  
Est-ce que vous avez au moins une date de fin du NDA que vous pouvez communiquer ? (à mois que la date elle-même soit sous NDA ? )
par Riseoflegends, le Mercredi 22 Août 2018 à 13h53  
par Jemporte, le Mercredi 22 Août 2018 à 13h09
Là où j'ai un gros doute, c'est si ces calculs ne peuvent pas se faire sur des cores de calcul de base, en FP8, FP16, avec des combinaisons matricielles. C'est là où Nvidia a parfaitement pu s'économiser au niveau du dessin : ils ont sorti des Pascals un peu gonflées (on verra à quel point) + de nouvelles unités, plutôt que de revoir les anciennes. or sur les anciennes, ils avaient quelques lacunes.
Ouais non les unité gpu se doivent de rester très simple. De plus des unité dédié et spécialisé sont largement plus efficace. On aurait jamais eu du raytracing temps réél sans des nouvelles unités spécialisées...