COMPTOIR
  
register

NVIDIA promet une intégration du RTX dans Unity et l'Unreal Engine pour "tous" les jeux à venir

Après des résultats annuels pas flamboyants, voici que NVIDIA nous a sorti le zoom trimestriel pour ce Q4 2019 (pas d'avance dans le temps, mais une notion très américaine de l'année fiscale). Et le moins que l'on puisse dire, c'est que ça n'est pas fameux. Par ailleurs, TSMC a également publié son bilan, et il n'est pas surprenant d'y voir du rouge, les RTX utilisant justement ces fonderies pour leur production. Avec AMD comme client et Zen+, la baisse est cependant nettement plus douce, avec seulement -2,1 % pour le chiffre d'affaires de janvier comparé à l'an dernier soit 2,53 millions de dollars, ce qui place l'entreprise sur son niveau le plus bas depuis six mois. Pas vraiment de quoi s'alarmer de ce côté, mais plutôt une conséquence logique des vases communicants économiques.

 

Pour revenir aux verts, il faut dire qu'entre les prix prohibitifs, un DLSS très timide pour un résultat en deçà des attentes et un RTX certes au rendu plus que satisfaisant, mais limité en Europe à deux titres et un benchmark, les clients ont de quoi rester dubitatif. Quelle que soit la puissance intrinsèque de la carte, rien ne sert de l'acheter sans usage à son effet !

 

nvidia rtx 2080 ti fe

"Du mal à convaincre, ces RTX ont !"

 

Devant ces chiffres qui ont de quoi faire tirer une mimique proche du coiffeur de Pascal, NVIDIA se lance dans de grandes annonces. À l'occasion de la conférence post-mauvais résultats, c'est chez ce cher Jen-Hsun Huang, PDG de la firme, qui a annoncé la grande nouvelle : le support prochain dans Unity et dans l'Unreal Engine, ce qui n'est pas une grande nouvelle pour le dernier cité - alors que nul mot n'avait fuité par rapport à Unity. En fait, papa Huang va même plus loin, car la firme est apparemment en contact avec les développeurs de tous les prochains jeu afin d'apporter le Ray Tracing à leur œuvre. Si nous émettons des doutes sur la notion de "tous" - la possibilité du Ray Tracing dans le moteur graphique pouvant tout à fait ne pas être exploitée, sans compter la scène indé et les portages consoles - il apparaît clairement que le RTX est loin d'avoir prononcé ses dernières paroles... Une réelle claque visuelle en marche ? (Sources : WCCFTech, DigiTimes)

Un poil avant ?

Plus de GTX 1660 Ti signées MSi

Un peu plus tard ...

Gamotron • La foire aux AAA ou la fête du slip ?

Les 85 ragots
Les ragots sont actuellement
zone limitée - permis de ragotage requisouverts aux ragoteurs logués
par Jemporte, le Lundi 18 Février 2019 à 13h46  
On peut aussi noter que Nvidia semble trainer pour intégrer le nouveau hardware dans les API Pro, ce qui pose des questions. Est-ce que le hardware est sorti à la va-vite et ils n'ont pas eu le temps de mettre au point le software? On peut même imaginer +rs variantes hardware avec l'option finale qui n'avait pas encore que du software de test... et puis aussi l'éventualité que Nvidia pense que l'architecture RTX n'est pas définitive et que par exemple la prochaine itération hardware, plus aboutie, demandera un tout autre software.
Actuellement, ceux qui pensent que l'architecture Nvidia est divisée en architecture pro et gaming, se trompent, c'est la même avec des unités en plus ou en moins. Chez Amd c'est pareil, sauf que toutes les unités sont intégrées dans un même core ce qui est plus dur à modulariser, demandant de revoir le core. Du coup, une RTX ressemble beaucoup plus à une GTX Pascal ou Maxwell, puisqu'il y a juste ajout de 2 unités de calcul (tenseurs et RTX) à des CUDA cores à peu près repris et en nombre variable selon la gamme, que Vega 20 à Vega 10, et entre Vega et Polaris (beaucoup moins entre Polaris et Tonga), dont les cores ont été modifiés (pour ajouter le FP64). Les appellations successives GCN et le changement d'appellation RTX, GTX sont trompeurs.
par Jemporte, le Lundi 18 Février 2019 à 13h24  
Le lien que j'avais posté vers chaosgroup :
lien
L'intérêt c'est que le DLSS n'est pas obtenu par RTX ici mais par les moteurs de rendu Nvidia pour CUDA. Chaosgroup et son moteur Vray sont indépendants de Nvidia, même si Nvidia collabore pour la mise au point. Vray existe en OpenCL (avec des fonctionnalités moindres) en plus de CUDA.
Pour les tenseurs, regarder sur wikipedia pour voir en quoi ça consiste. La partie tenseur est plus petite que la partie RTX, or elle exécute des FP16, et fait 4x plus d'opérations (specs Nvidia). On en déduit qu'elles sont spécialisées tenseurs et c'est tout. La partie RTX s'occupe des FP16 (élément nouveau des GPU RTX) présentés comme des FP16 capables de faire la mêmes chose que des FP32, ce que le raytrace demande... les reste c'est des Cuda cores GTX, un peu plus nombreux.
Au niveau des moteurs open source raytrace, il y a Luxmark (réaliste et possible ISO) sous OpenCl et CPU, Cycles (Bias) sous OpenCl, Cuda ou CPU sur logiciel Blender (open source aussi) et Radeon Pro (moteur de rendu OpenCL fait par AMD et compatibles Nvidia - à l'origine fermé ), Bias aussi. les deux premiers moteurs ont des forums multiples, notamment des moteurs dérivés expérimentaux sur pas mal de sites et les devs qui en discutent...
Et effectivement le DLSS dans le domaine pro c'est le débruitage + le reste de l'optimisation de l'image. Sur le gaming, ça a l'air d'être séparé + un filtre d'intégration au raster. C'est donc pas la même chose du tout. Donc chez Nvidia, DLSS = nom commercial = optimisation de n'importe quelle sortie raytrace vers rendu final hybride ou pas. On peut imaginer que, à la base, les algorithmes sont repris.
par Jemporte, le Lundi 18 Février 2019 à 13h04  
par Ideal, le Lundi 18 Février 2019 à 07h13
Bien sûr que les images sources RT sont ultra-bruités et passent sous des moulinettes de filtres variés.
D'ailleurs tu parle beaucoup de DLSS moi perso, je suis pas sûr que ça soit aussi simple ou sinon montre des sources. Perso je préfère qu'on parle simplement "d'algorithmes"...
Pour voir l'image source du "raytrace" comme tu dis franchement heu je sais pas ou trouver ça lol mais tu peux regarder cette vidéo démonstration de Gamework de Nvidia et faire les prédictions que tu veux.
Faudra afficher du temps réel, les gamers veulent du 4K et à 144hz constant à terme.
Y aura jamais assez de puissance pour calculer chaque image en raycasting et pire en raytracing intégrale.
Tu sais l'industrie du cinéma a attendu 2013 avant d'utiliser du véritable raytracing total pour chaque image dans le film...
Moi perso je sais pas trop comment fonctionne le RT dans RTX tu parles beaucoup mais donnes des sources si t'es sûr de toi.
J'ai donné des liens. Sinon il y a l'explication de Nvidia qui a montré dessins, spec avec 3 parties distinctes sur les GPU. Si Nvidia voulait faire simple, en ajoutant ces parties sans se casser la tête de toute redessiner, il feraient pas autrement...
Pour la façon de fonctionner, il suffit d'aller voir dans les méthode de rendu réalistes des derniers moteurs pro dont +rs open source avec forums et même des évocations du FP16 pour accélérer.
Le gaming s'en inspire. Le monde du cinéma a besoin de RT de qualité en temps réel (très grosses fermes). On a fait des progrès hardware depuis 2013 et j'ai dit qu'il fallait du x10 et x100 mini en puissance pour les GPU
par TwoFace, le Lundi 18 Février 2019 à 08h23  
par Ideal, le Lundi 18 Février 2019 à 07h13
Pour Nvidia (grâce à son environnement RTX Gameworks) ça l'est "assez" pour une première salve de jeux avec "RT" je trouve
( en fait pour une fois Nvidia m'intéresse assez avec une techno propriétaire...)

On verra par la suite combien de temps le RT sous DXR ouvert va mettre à atteindre sa première gen et du coup combien de temps Nvidia va faire encore faire survivre son RTX ( qui de toutes façon mourra un jour ou l'autre à part si AMD décède niveau GPU avant ) car le marché va forcément vouloir tendre vers une unification de cette techno RT.

Comme ça s'est passé avec physX et Gsync et pleins d'autres technos que j'oublie qui ont eu leur duel si important à leur époque
( je vous demande pas la liste hein ).
Tu as raison LE RTX c'est propriétaire tout comme le GTX...
Et sinon encore heureux qu'une architecture est propriétaire non ???? tout comme GCN
Le DXR lui c'est microsoft GAMEWORKS ce sont des outils qui aident à faire du raytracing, personne n'empêche qui que ce soit d'utiliser des outils et une archi prévu pour faire du DXR
Chacun sa sauce, mais au final faudra que ce soit compatible avec l'api de microsoft pour la compatibilité des jeux
par Ideal, le Lundi 18 Février 2019 à 07h13  
Bien sûr que les images sources RT sont ultra-bruités et passent sous des moulinettes de filtres variés.
D'ailleurs tu parle beaucoup de DLSS moi perso, je suis pas sûr que ça soit aussi simple ou sinon montre des sources. Perso je préfère qu'on parle simplement "d'algorithmes"... dire DLSS à tout bout de champ ça accentue le possible caractère "fanboy ou trollesque" du propos qui lui l'est ptet pas

Pour voir l'image source du "raytrace" comme tu dis franchement heu je sais pas ou trouver ça lol mais tu peux regarder cette vidéo démonstration de Gamework de Nvidia et faire les prédictions que tu veux.

Faudra afficher du temps réel, les gamers veulent du 4K et à 144hz constant à terme.
Y aura jamais assez de puissance pour calculer chaque image en raycasting et pire en raytracing intégrale.
Tu sais l'industrie du cinéma a attendu 2013 avant d'utiliser du véritable raytracing total pour chaque image dans le film Monsters university de Pixar.
Moi perso je sais pas trop comment fonctionne le RT dans RTX tu parles beaucoup mais donnes des sources si t'es sûr de toi.
par Jemporte, le Lundi 18 Février 2019 à 04h49
Je ne sais pas s'il y a un moyen de voir l'image bruitée source du raytrace, C'est ce dont s'occupe le DLSS.
Je pense toujours qu'il faut un puissance 100 fois supérieure aux Vega/RTX haut de gamme et Volta pour faire un rendu pur Raytrace viable en Full HD pour des jeux.
par Ideal, le Lundi 18 Février 2019 à 07h13  
Pour Nvidia (grâce à son environnement RTX Gameworks) ça l'est "assez" pour une première salve de jeux avec "RT" je trouve
( en fait pour une fois Nvidia m'intéresse assez avec une techno propriétaire...)

On verra par la suite combien de temps le RT sous DXR ouvert va mettre à atteindre sa première gen et du coup combien de temps Nvidia va faire encore faire survivre son RTX ( qui de toutes façon mourra un jour ou l'autre à part si AMD décède niveau GPU avant ) car le marché va forcément vouloir tendre vers une unification de cette techno RT.

Comme ça s'est passé avec physX et Gsync et pleins d'autres technos que j'oublie qui ont eu leur duel si important à leur époque
( je vous demande pas la liste hein ).
par Jemporte, le Lundi 18 Février 2019 à 04h22
Actuellement il n'y a franchement pas assez de puissance RT.
par Jemporte, le Lundi 18 Février 2019 à 04h49  
Je ne sais pas s'il y a un moyen de voir l'image bruitée source du raytrace, mais on serait étonné qu'on arrive à en tirer quelque chose. C'est ce dont s'occupe le DLSS.
Je pense toujours qu'il faut un puissance 100 fois supérieure aux Vega/RTX haut de gamme et Volta pour faire un rendu pur Raytrace viable en Full HD pour des jeux.
L'hybride étant assez gadget, on aurait pu s'orienter vers du photon map complet + support reflexions (ce dont font l'économie certains jeux), avant d'avoir du ray trace complet.
En qualité : le raster + photon map complet ne devrait laisser que peu de place aux améliorations visibles pour le raytrace complet dans les jeux.
par Jemporte, le Lundi 18 Février 2019 à 04h22  
par Ideal, le Lundi 18 Février 2019 à 01h08
Je suis d'accord avec ce "constat" de TwoFace et pour appuyer mon idée dans mon précédent post >>>
RT a besoin de cores/unité de calcul dédiée en masse suffisante pour éviter que ça bottleneck dans tous les sens. Et bien-sûr ces unités dédiées doivent forcément prendre de la place sur le silicum.

AMD comme Nvidia ou Intel et autres dans ce domaine travaille sur leurs archis sur le long terme, 10 ans en avance par exemple.
Surement que la solution RT en hard d'AMD est déjà prête ptet même depuis un moment maintenant il leur faut déterminer le bon timing pour lancer ça en prod usine et drivers.

Au final y a trop peu de jeu ou d'engine 3D qui rende le rendu mix RT/rasté possible pour le moment et AMD a un trop gros retard en puissance brute ...
Les unités RT prendront forcément leur place sur des unités de calculs + standards AMD ne peut pas se permettre cela tout bonnement.

Donc concernant les Radeons mauvais timing pour le marché des jeux donc les clients et mauvais timing pour AMD donc le vendeur... RTX mais ça a le mérite de pousser dans la direction du RT et c'est une bonne chose pour une fois de la part de Nvidia.
Actuellement il n'y a franchement pas assez de puissance RT. Si vous regardez le lien que j'avais mis sur les rendus bruités 1 passe de Vray, il faut s'imaginer que la qualité jeux est franchement moins bonne. Autant dire que l'affichage est réalisé par le DLSS. Mais il y a des algorithmes concurrents déjà intégrés dans les moteurs de rendus que certains disent meilleurs. Comme je l'ai dit les AMD Vega ont la même puissance de calcul raytrace que les RTX 2080 mais rien de spécial pour un équivalent DLSS en même temps.
par Ideal, le Lundi 18 Février 2019 à 01h08  
Je suis d'accord avec ce "constat" de TwoFace et pour appuyer mon idée dans mon précédent post >>>
RT a besoin de cores/unité de calcul dédiée en masse suffisante pour éviter que ça bottleneck dans tous les sens. Et bien-sûr ces unités dédiées doivent forcément prendre de la place sur le silicum.

AMD comme Nvidia ou Intel et autres dans ce domaine travaille sur leurs archis sur le long terme, 10 ans en avance par exemple.
Surement que la solution RT en hard d'AMD est déjà prête ptet même depuis un moment maintenant il leur faut déterminer le bon timing pour lancer ça en prod usine et drivers.

Au final y a trop peu de jeu ou d'engine 3D qui rende le rendu mix RT/rasté possible pour le moment et AMD a un trop gros retard en puissance brute ...
Les unités RT prendront forcément leur place sur des unités de calculs + standards AMD ne peut pas se permettre cela tout bonnement.

Donc concernant les Radeons mauvais timing pour le marché des jeux donc les clients et mauvais timing pour AMD donc le vendeur. Mais ça peut changer en un gen donc wait & see.

Concernant les GeForce le timing est bon pour le vendeur mais pas franchement pour les acheteurs du coup ça décolle pas trop les ventes de RTX mais ça a le mérite de pousser dans la direction du RT et c'est une bonne chose pour une fois de la part de Nvidia.
par TwoFace, le Dimanche 17 Février 2019 à 19h51
Ce n'est pas qu'une question de driver mais surtout de puissance..
Si c'était jouable AMD aurait déjà sorti des drivers mais ce n'est pas le cas
Ce n'est pas pour rien si la taille des turing est aussi énorme, inclure les RT cores pour le raytracing n'est pas qu'un simple artifice mais d'une nécessité pour essayer de faire tourner cette techno convenablement
par Nicolas D., le Lundi 18 Février 2019 à 00h27  
par TwoFace, le Dimanche 17 Février 2019 à 22h28
AMD aurait très bien pu bosser avec futurmark sur 3Dmark port royal,s'ils ne font rien c'est peut-être que l'architecture malgré sa puissance en est incapable?.
Oups pardon, je n'ai pas été clair : il est certain que les cartes rouges actuelles sont incapables de faire du rendu RT hybride comme les RTX le font. Néanmoins, croire que la barrière RT / rasté est énorme est trompeur, car rien ne nous permet d'affirmer que GCN n'est pas plus efficient que Turing castré de ses RT & Tensor Cores sur du lancer de rayon (mais rien ne permet d'affirmer le contraire, c'est pourquoi nous restons muet sur toute supposition ).

En outre, l'argument de "supporter au moins Port Royal" est entièrement fallacieux puisque le supporter équivaut à supporter totalement DXR et par extension tous les jeux compatibles : ce serait un choix aberrant et impopulaire de limiter de manière aussi arbitraire !
par TwoFace, le Dimanche 17 Février 2019 à 22h28  
par Nicolas D., le Dimanche 17 Février 2019 à 21h57
Bien évidemment ce n'est pas simple pour des titres actuels sur ce dossier THFR on voit les étapes de rendus, et celles du RT sont assez facile à voir puisque c'est là où le bruit est très présent : il y a au moins 3 calculs de rendus indépendants (en fonction des lumières je suppose), donc oui le rendu hybride est gourmand et la puissance de Turing / ses circuits spécialisés sont bienvenus. Ce que je déplore c'est l'absence de ces projets de RT sur du matériel AMD, grâce auxquels on aurait des preuves de l'efficacité ou non de l'archi GCN pour ces tâches.

Et sans projet préliminaire visible, on comprend qu'AMD reste très prudent sur le support du rendu RT hybride - tu conviendras que l'accélération d'un rendu pro 100% RT diffère des effets RT de BF ou Metro . Je me permet de te corriger car à te lire on a l'impression qu'il faut et suffit de rajouter des unités de calculs spécialisées pour faire fonctionner le RT... Ce qui est incomplet voire trompeur.

Petite rectification sur la puissance crête : c'est le nombre d'opérations de chaque cœur multiplié par la fréquence, donc le taux maximal d'opérations faisables... Mais en pratique il faut charger/stocker les données (et pleins d'autres choses qui ne sont pas du calcul), donc ce n'est pas une mesure exacte de la puissance (d'où les variation de perfs entre moteurs et, pourquoi pas, des variation en perfs RT ?).
AMD aurait très bien pu bosser avec futurmark sur 3Dmark port royal,s'ils ne font rien c'est peut-être que l'architecture malgré sa puissance en est incapable?.
par Nicolas D., le Dimanche 17 Février 2019 à 21h57  
par TwoFace, le Dimanche 17 Février 2019 à 21h17
Pour des très vieux jeux c'est jouable, mais sur des jeux de 2019 hummm....
Bien évidemment ce n'est pas simple pour des titres actuels sur ce dossier THFR on voit les étapes de rendus, et celles du RT sont assez facile à voir puisque c'est là où le bruit est très présent : il y a au moins 3 calculs de rendus indépendants (en fonction des lumières je suppose), donc oui le rendu hybride est gourmand et la puissance de Turing / ses circuits spécialisés sont bienvenus. Ce que je déplore c'est l'absence de ces projets de RT sur du matériel AMD, grâce auxquels on aurait des preuves de l'efficacité ou non de l'archi GCN pour ces tâches.

Et sans projet préliminaire visible, on comprend qu'AMD reste très prudent sur le support du rendu RT hybride - tu conviendras que l'accélération d'un rendu pro 100% RT diffère des effets RT de BF ou Metro . Je me permet de te corriger car à te lire on a l'impression qu'il faut et suffit de rajouter des unités de calculs spécialisées pour faire fonctionner le RT... Ce qui est incomplet voire trompeur.

Petite rectification sur la puissance crête : c'est le nombre d'opérations de chaque cœur multiplié par la fréquence, donc le taux maximal d'opérations faisables... Mais en pratique il faut charger/stocker les données (et pleins d'autres choses qui ne sont pas du calcul), donc ce n'est pas une mesure exacte de la puissance (d'où les variation de perfs entre moteurs et, pourquoi pas, des variation en perfs RT ?).