COMPTOIR
  
register

Support du RayTracing chez Crytek : des détails importants ont été apportés

On se souvient qu'en mars, Crytek avait mis en ligne une vidéo d'une démo nommée Neon Noir (que vous pouvez retrouver juste au dessous) qui tournait sur une RX Vega 56 et avec du RayTracing. Sans que l'on sache comment ça tournait, avec quelles technologies, ni dans quelles conditions, ceci causa une confusion chez de nombreux fans de hardware. Evidemment la comparaison avec les Geforce RTX était inévitable, mais encore fallait-il avoir des détails sur cette démo et surtout sur la façon dont Crytek avait atteint cet objectif. C'est désormais chose faite depuis le 7 mai.

 

crytek logoPremièrement, on apprend que le support dans le CryENGINE se fait de manière logicielle via API, et de manière matérielle au gré des GPU. La démo Neon Noir tournait en 1080p et 30 images par seconde stables sur une RX Vega 56. Il est possible de diminuer de moitié la résolution des effets et réflexions pour atteindre 40 images par seconde stables en 1440p. Cela vient de la faculté des GPU de passer de manière dynamique du coûteux Mesh Tracing au plus léger Voxel Tracing sans perte apparente de qualité. Autre point qui a aidé à implémenter ceci sur cette RX Vega, le fait que le module SVOGI (Voxel Based Global Illumination) a bénéficié de 5 ans de développement. Toutefois avec ces GPU ne possédant pas d'unités dédiées, il ne sera possible que d'afficher de tels effets dans des définitions type 1080p ou 1440p avec une résolution divisée par deux pour les effets "RT" traduire par peu de rayons lancés dans une qualité amoindrie dans le second cas .


Et c'est là que voulait en venir Crytek dans son blog. C'est que la présence d'unités dédiées permet d'accélérer immensément, pour reprendre le terme précis, les performances en temps-réel RayTracing, jusqu'en 4k et pleine résolution pour les meilleures RTX. Par ailleurs, Crytek croit beaucoup en cette technologie RT, si le moteur actuellement ne permettra que d’améliorer les performances pour les deux types de rendus (GPU accélérateurs et GPU classiques), à l'avenir il sera possible même d'ajouter de nouveaux éléments en fonction de ce que les GPU permettront, traduire par quelles architectures seront utilisées.

 

Ceci pourrait donc très bien expliquer le buzz du RT sur Vega et sur Battlefield 5 il y a quelques mois, mais fatalement avec un rendu qui n'est pas de la qualité de GPU avec unités dédiées. Le RayTracing reste coûteux en termes de performances, mais il est désormais compatible avec une bonne expérience de jeu. Avec DX12 et DXR, il sera plus simple d’intégrer ces éléments que de programmer des ombres/éclairages via rastérisation. Ce dernier étant dépassé par son mode même de fonctionnement. Pour conclure, Crytek pense que le RT via des GPU avec unités dédiées ne peut être qu'un bon tremplin pour cette technologie, qui sera spécifique au marché PC.

 

En effet, si Navi n'inclut pas d'unités dédiées, alors le rendu qui sera proposé ne sera pas complet sur PS5 par exemple, le PC pourrait donc tirer un avantage de ces GPU accélérateurs. On verra bien ce qu'AMD proposera, mais ce dernier ne peut plus nier que le RT n'est qu'une passade. A lui d'en tenir compte sur Navi (qui accusera 1 an et 3 trimestres de retard), ou plus vraisemblablement sur Arcturus, première génération de GPU post-GCN. Au -delà de la guéguerre inutile entre les deux marques par leurs fans, l'intérêt général est plus fort, surtout dans un marché en perte de vitesse et menacé par les consoles dématérialisées.

 

 

Un poil avant ?

Les prix de la DRAM baissent encore, et ça se voit sur les prix en boutiques !

Un peu plus tard ...

Le sous-système Linux pour Windows version 2 est annoncé !

Les 13 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par pascal2lille, le Vendredi 10 Mai 2019 à 21h22  
GG Thibaut pour l'article
par Thibaut G., le Vendredi 10 Mai 2019 à 15h32  
pas de souci à la vue de tes explications de mon côté
par Laitauriz, le Jeudi 09 Mai 2019 à 21h30  
Ok pour le marché PC . Oui , je le sais bien, mais ce n'était pas un reproche quant au fait que tu n'aies pas répondu plus tôt. Je n'étais pas certain que le signalement soit bien passé, sachant que je n'ai pas reçu de mail . Je n'avais pas non plus pu mettre tout le listing dans mon signalement.

Ce n'était par contre pas une attaque personnelle ou à visée dénigrante mais j'admets que j'aurais peut-être du modifier le premier paragraphe d'approche pour le faire comprendre, qui peut certainement être vu comme agressif. Je ne le modifie pas maintenant par soucis d'honnêteté et de cohérence dans les réponses. Bonne soirée.
par Thibaut G., le Jeudi 09 Mai 2019 à 19h16  
J'ai rectifié deux détails. Pour le marché pc ça chute et c'est selon les sources. Désolé si je n'ai pas pu te répondre avant, comme tu le sais on a des boulots à côté et le mien m accapare toute la nuit en ce moment. Par contre autant je te remercie pour les corrections autant je ne suis absolument pas fan du ton que tu emploies. Et non je ne l'ai pas fait à la va vite, j'ai absolument tout lu; après y en a qui transcrivent ça en 6 lignes sur d'autres sites et d'autres en beaucoup plus
par Laitauriz, le Jeudi 09 Mai 2019 à 17h15  
Je l'ai signalé ce matin à la lecture de l'article mais je vois que rien n'a changé. Alors je vais poster ici en commentaire. La lecture de cet article me donne l'impression d'une rédaction à la va vite accompagnée d'une traduction approximative.

En divisant par 2 la résolution des réflexions seulement ( et pas des " effets" ) avec Vega 56, on obtient 40 FPS et plus en 1440p, pas en 1080 p .

De fait, la phrase qui suit est obsolète : " Toutefois avec ces GPU ne possédant pas d'unités dédiées, il ne sera possible que d'afficher de tels effets dans des définitions type 1080p avec une résolution divisée par deux pour les effets "RT". "

De plus, le SVOGI n'est pas un moteur, mais une technique de rendu d'illumination globale, le moteur étant le CryEngine .

Je ne vois pas non plus clairement de lien logique entre le début de l'article et le paragraphe concernant le buzz du RT sur Vega et BFV,notamment avec l'emploi des termes " ceci pourrait expliquer ", alors que les lignes précédentes mentionnaient l'utilité de DXR concernant le RT sur le moteur de Crytek.

Enfin, concernant le marché du PC en déclin(si c'est bien le sens de la phrase), c'est l'inverse. Croissance en 2017 et 2018.
https://www.pcgamesn.com/pc-gaming-revenue-2018
https://www.tweaktown.com/news/64215/pc-gaming-catches-up-console-earnings-2018/index .html
https://www.dsogaming.com/news/pc-gaming-industry-expected-to-reach-33-6-billion-b y-2020-league-of-legends-the-most-popular-core-pc-game/.
par ilyon, le Jeudi 09 Mai 2019 à 17h02  
par Guillaume L., le Jeudi 09 Mai 2019 à 14h57
Comme beaucoup d'autres techniques, ce n'est pas le problème du rendu mais le réaliser en temps réel qui est lourd. Et souvent ça passe par le fait qu'il faut revoir des architectures, revoir la manière de faire les jeux, développer le contenu...
La principale erreur là-dessus - ou plutôt envie d'aller trop vite - est d'avoir sortie effectivement la techno sans avoir plus de quoi en profiter même si ce n'est pas optimisé. Il faut se souvenir des débuts de la tesselation qui faisait souffrir les GPU par exemple. Mais là, nous n'avons pas eu de contenu suffisant pour profiter à pleine puissance de cette fonctionnalité
Plus ou moins ce que je disais. Et en effet, la tessellation avait été me semble-t-il implémentée matériellement dans la puce de la Xbox 360 en vue de DirectX 10, etc ...
L'avance d'AMD les a probablement bien échaudés, la triche massive de la tessellation sous Crysis 2 a du achever de les convaincre de laisser la concurrence essuyer les pots cassés.
par Guillaume L., le Jeudi 09 Mai 2019 à 14h57  
par ilyon, le Jeudi 09 Mai 2019 à 13h27
Là c'est un peu différent. Comme rappelé par beaucoup, le RayTracing est très vieux, très utilisé dans le monde du rendu professionnel et n'a rien d'indépassable si ce n'est ? le rendu temps réel.
Comme beaucoup d'autres techniques, ce n'est pas le problème du rendu mais le réaliser en temps réel qui est lourd. Et souvent ça passe par le fait qu'il faut revoir des architectures, revoir la manière de faire les jeux, développer le contenu...
La principale erreur là-dessus - ou plutôt envie d'aller trop vite - est d'avoir sortie effectivement la techno sans avoir plus de quoi en profiter même si ce n'est pas optimisé. Il faut se souvenir des débuts de la tesselation qui faisait souffrir les GPU par exemple. Mais là, nous n'avons pas eu de contenu suffisant pour profiter à pleine puissance de cette fonctionnalité
par willow57, le Jeudi 09 Mai 2019 à 13h55  
par onimenokyo, le Jeudi 09 Mai 2019 à 11h24
Exact, c'est comme l'anti-aliasing qui a été lancé avec la voodoo5 et qui n'a réellement été exploitable que plusieurs générations plus tard... Et encore, je dirai que c'est vraiment une technologie indispensable!
L'anti aliasing a été lancé bien avant la voodoo5. Les premières cartes 3d pré voodoo 1 géraient déjà l'anti aliaising pour certaines. La voodoo 5 a lancé le FSAA pas l'anti aliasing.
par ilyon, le Jeudi 09 Mai 2019 à 13h27  
Je suis mitigé.
D'un cote je comprends: toutes les technos graphiques étaient couteuses à leur lancement et décriées de ce fait, mais au final les améliorations architecturales ont systématiquement permis d'avancer.
Là c'est un peu différent. Comme rappelé par beaucoup, le RayTracing est très vieux, très utilisé dans le monde du rendu professionnel et n'a rien d'indépassable si ce n'est ? le rendu temps réel.
Hors c'est là que le bat blesse selon moi, le principe dans le développement graphique, c'est de tricher efficacement.
Tout ce qui nous a été présenté jusqu'à maintenant c'est tout sauf de l'efficacité.
par Carbon13, le Jeudi 09 Mai 2019 à 12h31  
Je ne sais pas si leur façon de faire permettrait de profiter pleinement des coeurs RT par rapport à la façon "classique". De même, pas sur que leur technique précédente basée sur le Cone Tracing (basé sur les voxels et approximatif) soit supérieure à une approche BVH (rayon "parfait" ) accélérée par le hardware, que ce soit niveau qualité ou performance.
par Un non-croyant en Île-de-France, le Jeudi 09 Mai 2019 à 12h07  
Donc, tu nous dis que nvidia n'aurait dû sortir les cartes que quand pleins de jeux avec le rt seront sortis. Mais quel éditeur peut sortir un jeu avec des fonctionnalités RT qui n'existent pas encore ? Il faut forcément sortir le hardware avant les logiciels.

[quote name='Un ragoteur sans nom du Grand Est' date='09 May 2019 - 12:14 PM' timestamp='1557396852' post='731220']Ca fait maintenant un bail que le rt existe.
Ca decollera quand le cout sera accessible aux consommateurs, avec un rendu suffisant pour qu'ils se disent "ok, c'est pas juste gadget".
Si on tient compte de ces criteres, aucun des producteurs de gpu, ne prend pour l'instant le pas sur l'autre. J'aurais ete tente de dire que nvidia a une longueur d'avance, mais vu son lancement foireux d'un produit a prix d'or, il y'a 6 mois, alors qu'on attend encore aujourd'hui de voir du contenu rtx convainquant. Ils sont pourtant pas nouveau dans le secteur gaming... si on veut vendre ce type de hardware/technologie sur ce genre de marche surtout a ce prix, ca passe par du contenu"produit d'appel" qui t'en fout plein les mirettes... En se limitant aux exemples recents, playstation vs xbox depuis plusieurs generation,ou le succes de la switch sont assez parlant, dans le gaming, le contenu est ce qui fait vendre le hardware, pas l'inverse.
Un gpu nvidia ou voire amd ne seront jamais les "stars" de ce marche, ils resteront toujours des sidekick, les "stars", ce sont les minecraft, les zelda, candy crush, fortnite, gta etc... bref les jeux, et au vu de son lancement du rtx, on dirait que nvidia n'a pas compris ca, le ou au moins un contenu aurait du etre la des son lancement, y'a que le pigeon de luxe/fetichiste du hardware qui se permet de claquer plusieurs centaines de dollars de plus, sur des promesses.
par onimenokyo, le Jeudi 09 Mai 2019 à 11h24  
par Un ragoteur sans nom du Grand Est, le Jeudi 09 Mai 2019 à 10h14
Ca fait maintenant un bail que le rt existe.
Ca decollera quand le cout sera accessible aux consommateurs, avec un rendu suffisant pour qu'ils se disent "ok, c'est pas juste gadget".
Si on tient compte de ces criteres, aucun des producteurs de gpu, ne prend pour l'instant le pas sur l'autre. J'aurais ete tente de dire que nvidia a une longueur d'avance, mais vu son lancement foireux d'un produit a prix d'or, il y'a 6 mois, alors qu'on attend encore aujourd'hui de voir du contenu rtx convainquant. Ils sont pourtant pas nouveau dans le secteur gaming... si on veut vendre ce type de hardware/technologie sur ce genre de marche surtout a ce prix, ca passe par du contenu"produit d'appel" qui t'en fout plein les mirettes... En se limitant aux exemples recents, playstation vs xbox depuis plusieurs generation,ou le succes de la switch sont assez parlant, dans le gaming, le contenu est ce qui fait vendre le hardware, pas l'inverse.
Un gpu nvidia ou voire amd ne seront jamais les "stars" de ce marche, ils resteront toujours des sidekick, les "stars", ce sont les minecraft, les zelda, candy crush, fortnite, gta etc... bref les jeux, et au vu de son lancement du rtx, on dirait que nvidia n'a pas compris ca, le ou au moins un contenu aurait du etre la des son lancement, y'a que le pigeon de luxe/fetichiste du hardware qui se permet de claquer plusieurs centaines de dollars de plus, sur des promesses.
Exact, c'est comme l'anti-aliasing qui a été lancé avec la voodoo5 et qui n'a réellement été exploitable que plusieurs générations plus tard... Et encore, je dirai que c'est vraiment une technologie indispensable!