COMPTOIR
  
register

×

nvidia turing / GPU shot

Preview • Turing : la révolution Ray Tracing & IA ?
nvidia turing / GPU shot

• Conclusion

Nous voici au bout de ce dossier, certains lecteurs seront probablement déçus de ne pas y trouver de test à proprement parler des cartes, mais c'était le souhait du caméléon de dissocier la présentation de l'architecture des performances. Faut-il y voir un aveu de faiblesse des nouvelles venues dans le domaine ludique ? Pas forcément (à l'heure d'écrire ces lignes nous n'en savons encore rien), l'attente ne sera de toute façon pas bien longue pour pouvoir en juger. Cela tranche toutefois des derniers lancements, puisqu'il faut revenir à Fermi pour trouver pareille organisation. À l'époque, cela s'expliquait en grande partie par le retard du caméléon sur la HD 5870 d'AMD, mais certains points communs reste frappant entre ces 2 lancements. Détaillons donc tout cela.

 

nvidia turing / GPU shot [cliquer pour agrandir]

L'attente fut longue, le résultat sera-t-il à la hauteur ?

 

 

• Turing

NVIDIA insiste sur le côté révolutionnaire de sa nouvelle architecture, en la comparant à Tesla (étrennée par les 8800 GTX) qui fut la première à utiliser des unités de calcul unifiées (Pixel/Vertex) et un fonctionnement de type scalaire. Cette comparaison n'est pas le fruit du hasard, puisqu'elle a signé une grande réussite des verts, qui souhaiteraient à n'en pas douter, la réitérer, où à minima voir sa dernière-née associée à cette aura. Le Ray Tracing est effectivement le Graal des amateurs de rendu 3D, sa prise en charge en temps réel pour la gestion des éclairages et ce qui en découle est en soit effectivement une excellente nouvelle. Pour autant, il faudra juger à l'usage, car ce sont les développeurs qui détermineront ou non le succès. Il sera surtout intéressant de vérifier les performances en pratique, car il arrive bien souvent que les puces introduisant des nouveautés, ne soient en définitive pas assez performantes dans le domaine pour en tirer parti dans de bonnes conditions.

 

Rien ne dit non plus que Turing souffrira de ce mal, les différentes présentations auxquelles nous avons assistées étaient pour la plupart très impressionnantes visuellement, mais les conditions ne se prêtaient pas forcément à évaluer dans quelles conditions, elle s'exécutaient. À cela s'ajoute le côté Alpha de la plupart des patch RT, nous ne nous avancerons donc pas sur le sujet outre mesure. Une chose est certaine, il s'agit ici, bien plus que de simples effets gadgets, n'apportant pas grand-chose à l'aspect visuel des jeux. Certes, il est possible de faire de très belles réalisations en rastérisation pure, mais pour atteindre le niveau aperçu avec le rendu hybride de Turing, cela parait difficile sans un travail colossal de la part des développeurs et encore. Il est donc fort probable que cette technique finisse par s'imposer, la question étant de savoir à quelle vitesse et avec quelle technologie ? Ce qui est sûr, c'est que le caméléon est le seul à proposer pour l'heure une solution fonctionnelle.

 

Le Ray Tracing n'est pas la seule évolution que porte Turing, l'IA au travers des Tensor Cores est également de la partie, avec des applications concrètes pour les joueurs, en particulier le DLSS. Là-aussi, il faudra patienter pour voir si cette proposition s'impose, comme pour toute nouveauté. NVIDIA dispose à l'heure actuelle d'un avantage considérable sur la concurrence à ce niveau, du fait de l'adoption très majoritaire de ses produits depuis des années dans le domaine. Mais rien n'est encore joué et un produit pertinent d'un concurrent peut remettre en cause des positions établies. Sans présager des performances en jeu plus classique des nouvelles venues, il est vraisemblable que le caméléon aurait pu faire des arbitrages plus favorables aux jeux contemporains dans l'allocation des transistors aux différentes unités. La faiblesse relative de son opposant historique dans le haut de gamme et le temps de développement d'une alternative crédible par Intel (s'il y parvient), lui ouvre toutefois une fenêtre temporelle lui permettant cette prise de risque qui peut s'avérer stratégique pour l'avenir. Reste à présent à évaluer le résultat pratique de cette prise de risque.

Depuis ce dossier, nous avons publié notre test des GeForce RTX 2080 / 2080 Ti, que vous retrouverez ici.


Un poil avant ?

Live Twitch • Démo de Forza Horizon 4 sur PC

Un peu plus tard ...

Lara benchée par tous les... GPU bien sûr !

Les 33 ragots
Les ragots sont actuellement
ragots réservés aux QI élevésouverts aux ragoteurs logués
par Sarge, le Dimanche 16 Septembre 2018 à 09h09  
par Nicolas D., le Vendredi 14 Septembre 2018 à 19h30
Un complément est toujours possible, mais d'ici à en faire un tout structuré... Si tu as des axes précis je me ferais un plaisir de faire un soft du hard sur ce sujet !
Je n'ai pas d'axes précis, mais je pense vraiment que ce côté technique est une vraie plus-value pour votre site qui en plus, francophone...hâte d'avoir d'avantage de technique sur ce site !!

Ps : Et puis, pour les fans des verts, c'est le moment ou jamais pour se mettre à l'affut de la bonne affaire sur des GPU Pascalounet !!
par Eric B., le Dimanche 16 Septembre 2018 à 07h44  
Pour le coup je suis plutôt en phase avec ton raisonnement, comme quoi.
par Jemporte, le Samedi 15 Septembre 2018 à 21h01  
par philippe, le Samedi 15 Septembre 2018 à 11h16
Bon, on attend les tests 'réels' maintenant.
J'avoue ne pas savoir que penser. Les prix sont déjà factuels et sont déconnectés du pouvoir d'achat moyen.
Jouer va-t-il être réservé aux riches? La populace retournant aux mécanos? J'attends votre prose sur le sujet.
2070 = 650E (c'est déjà hors de prix pour 95% des joueurs)
2080 en sli: 1800E
2080 TI en sli triple : 3950E
Une 2070 étant une demi 2080TI (le prix est proportionnel), les futures 2060, 2050, 2030 profiteront-elles de ces nouveautés avec le peu de puissance de calcul à disposition prévisible ?
Je reste convaincu d'un lacement des GPU RTX bon marché et plus performants en 7nm (probablement juste les mêmes GPU 12nm redessinés en 7nm) dans un an, pas plus. En attendant ils ont sorti des machins très gros, pas rentables, à peine plus rapides que Pascal en usage courant (mais quand même un peu plus), pour occuper le terrain. Effectivement, les "riches" tiendront Nvidia en pointe, et permettront aux développeurs jeux de développer sur cette nouvelle architecture à capacité Raytracing "pour l'avenir".
Donc, selon moi, ces cartes seront démodées dans un an, tout autant que la gamme GTX.
Celà dit, la stratégie technico-commerciale de Nvidia est tout juste excellente, si les ventes sont à la hauteur (et pas la peine de capter tout le marché juste l'élite des joueurs).
par Cristallix, le Samedi 15 Septembre 2018 à 15h03  
par Nicolas D., le Samedi 15 Septembre 2018 à 08h31
Il est possible qu'un profil "générique" donne de bons résultats sur un grand nombre de moteurs de jeux différents en fait, vu que le phénomène à apprendre est toujours de l'aliasing (à prendre avec des pincettes pour le coup). Pour le faire soi-même, effectivement c'est impossible, mais même si ça l'avait été, je ne pense honnêtement pas que un particulier aurait la puissance de calcul nécessaire pour à la fois générer les images et entraîner le réseau dans un temps raisonnable...
Non mais au moins nVidia nous filait les outils pour le faire on pourrait le faire avec n'importe quel jeu, et pas seulement ceux que EUX ont décidé. Même si tout le monde va pas le faire on a toujours quelques personnes qui le feront.
par Arkane, le Samedi 15 Septembre 2018 à 14h57  
par Sarge, le Vendredi 14 Septembre 2018 à 15h17
Sinon, est ce possible de diminuer la "vitesse" des GIF, j'ai l'impression qui défilent super vite ?!
Y a des extensions qui existent pour ça:
- Firefox : mettre en pause ou "rembobiner" un GIF avec Toggle animated GIFs
- Chrome (j'ai pas testé ) : GIF Scrubber
par philippe, le Samedi 15 Septembre 2018 à 11h16  
Bon, on attend les tests 'réels' maintenant.
J'avoue ne pas savoir que penser. Les prix sont déjà factuels et sont déconnectés du pouvoir d'achat moyen.
Jouer va-t-il être réservé aux riches? La populace retournant aux mécanos? J'attends votre prose sur le sujet.
2070 = 650E (c'est déjà hors de prix pour 95% des joueurs)
2080 en sli: 1800E
2080 TI en sli triple : 3950E
Une 2070 étant une demi 2080TI (le prix est proportionnel), les futures 2060, 2050, 2030 profiteront-elles de ces nouveautés avec le peu de puissance de calcul à disposition prévisible ?
par Nicolas D., le Samedi 15 Septembre 2018 à 08h31  
par Cristallix, le Samedi 15 Septembre 2018 à 00h07
Je suis par contre beaucoup plus contrarié sur le DLSS. Ça ne sera effectif que jeu par jeu. Dès qu'il y aura un DLC potentiellement ils faut tout recalculer (et ce réseau de neurone pourrait donc rendre plus moche certaines textures/parties du jeu ?), on dépend encore plus d'nVidia et de ses serveurs (et à tous les coups Gefore Expérience sera obligatoire pour en profiter) et on aura pas la possibilité de faire entrainer les ces réseaux de neurones nous même sur les jeux qu'nVidia ne supportera pas.
Il est possible qu'un profil "générique" donne de bons résultats sur un grand nombre de moteurs de jeux différents en fait, vu que le phénomène à apprendre est toujours de l'aliasing (à prendre avec des pincettes pour le coup). Pour le faire soi-même, effectivement c'est impossible, mais même si ça l'avait été, je ne pense honnêtement pas que un particulier aurait la puissance de calcul nécessaire pour à la fois générer les images et entraîner le réseau dans un temps raisonnable...
par Nanabozo732, le Samedi 15 Septembre 2018 à 03h06  
Chapeau l'article, depuis les semaines que ça parle des cartes et de l'archi Turing on n'avait pas eu un 10e de tout ce qui est décrit là.
par Cristallix, le Samedi 15 Septembre 2018 à 00h07  
par Eric B., le Vendredi 14 Septembre 2018 à 22h06
J'essaierai d'uploader ça durant le WE.
Ça serait super

Sinon le dossier est bien détaillé et on voit qu'nVidia bien travaillé sa copie quand même. On attend les benchs pour se décider.

Je suis par contre beaucoup plus contrarié sur le DLSS. Ça ne sera effectif que jeu par jeu. Dès qu'il y aura un DLC potentiellement ils faut tout recalculer (et ce réseau de neurone pourrait donc rendre plus moche certaines textures/parties du jeu ?), on dépend encore plus d'nVidia et de ses serveurs (et à tous les coups Gefore Expérience sera obligatoire pour en profiter) et on aura pas la possibilité de faire entrainer les ces réseaux de neurones nous même sur les jeux qu'nVidia ne supportera pas.
par Dacoste, le Vendredi 14 Septembre 2018 à 22h38  
Félicitations a vous. Je n'ai clairement pas tout assimilé, mais celà reste impressionnant de travail et particulièrement intéressant. Je reste de ceux très enthousiaste a l'idée d'ombres et d'éclairage plus réalistes car je me tourne de plus en plus sur les jeux "contemplatif". Certes le pari est risqué car on ne peut miser franchement sur l'adoption par les développeurs de toutes ses nouveautés mais j'ai hâte de mettre la main sur cette gamme de carte, j'attends avec impatience vos test.

Merci encore pour le travail fournis. Bonne continuation et essayez de trouver un tips sur shadow of tomb raider (un peu a la manière des différents sauts ou monter de rebord des tout premiers épisodes ) les dev ont peut être fait en sorte qu'elle puisse faire une ombre chien qui aboie ou l'envole d' un oiseau avec les mains
par Eric B., le Vendredi 14 Septembre 2018 à 22h06  
J'essaierai d'uploader ça durant le WE.
par TwoFace, le Vendredi 14 Septembre 2018 à 22h03  
Serait'il possible d'avoir les screens en version statique ?
Et en plus gros pour bien voir l'apport du DLSS je suis preneur