COMPTOIR
  
register

Preview • Turing : la révolution Ray Tracing & IA ?

Au coeur de la dernière architecture des verts

 

28 mois, c'est la durée séparant l'intronisation de l'architecture Pascal de celle de son successeur, alias Turing. Cet écart peut paraître plus long qu'à l'accoutumée, mais 30 mois s'étaient écoulés entre Kepler et Maxwell, sur fond de stagnation du process de gravure accessible aux GPU. NVIDIA avait toutefois lancé 2 générations sur la même architecture (GeForce 600 & 700) à l'époque, ne réservant la plus grosse puce qu'à la seconde. Ce ne fut pas le cas cette fois, l'absence de concurrence aux GTX 1070/1080 pendant plus d'un an, et une réplique rouge ne les mettant finalement pas à mal, ayant permis d'allonger la durée de vie de Pascal. Qui plus est, la bulle mining ayant fait flamber la demande, a conduit à augmenter encore artificiellement cette dernière (et les prix). Cette période noire pour les joueurs étant à présent derrière nous, NVIDIA en profite pour proposer enfin du neuf avec Turing qui introduit de nombreuses nouveautés, dont l'utilisation d'un rendu hybride à base de Ray Tracing, qui fait fantasmer depuis plus d'une décennie. À cela s'ajoute des unités dédiées à l'intelligence artificielle et une évolution de celles à la base de l'architecture "classique". Suffisant pour justifier la déclaration de son concepteur : la plus grande évolution depuis Tesla ? Un début de réponse dans ce dossier, en attendant les tests chiffrés dans quelques jours.

 

review turing architecture



Un poil avant ?

Live Twitch • Démo de Forza Horizon 4 sur PC

Un peu plus tard ...

Lara benchée par tous les... GPU bien sûr !

Les 33 ragots
Les ragots sont actuellement
ragots réservés aux QI élevésouverts aux ragoteurs logués
par Sarge, le Dimanche 16 Septembre 2018 à 09h09  
par Nicolas D., le Vendredi 14 Septembre 2018 à 19h30
Un complément est toujours possible, mais d'ici à en faire un tout structuré... Si tu as des axes précis je me ferais un plaisir de faire un soft du hard sur ce sujet !
Je n'ai pas d'axes précis, mais je pense vraiment que ce côté technique est une vraie plus-value pour votre site qui en plus, francophone...hâte d'avoir d'avantage de technique sur ce site !!

Ps : Et puis, pour les fans des verts, c'est le moment ou jamais pour se mettre à l'affut de la bonne affaire sur des GPU Pascalounet !!
par Eric B., le Dimanche 16 Septembre 2018 à 07h44  
Pour le coup je suis plutôt en phase avec ton raisonnement, comme quoi.
par Jemporte, le Samedi 15 Septembre 2018 à 21h01  
par philippe, le Samedi 15 Septembre 2018 à 11h16
Bon, on attend les tests 'réels' maintenant.
J'avoue ne pas savoir que penser. Les prix sont déjà factuels et sont déconnectés du pouvoir d'achat moyen.
Jouer va-t-il être réservé aux riches? La populace retournant aux mécanos? J'attends votre prose sur le sujet.
2070 = 650E (c'est déjà hors de prix pour 95% des joueurs)
2080 en sli: 1800E
2080 TI en sli triple : 3950E
Une 2070 étant une demi 2080TI (le prix est proportionnel), les futures 2060, 2050, 2030 profiteront-elles de ces nouveautés avec le peu de puissance de calcul à disposition prévisible ?
Je reste convaincu d'un lacement des GPU RTX bon marché et plus performants en 7nm (probablement juste les mêmes GPU 12nm redessinés en 7nm) dans un an, pas plus. En attendant ils ont sorti des machins très gros, pas rentables, à peine plus rapides que Pascal en usage courant (mais quand même un peu plus), pour occuper le terrain. Effectivement, les "riches" tiendront Nvidia en pointe, et permettront aux développeurs jeux de développer sur cette nouvelle architecture à capacité Raytracing "pour l'avenir".
Donc, selon moi, ces cartes seront démodées dans un an, tout autant que la gamme GTX.
Celà dit, la stratégie technico-commerciale de Nvidia est tout juste excellente, si les ventes sont à la hauteur (et pas la peine de capter tout le marché juste l'élite des joueurs).
par Cristallix, le Samedi 15 Septembre 2018 à 15h03  
par Nicolas D., le Samedi 15 Septembre 2018 à 08h31
Il est possible qu'un profil "générique" donne de bons résultats sur un grand nombre de moteurs de jeux différents en fait, vu que le phénomène à apprendre est toujours de l'aliasing (à prendre avec des pincettes pour le coup). Pour le faire soi-même, effectivement c'est impossible, mais même si ça l'avait été, je ne pense honnêtement pas que un particulier aurait la puissance de calcul nécessaire pour à la fois générer les images et entraîner le réseau dans un temps raisonnable...
Non mais au moins nVidia nous filait les outils pour le faire on pourrait le faire avec n'importe quel jeu, et pas seulement ceux que EUX ont décidé. Même si tout le monde va pas le faire on a toujours quelques personnes qui le feront.
par Arkane, le Samedi 15 Septembre 2018 à 14h57  
par Sarge, le Vendredi 14 Septembre 2018 à 15h17
Sinon, est ce possible de diminuer la "vitesse" des GIF, j'ai l'impression qui défilent super vite ?!
Y a des extensions qui existent pour ça:
- Firefox : mettre en pause ou "rembobiner" un GIF avec Toggle animated GIFs
- Chrome (j'ai pas testé ) : GIF Scrubber
par philippe, le Samedi 15 Septembre 2018 à 11h16  
Bon, on attend les tests 'réels' maintenant.
J'avoue ne pas savoir que penser. Les prix sont déjà factuels et sont déconnectés du pouvoir d'achat moyen.
Jouer va-t-il être réservé aux riches? La populace retournant aux mécanos? J'attends votre prose sur le sujet.
2070 = 650E (c'est déjà hors de prix pour 95% des joueurs)
2080 en sli: 1800E
2080 TI en sli triple : 3950E
Une 2070 étant une demi 2080TI (le prix est proportionnel), les futures 2060, 2050, 2030 profiteront-elles de ces nouveautés avec le peu de puissance de calcul à disposition prévisible ?
par Nicolas D., le Samedi 15 Septembre 2018 à 08h31  
par Cristallix, le Samedi 15 Septembre 2018 à 00h07
Je suis par contre beaucoup plus contrarié sur le DLSS. Ça ne sera effectif que jeu par jeu. Dès qu'il y aura un DLC potentiellement ils faut tout recalculer (et ce réseau de neurone pourrait donc rendre plus moche certaines textures/parties du jeu ?), on dépend encore plus d'nVidia et de ses serveurs (et à tous les coups Gefore Expérience sera obligatoire pour en profiter) et on aura pas la possibilité de faire entrainer les ces réseaux de neurones nous même sur les jeux qu'nVidia ne supportera pas.
Il est possible qu'un profil "générique" donne de bons résultats sur un grand nombre de moteurs de jeux différents en fait, vu que le phénomène à apprendre est toujours de l'aliasing (à prendre avec des pincettes pour le coup). Pour le faire soi-même, effectivement c'est impossible, mais même si ça l'avait été, je ne pense honnêtement pas que un particulier aurait la puissance de calcul nécessaire pour à la fois générer les images et entraîner le réseau dans un temps raisonnable...
par Nanabozo732, le Samedi 15 Septembre 2018 à 03h06  
Chapeau l'article, depuis les semaines que ça parle des cartes et de l'archi Turing on n'avait pas eu un 10e de tout ce qui est décrit là.
par Cristallix, le Samedi 15 Septembre 2018 à 00h07  
par Eric B., le Vendredi 14 Septembre 2018 à 22h06
J'essaierai d'uploader ça durant le WE.
Ça serait super

Sinon le dossier est bien détaillé et on voit qu'nVidia bien travaillé sa copie quand même. On attend les benchs pour se décider.

Je suis par contre beaucoup plus contrarié sur le DLSS. Ça ne sera effectif que jeu par jeu. Dès qu'il y aura un DLC potentiellement ils faut tout recalculer (et ce réseau de neurone pourrait donc rendre plus moche certaines textures/parties du jeu ?), on dépend encore plus d'nVidia et de ses serveurs (et à tous les coups Gefore Expérience sera obligatoire pour en profiter) et on aura pas la possibilité de faire entrainer les ces réseaux de neurones nous même sur les jeux qu'nVidia ne supportera pas.
par Dacoste, le Vendredi 14 Septembre 2018 à 22h38  
Félicitations a vous. Je n'ai clairement pas tout assimilé, mais celà reste impressionnant de travail et particulièrement intéressant. Je reste de ceux très enthousiaste a l'idée d'ombres et d'éclairage plus réalistes car je me tourne de plus en plus sur les jeux "contemplatif". Certes le pari est risqué car on ne peut miser franchement sur l'adoption par les développeurs de toutes ses nouveautés mais j'ai hâte de mettre la main sur cette gamme de carte, j'attends avec impatience vos test.

Merci encore pour le travail fournis. Bonne continuation et essayez de trouver un tips sur shadow of tomb raider (un peu a la manière des différents sauts ou monter de rebord des tout premiers épisodes ) les dev ont peut être fait en sorte qu'elle puisse faire une ombre chien qui aboie ou l'envole d' un oiseau avec les mains
par Eric B., le Vendredi 14 Septembre 2018 à 22h06  
J'essaierai d'uploader ça durant le WE.
par TwoFace, le Vendredi 14 Septembre 2018 à 22h03  
Serait'il possible d'avoir les screens en version statique ?
Et en plus gros pour bien voir l'apport du DLSS je suis preneur