COMPTOIR
  
register

×

Virtualink

Preview • Turing : la révolution Ray Tracing & IA ?
Virtualink
hdr t
Encodage
Overclocking GeForce
NVIDIA Scanner
Precision X1
Bridge NVLinks
Débit NVLinks
VRWORKS Audio 2.0
Performances VRWORKS Audio 2.0
Ansel RTX

• Vr, Vidéo & Encodage

Côté moteur vidéo, NVIDIA introduit sur ses nouvelles cartes un port VirtualLink, qui permet de faire transiter au travers d'un connecteur USB Type-C, 4 lignes DisplayPort HBR3 pour les flux vidéos (32,4 Gb/s) et 2 canaux USB 3.1 Gen 2 (10 Gbps) pour les données. Il est également capable de fournir une puissance allant jusqu'à 27 W, qui peut se traduire par une consommation de 35 W supplémentaires côté carte graphique, sans amputer pour autant le budget TDP alloué à cette dernière. De quoi raccorder les futurs casques VR avec un seul et unique câble, tout en proposant des débits vidéos compatibles avec 2 écrans UHD à 90 Hz.

 

Virtualink [cliquer pour agrandir]

 

En ce qui concerne les sorties plus traditionnelles, au programme 3 DisplayPort 1.4a avec DSC 1.2 (protocole de compression sans perte). À noter que le moteur vidéo supporte l'usage simultané de 2 écrans 8K à 60 Hz. À cela, s'ajoute un port HDMI 2.0b intégrant le protocole de protection HDCP 2.2, pour ceux désirant par exemple lire depuis leur PC un Blu-ray 4K, sur leur téléviseur UHD. Enfin, le caméléon précise que le HDR est à présent géré nativement au niveau du pipeline vidéo. Tone mapping (BT.2100) est à ce titre inclus dans le pipeline HDR et permet d'approximer les images HDR sur un afficheur SDR.

 

hdr t [cliquer pour agrandir]

 

Finissons cette section par le moteur d'encodage/décodage résumé dans le slide ci-dessous. Côté décodage, Turing apporte par rapport à Pascal/Volta, le HEVC YUV444 (8/10/12 bit) et le VP9 (10/12 bit). Pour l'encodage cette fois, la principale nouveauté est la prise en charge du HEVC 8K HDR à 30 images par seconde. On remarquera surtout les progrès qualitatifs annoncés par NVIDIA au niveau de l'encodeur, qui parviendrait à un meilleur résultat à ce niveau qu'un encodage CPU x264 Fast. Ce n'est certes pas encore au niveau de 2 passes CPU, toutefois, ce gain qualitatif est toujours appréciable pour des vidéos, par exemple destinées au web et profitant de la vitesse de traitement du GPU.

 

Encodage [cliquer pour agrandir]

 

 

• NVIDIA SCANNER

Côté overclocking, les verts annoncent avoir fait évoluer la situation pour faciliter la recherche des performances maximales pour les utilisateurs. Petit rappel du principe de fonctionnement des GeForce récentes au niveau des fréquences appliquées au GPU : ces dernières évoluent le long d'une courbe associant à chaque valeur une tension donnée. Lorsque l'utilisateur sur-cadence son GPU, il applique en fait un offset (décalage) de la fréquence associée à une tension donnée. Cette technique à l'avantage d'éviter une explosion de la consommation, puisque cette dernière évolue au carré de la tension. Par contre, l'option d'overvolting proposée par certains logiciels, ne permet pas de son côté d'appliquer un offset de la tension sur la courbe, mais prolonge cette dernière en ajoutant des couples fréquences/tension en bout de celle-ci.

 

Overclocking GeForce [cliquer pour agrandir]

 

L'overclocking des puces vertes consiste donc à rechercher l'offset le plus important possible tout en conservant le GPU stable. C'est là que la situation se complique, puisque les fréquences évoluant le long de la courbe ci-dessus, il se peut qu'un couple après offset ne soit pas stable, mais rien ne dit que le couple suivant ne le soit pas... Le souci étant que la carte ne reste jamais à une fréquence fixe, cette dernière fluctuant, selon les limites de consommation et température.

 

Il est possible depuis le lancement de Pascal, d'individualiser l'offset par couple fréquence/tension, mais cela nécessite un temps considérable, d'autant qu'il est nécessaire de le faire pour des types de charges différentes (offset stable dans un jeu mais pas forcément dans un autre, suivant le type de charge par exemple). Les verts annoncent du nouveau pour simplifier cette recherche, avec NVIDIA Scanner. Ce dernier permet de suivre le comportement du GPU au sein de la courbe après offset, en enregistrant les valeurs dans une base de données sauvegardée.

 

NVIDIA Scanner [cliquer pour agrandir]

 

Ainsi, même en cas de plantage, le dernier couple stable pourra être rappelé. Pour valider la stabilité, NV Scanner propose un algorithme de test propre à NVIDIA, qui vérifie l'exactitude de calculs demandés au GPU, via une sollicitation spécifique créée à cet effet, et validant ainsi l'intégralité de la courbe en une vingtaine de minutes. Une API permet aux applications tierces (Precision X1, Afterburner, etc.) d'accéder à NV Scanner et de le mettre en oeuvre pour automatiser la recherche de fréquences GPU maximales.

 

Precision X1 [cliquer pour agrandir]

 

Poursuivons avec la quête des performances maximales, toujours selon le caméléon, via une nouvelle évolution du SLi. Avec l’avènement de Pascal, NVIDIA avait amélioré son interface dédiée en augmentant la fréquence de 400 MHz à 650 MHz, tout en autorisant l'utilisation de 2 ponts simultanés entre 2 cartes, soit un débit multiplié par 3,25 dans le meilleur des cas. Cela permettait de régler les soucis de bande passante insuffisante dans le cas des définitions > QHD. Le caméléon va cette fois plus loin en adoptant son interface professionnelle NVLink (avec quelques restrictions toutefois, afin de conserver un avantage à ses très onéreuses cartes pro), sur ses nouvelles GeForce.

 

Bridge NVLinks [cliquer pour agrandir]

 

On notera que les séries xx60 et inférieures avaient été privées de SLi en 2016, 2 ans plus tard, la RTX 2070 perd elle aussi cet attribut, réservé au segment Enthusiast à présent, le multi-GPU étant utile pour ceux qui recherchent les performances extrêmes ou le compute, d'après NVIDIA. Au-delà de la dénomination de la carte privée de SLi cette année, on constatera surtout que la "frontière d'accession" à ce dernier, n'a pas bougé côté gamme de GPU.

 

Ainsi, les puces séries x02 et x04 en sont dotées, ce n'est plus le cas à partir de la série x06 à l'instar de Pascal (mais la RTX 2070 s'appuie à présent sur une telle puce). Un lien NVLink 8x est actif sur la RTX 2080, la version Ti en proposant deux, ce qui permet d'atteindre 50 Go/s par sens de transmission, 100 Go/s en cumulé. Pour finir sur le sujet, Il est nécessaire pour mettre en oeuvre ce SLi New Gen, d'acquérir des ponts dédiés, en version 3 ou 4 slots, qui coûteront la bagatelle de 79$ pièce, quand même.

 

Débit NVLinks [cliquer pour agrandir]

 

 

• VRWORKS AUDIO

À l'occasion du lancement de Pascal, NVIDIA avait également communiqué sur VRWorks Audio et publié quelques temps plus tard un SDK pour son intégration au sein des jeux VR. L'objectif de cette technologie étant de positionner correctement le son dans un environnement virtuel. Avec Turing, ce dernier évolue en tirant parti des capacités de calcul en Ray Tracing de l'architecture. Ainsi, la propagation des ondes sonores peut utiliser les mêmes algorithmes que ceux régissant les rayons lumineux, en s'appuyant sur le moteur Ray Tracing maison : OptiX.

 

VRWORKS Audio 2.0 [cliquer pour agrandir]

 

NVIDIA indique que dans ces conditions, Turing peut s'avérer pour ces tâches, plus de 6 fois plus rapide que Pascal. Là-aussi, ces chiffres doivent être pris avec du recul, car ne concernent bien entendu que le traitement sonore, l'expérience VR nécessitant de gérer également la partie visuelle, bien plus gourmande en ressources. Il est toutefois intéressant de noter cette évolution, qui pourra rendre l’immersion encore plus réaliste.

 

Performances VRWORKS Audio 2.0 [cliquer pour agrandir]

 

 

• ANSEL RTX

Finissons par Ansel, qui n'est là aussi, pas une nouveauté a proprement parler, puisque cette fonctionnalité proposée au travers des pilotes, permet de réaliser des copies d'écrans améliorées (il est possible de déplacer la caméra, augmenter la définition, ajouter des effets, etc.). Il fallait précédemment, l'intégration impérative du SDK au niveau du jeu pour fonctionner. Ce n'est plus le cas pour plus de 150 jeux avec lesquels Ansel fonctionnera après coup, suite à une capture d'écran traditionnelle. Des restrictions interviendront toutefois : plus de caméra libre ou d'amélioration des images via Ray Tracing. À ce sujet, que le caméléon nomme Ansel RT, il est possible de flatter davantage la rétine avec des captures d'écrans disposant d'un rendu en Ray Tracing plus poussé qu'en temps réel (forcément, il n'y a plus besoin d'assurer la fluidité d'un déplacement), en multipliant le nombre de rayons par pixel.

 

Ansel RTX [cliquer pour agrandir]

 

Voilà pour un tour d'horizon rapide et pas forcément exhaustif des nouveautés qui accompagnent le lancement des nouvelles GeForce RTX, reste à présent à évaluer les performances en jeu de ces dernières.

 

Depuis ce dossier, nous avons publié notre test des GeForce RTX 2080 / 2080 Ti, que vous retrouverez ici.


Un poil avant ?

Live Twitch • Démo de Forza Horizon 4 sur PC

Un peu plus tard ...

Lara benchée par tous les... GPU bien sûr !

Les 33 ragots
Les ragots sont actuellement
ragots réservés aux QI élevésouverts aux ragoteurs logués
par Sarge, le Dimanche 16 Septembre 2018 à 09h09  
par Nicolas D., le Vendredi 14 Septembre 2018 à 19h30
Un complément est toujours possible, mais d'ici à en faire un tout structuré... Si tu as des axes précis je me ferais un plaisir de faire un soft du hard sur ce sujet !
Je n'ai pas d'axes précis, mais je pense vraiment que ce côté technique est une vraie plus-value pour votre site qui en plus, francophone...hâte d'avoir d'avantage de technique sur ce site !!

Ps : Et puis, pour les fans des verts, c'est le moment ou jamais pour se mettre à l'affut de la bonne affaire sur des GPU Pascalounet !!
par Eric B., le Dimanche 16 Septembre 2018 à 07h44  
Pour le coup je suis plutôt en phase avec ton raisonnement, comme quoi.
par Jemporte, le Samedi 15 Septembre 2018 à 21h01  
par philippe, le Samedi 15 Septembre 2018 à 11h16
Bon, on attend les tests 'réels' maintenant.
J'avoue ne pas savoir que penser. Les prix sont déjà factuels et sont déconnectés du pouvoir d'achat moyen.
Jouer va-t-il être réservé aux riches? La populace retournant aux mécanos? J'attends votre prose sur le sujet.
2070 = 650E (c'est déjà hors de prix pour 95% des joueurs)
2080 en sli: 1800E
2080 TI en sli triple : 3950E
Une 2070 étant une demi 2080TI (le prix est proportionnel), les futures 2060, 2050, 2030 profiteront-elles de ces nouveautés avec le peu de puissance de calcul à disposition prévisible ?
Je reste convaincu d'un lacement des GPU RTX bon marché et plus performants en 7nm (probablement juste les mêmes GPU 12nm redessinés en 7nm) dans un an, pas plus. En attendant ils ont sorti des machins très gros, pas rentables, à peine plus rapides que Pascal en usage courant (mais quand même un peu plus), pour occuper le terrain. Effectivement, les "riches" tiendront Nvidia en pointe, et permettront aux développeurs jeux de développer sur cette nouvelle architecture à capacité Raytracing "pour l'avenir".
Donc, selon moi, ces cartes seront démodées dans un an, tout autant que la gamme GTX.
Celà dit, la stratégie technico-commerciale de Nvidia est tout juste excellente, si les ventes sont à la hauteur (et pas la peine de capter tout le marché juste l'élite des joueurs).
par Cristallix, le Samedi 15 Septembre 2018 à 15h03  
par Nicolas D., le Samedi 15 Septembre 2018 à 08h31
Il est possible qu'un profil "générique" donne de bons résultats sur un grand nombre de moteurs de jeux différents en fait, vu que le phénomène à apprendre est toujours de l'aliasing (à prendre avec des pincettes pour le coup). Pour le faire soi-même, effectivement c'est impossible, mais même si ça l'avait été, je ne pense honnêtement pas que un particulier aurait la puissance de calcul nécessaire pour à la fois générer les images et entraîner le réseau dans un temps raisonnable...
Non mais au moins nVidia nous filait les outils pour le faire on pourrait le faire avec n'importe quel jeu, et pas seulement ceux que EUX ont décidé. Même si tout le monde va pas le faire on a toujours quelques personnes qui le feront.
par Arkane, le Samedi 15 Septembre 2018 à 14h57  
par Sarge, le Vendredi 14 Septembre 2018 à 15h17
Sinon, est ce possible de diminuer la "vitesse" des GIF, j'ai l'impression qui défilent super vite ?!
Y a des extensions qui existent pour ça:
- Firefox : mettre en pause ou "rembobiner" un GIF avec Toggle animated GIFs
- Chrome (j'ai pas testé ) : GIF Scrubber
par philippe, le Samedi 15 Septembre 2018 à 11h16  
Bon, on attend les tests 'réels' maintenant.
J'avoue ne pas savoir que penser. Les prix sont déjà factuels et sont déconnectés du pouvoir d'achat moyen.
Jouer va-t-il être réservé aux riches? La populace retournant aux mécanos? J'attends votre prose sur le sujet.
2070 = 650E (c'est déjà hors de prix pour 95% des joueurs)
2080 en sli: 1800E
2080 TI en sli triple : 3950E
Une 2070 étant une demi 2080TI (le prix est proportionnel), les futures 2060, 2050, 2030 profiteront-elles de ces nouveautés avec le peu de puissance de calcul à disposition prévisible ?
par Nicolas D., le Samedi 15 Septembre 2018 à 08h31  
par Cristallix, le Samedi 15 Septembre 2018 à 00h07
Je suis par contre beaucoup plus contrarié sur le DLSS. Ça ne sera effectif que jeu par jeu. Dès qu'il y aura un DLC potentiellement ils faut tout recalculer (et ce réseau de neurone pourrait donc rendre plus moche certaines textures/parties du jeu ?), on dépend encore plus d'nVidia et de ses serveurs (et à tous les coups Gefore Expérience sera obligatoire pour en profiter) et on aura pas la possibilité de faire entrainer les ces réseaux de neurones nous même sur les jeux qu'nVidia ne supportera pas.
Il est possible qu'un profil "générique" donne de bons résultats sur un grand nombre de moteurs de jeux différents en fait, vu que le phénomène à apprendre est toujours de l'aliasing (à prendre avec des pincettes pour le coup). Pour le faire soi-même, effectivement c'est impossible, mais même si ça l'avait été, je ne pense honnêtement pas que un particulier aurait la puissance de calcul nécessaire pour à la fois générer les images et entraîner le réseau dans un temps raisonnable...
par Nanabozo732, le Samedi 15 Septembre 2018 à 03h06  
Chapeau l'article, depuis les semaines que ça parle des cartes et de l'archi Turing on n'avait pas eu un 10e de tout ce qui est décrit là.
par Cristallix, le Samedi 15 Septembre 2018 à 00h07  
par Eric B., le Vendredi 14 Septembre 2018 à 22h06
J'essaierai d'uploader ça durant le WE.
Ça serait super

Sinon le dossier est bien détaillé et on voit qu'nVidia bien travaillé sa copie quand même. On attend les benchs pour se décider.

Je suis par contre beaucoup plus contrarié sur le DLSS. Ça ne sera effectif que jeu par jeu. Dès qu'il y aura un DLC potentiellement ils faut tout recalculer (et ce réseau de neurone pourrait donc rendre plus moche certaines textures/parties du jeu ?), on dépend encore plus d'nVidia et de ses serveurs (et à tous les coups Gefore Expérience sera obligatoire pour en profiter) et on aura pas la possibilité de faire entrainer les ces réseaux de neurones nous même sur les jeux qu'nVidia ne supportera pas.
par Dacoste, le Vendredi 14 Septembre 2018 à 22h38  
Félicitations a vous. Je n'ai clairement pas tout assimilé, mais celà reste impressionnant de travail et particulièrement intéressant. Je reste de ceux très enthousiaste a l'idée d'ombres et d'éclairage plus réalistes car je me tourne de plus en plus sur les jeux "contemplatif". Certes le pari est risqué car on ne peut miser franchement sur l'adoption par les développeurs de toutes ses nouveautés mais j'ai hâte de mettre la main sur cette gamme de carte, j'attends avec impatience vos test.

Merci encore pour le travail fournis. Bonne continuation et essayez de trouver un tips sur shadow of tomb raider (un peu a la manière des différents sauts ou monter de rebord des tout premiers épisodes ) les dev ont peut être fait en sorte qu'elle puisse faire une ombre chien qui aboie ou l'envole d' un oiseau avec les mains
par Eric B., le Vendredi 14 Septembre 2018 à 22h06  
J'essaierai d'uploader ça durant le WE.
par TwoFace, le Vendredi 14 Septembre 2018 à 22h03  
Serait'il possible d'avoir les screens en version statique ?
Et en plus gros pour bien voir l'apport du DLSS je suis preneur