COMPTOIR
  
register

NVIDIA dévoile ADA, et les RTX 4090 et 4080

NVIDIA tenait sa conférence à la GTC, par la voix du boss Jensen. Le gros de la conférence a été tenu par Omniverse, qui est la trousse à outil pour tous les créateurs de tout poil, offrant un environnement hardware avec les RTX (surtout celles à base d’Ada Lovelace), logiciel (pour connecter les environnements) et structurel (pour la diffusion). Mais ce que les joueurs attendaient, c’était le GPU vedette, Ada Lovelace.

 

NVIDIA a présenté rapidement les cartes à venir, mais pas que. Le gros GPU possède 76 milliards de transistors, il est le fruit d’une cohabitation entre les verts et TSMC pour un procédé qui semble adapté, N4. C’est de la GDDR6X signée Micron qui officie dedans. Nous avons la 3e génération de RT Cores, la 4e de Tensor Cores, le tout amélioré et en quantité astronomique par rapport aux RTX précédentes. Notez la présence d’Optical Flow Accelerator, chargés d’accélérer le traitement d’information de mouvement entre deux frames, complémentant ainsi les unités précédemment citées dans le pipeline de rendu RTX/DLSS, mis à contribution avec le nouveau DLSS 3, détaillé ci-après.

 

En interne et dans la plus grosse des versions de Lovelace, NVIDIA annonce pas moins de 90 TFLOPS côté cœurs CUDA et un doublement de l’efficacité énergétique, de quoi rassurer les amateurs de rastérisation ; d’autant plus que le scheduler devient plus intelligent et est capable de réordonner le travail à la volée : un début d’Out-of-Order sauce GPU ! En pratique, cela se traduirait par des performances 2 à 3 fois supérieures en Ray Tracing, et 25 % meilleures en jeu. Côté RT, justement, la puissance des cœurs dédiés est affichée à un équivalent de 200 TFLOPS (contre 49 sur Turing et 78 sur Ampere), ce qui représente un doublement du débit d’intersection rayon/triangle calculable. Enfin, les Tensors Cores se retrouvent jumelés avec les Optical Flow Accelerator pour élargir leurs capacités. Niveau puissance, le total culmine à 1 400 TFLOPS : voilà de quoi inférer en masse des réseaux pour tout et n’importe quoi.... enfin, surtout le DLSS pour nous !

 

Voilà les différences entre Turing, Ampere et Ada :

 

diff turing ampere ada

 

La RTX 4090 possède 24 Go de GDDR6X, devrait avoir les perfs de « 2 à 4x » celles de la RTX 3090 Ti, sera disponible le 12 octobre prochain pour 1599 $ pour le modèle FE. Pour les autres ça sera forcément plus, d'autant que l’euro n’est plus à notre avantage par rapport au dollar et que la TVA s'invite.

 

rtx4090 slide

 

Puis sont arrivées les deux RTX 4080, les rumeurs disaient vrai. Pourquoi le même nom pour deux cartes différentes ? En tout cas, la grosse RTX 4080 16 Go de GDDR6X offrirait elle aussi 2 à 4 fois les perfs de la RTX 3080 Ti, pour 1199 $, la petite à 12 Go sera à 899 $. Elles arriveront courant du mois de novembre, ce sont les prix des FE, nouveauté, conversion euro/dollar, TVA et hype devraient composer un cocktail financier détonnant. En tout cas, il faudra voir et découvrir les conditions qui amènent à des ratios de perfs si élevés entre Ampere et Ada.

 

rtx4080 slide

 

Avec tout ça, le DLSS 3 est également annoncé. Il est basé sur le DLSS 2 et son CNN, tous deux basés sur un autoencodeur pour effectuer de la mise à l’échelle 1080p en prenant également en entrée les vecteurs de mouvement. Le DLSS 3 ajoute une composante "optique" utilisant les nouveaux accélérateurs OFA (Optical Flow Accelerator) pour calculer les changements effectués entre deux frames afin de générer des frames intermédiaires et, ainsi, renforcer la fluidité. L'idée est similaire aux techniques employées pour la restauration de vidéos anciennes que vous avez peut-être déjà vu sur TonTuyal, mais la chose est ici effectuée en temps réel.

 

dlss3

 

Reste que les frames intermédiaires nous seront affichées à la place de la nouvelle frame, entrainant fatalement une latence accrue : NVIDIA s'est bien gardée de communiquer sur cet effet, il faudra donc voir en jeu ce que cela donne, en particulier pour les titres nerveux (jeux de courses et FPS en tête) dans lesquels des changements de l'ordre du dixième de milliseconde se retrouvent perceptibles. Reste que le bousin apporterait des performances en hausse allant jusqu'à un facteur 4, autant dire que nous allons attendre avec impatience sa sortie officielle !

 

dlss3 prediction

 

Voici les 35 jeux/moteurs 3D prévus de passer sous DLSS 3.

 

A Plague Tale: Requiem
Atomic Heart
Black Myth: Wukong
Bright Memory: Infinite
Chernobylite
Conqueror’s Blade
Cyberpunk 2077
Dakar Rally
Deliver Us Mars
Destroy All Humans! 2 – Reprobed
Dying Light 2 Stay Human
F1Ⓡ 22
F.I.S.T.: Forged In Shadow Torch
Frostbite Engine
HITMAN 3
Hogwarts Legacy
ICARUS
Jurassic World Evolution 2
Justice
Loopmancer
Marauders
Microsoft Flight Simulator
Midnight Ghost Hunt
Mount & Blade II: Bannerlord
Naraka: Bladepoint
NVIDIA Omniverse
NVIDIA Racer RTX
PERISH
Portal with RTX
Ripout
S.T.A.L.K.E.R. 2: Heart of Chornobyl
Scathe
Sword and Fairy 7
SYNCED
The Lord of the Rings: Gollum
The Witcher 3: Wild Hunt
THRONE AND LIBERTY
Tower of Fantasy
Unity
Unreal Engine 4 & 5
Warhammer 40,000: Darktide

 

Du coup, tous les potos y vont de leurs annonces, ASUS, GIGABYTE, MSi, Inno3D, Zotac, Colorful, Gainward et Palit, mais pas EVGA, ont leurs modèles prêts ou presque. Vivement les tests, rouges ou verts, pour voir le nouvel échiquier des perfs 3D.

 

rtx4090 roundup

Un poil avant ?

Les NUC 12 Enthusiat débarquent chez Intel

Un peu plus tard ...

RDNA 3 a aussi une date, c'est une bonne chose !

Les 114 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur des lumières en Bourgogne-Franche-Comté, le Vendredi 23 Septembre 2022 à 07h30  
par Un ragoteur RGB en Provence-Alpes-Côte d'Azur, le Jeudi 22 Septembre 2022 à 12h52
On est quand même sur une grosse fumisterie chez Nvidia.
Le RT c'est jolie mais question latence on repassera, et le DLSS pour ceux qui aiment jouer avec du FLOU partout. Le NVENC je m'en fout , je stream pas. et les autres blablatures ne sont là que pour remplir la feuille blanche.
Bref, vivement les tests sur la rasterisation pur, et les seuls bénéfices concerne l'explosion du cache ( pourquoi ne pas l'avoir fait avant ? ) et la montée en fréquence grâce à l'optimisation de la gravure de TSMC. On est bien d'accord que les prix sont fait que pour rassurer les actionnaires, vu la débâcle du minage mais surtout le cout de l'abandon du rachat d'ARM.
Si ce n'était que de la fumisterie, AMD n'aurait pas emboîté le pas à charge forcée pour rattraper son retard sur ces points. Le RT n'est pas une technologie nvidia, soit dit en passant.
par weik, le Jeudi 22 Septembre 2022 à 21h27  
DLSS latence

C'est bizarre car d'après cette vidéo, la latence n'est pas plus importante qu'en natif.
par Scrabble, le Jeudi 22 Septembre 2022 à 20h18  
par Unragoteursansespace en Bourgogne-Franche-Comté, le Jeudi 22 Septembre 2022 à 17h27
Avoir un jeu affichant 120 fps grâce au Dlss 3.0 mais ayant la réactivité d'un jeu à 60 fps par exemple, ça ne dérange personne ?
Le DLSS 3.0 sera sûrement bien pour des jeux un peu lents, comme les simulateurs de vol
On verra le paysage défiler avec moins de saccades
Mais pour des jeux rapides, ça n'a sans doute pas d'intérêt
par weik, le Jeudi 22 Septembre 2022 à 20h04  
par Un ragoteur RGB en Provence-Alpes-Côte d'Azur, le Jeudi 22 Septembre 2022 à 12h52
On est quand même sur une grosse fumisterie chez Nvidia.
Le RT c'est jolie mais question latence on repassera, et le DLSS pour ceux qui aiment jouer avec du FLOU partout. Le NVENC je m'en fout , je stream pas. et les autres blablatures ne sont là que pour remplir la feuille blanche.
Bref, vivement les tests sur la rasterisation pur, et les seuls bénéfices concerne l'explosion du cache ( pourquoi ne pas l'avoir fait avant ? ) et la montée en fréquence grâce à l'optimisation de la gravure de TSMC. On est bien d'accord que les prix sont fait que pour rassurer les actionnaires, vu la débâcle du minage mais surtout le cout de l'abandon du rachat d'ARM.
Tu as un lien sur la latence apportée par le Raytracing quand il est activé ?

Cela m'intéresse grandement
par Unragoteursansespace en Bourgogne-Franche-Comté, le Jeudi 22 Septembre 2022 à 17h27  
Avoir un jeu affichant 120 fps grâce au Dlss 3.0 mais ayant la réactivité d'un jeu à 60 fps par exemple, ça ne dérange personne ?
par Un #ragoteur connecté d'Occitanie, le Jeudi 22 Septembre 2022 à 15h40  
par Une ragoteuse à forte poitrine embusqué, le Jeudi 22 Septembre 2022 à 14h32
Je joue en 5k et je t'assure que la 3090 n'est pas overkill. Sur les AAA récent j'ai 40fps et rarement plus, DLSS on.
Quelle taille d'écran en 5K ? Il doit être gigantesque avec beaucoup de recul.
par KaKtusSs, le Jeudi 22 Septembre 2022 à 14h44  
par Une ragoteuse à forte poitrine embusqué, le Jeudi 22 Septembre 2022 à 14h32
Je joue en 5k et je t'assure que la 3090 n'est pas overkill. Sur les AAA récent j'ai 40fps et rarement plus, DLSS on.
Oulà, il y a quand même moyen d'optimiser un peu les réglages graphiques non ? L'ultra c'est bien pour les benchmarks et pour flatter l'ego, mais en jeu et surtout en haute résolution, le mode high (avec textures en ultra) ne change presque rien visuellement. Perso il n'y a vraiment qu'en VR que je me trouve limité par la 3080.
par Une ragoteuse à forte poitrine embusqué, le Jeudi 22 Septembre 2022 à 14h32  
par Jemporte, le Mercredi 21 Septembre 2022 à 22h09
C'est clair que pour un joueur standard, une 3090 ou une 6900 n'a aucun intérêt. Je trouve quand même que la RTX 3070 aurait pu avoir plus de vram pour cibler les joueurs dépensiers, et que même la 3080 (même GPU que la 3090) est overkill, mais ok niveau Vram. La 3070 tout comme la 6700Xt peut jouer en 4K.

Actuellement le grand luxe c'est probablement de jouer sur un grand écran large en 1440x5120 à 144 FPS. Pas besoin d'une 3090 pour y avoir accès, mais une 3090 jouera sur tous les jeux actuels très bien en détails hauts. Du coup avec Lovelace et RDNA3, les cartes milieu de gamme le feront : la 7600XT et la 4070. Actuellement je dirais que le niveau max de cartes moyennes est atteint sur du 1440x3440 à savoir plus de 100fps en général et au moins 60FPS avec un niveau de détails hauts.
Je joue en 5k et je t'assure que la 3090 n'est pas overkill. Sur les AAA récent j'ai 40fps et rarement plus, DLSS on.
par Un ragoteur RGB en Provence-Alpes-Côte d'Azur, le Jeudi 22 Septembre 2022 à 12h52  
On est quand même sur une grosse fumisterie chez Nvidia.
Le RT c'est jolie mais question latence on repassera, et le DLSS pour ceux qui aiment jouer avec du FLOU partout. Le NVENC je m'en fout , je stream pas. et les autres blablatures ne sont là que pour remplir la feuille blanche.
Bref, vivement les tests sur la rasterisation pur, et les seuls bénéfices concerne l'explosion du cache ( pourquoi ne pas l'avoir fait avant ? ) et la montée en fréquence grâce à l'optimisation de la gravure de TSMC. On est bien d'accord que les prix sont fait que pour rassurer les actionnaires, vu la débâcle du minage mais surtout le cout de l'abandon du rachat d'ARM.
par Jemporte, le Mercredi 21 Septembre 2022 à 22h09  
par Un #ragoteur connecté d'Occitanie, le Mercredi 21 Septembre 2022 à 13h59
Tout à fait. Une carte de niche intéressante pour le rendu GPU 3D par exemple ou les drivers n'ont pas d'importance mais la quantité de mémoire oui. La plupart des moteurs d'aujourd'hui peuvent utiliser en partie la mémoire centrale du PC donc c'est moins pertinent.
Un pro peut valoriser et amortir la carte au travers du travail qu'elle fournit (comme les ex mineurs :troll contrairement à un pur joueur.
C'est clair que pour un joueur standard, une 3090 ou une 6900 n'a aucun intérêt. Je trouve quand même que la RTX 3070 aurait pu avoir plus de vram pour cibler les joueurs dépensiers, et que même la 3080 (même GPU que la 3090) est overkill, mais ok niveau Vram. La 3070 tout comme la 6700Xt peut jouer en 4K.

Actuellement le grand luxe c'est probablement de jouer sur un grand écran large en 1440x5120 à 144 FPS. Pas besoin d'une 3090 pour y avoir accès, mais une 3090 jouera sur tous les jeux actuels très bien en détails hauts. Du coup avec Lovelace et RDNA3, les cartes milieu de gamme le feront : la 7600XT et la 4070. Actuellement je dirais que le niveau max de cartes moyennes est atteint sur du 1440x3440 à savoir plus de 100fps en général et au moins 60FPS avec un niveau de détails hauts.
par Un ragoteur sans avis du Grand Est, le Mercredi 21 Septembre 2022 à 22h08  
par Scrabble, le Mercredi 21 Septembre 2022 à 20h53
On n'est pas rendu
Jensen Huang répète ce que je dit depuis pas mal de temps :
La loi de Moore est morte
Tu parles. Qu'est-ce qu'il y connait? C'est un financier, pas un ingénieur. Moore n'a jamais parlé en $$$.
C'est juste une excuse pour ne pas avoir à rogner sur ses marges. Ça n'aurait pas été Moore, ça aurait été la faute Pitt, Bradley, Morisson ou un autre

AMD vend beaucoup moins de cartes et se fait des marges nettement moins généreuses sur chaque chip livré. Et pourtant ils arrivent au même niveaux d'investissements qu'Intel et NVidia réunis.
C'est normal, eux ils doivent suivre la loi de Stéphianie
par Un adepte de Godwin en Neuchâtel, le Mercredi 21 Septembre 2022 à 21h42  
par Scrabble, le Mercredi 21 Septembre 2022 à 20h53
On n'est pas rendu
Jensen Huang répète ce que je dit depuis pas mal de temps :
La loi de Moore est morte
Si il faisaient pas des gpu trop gros aussi