COMPTOIR
register

La RTX 4080 aurait encore changé... Et une option TITAN désormais sur la table ?

Les spécifications n'ont de cesse d'évoluer avec les partages réguliers des « leakers » habituels, qui mettent aussi à jour leurs propos en fonction des dernières informations supposément obtenues de leurs sources. Ce que l'on apprend aujourd'hui c'est que la future RTX 4080 n'aurait à présent plus un nombre de CUDA Cores compris entre 10240 et 10752, mais « seulement » 9728, soit une réduction de 10 % ! Pas de panique, ceci n'aurait toutefois pas affecté son score estimé sous TimeSpy. Quant aux autres spécifications, elles resteraient également inchangées : puce AD103-300-A1, 16 Gio de GDDR6X 21 Gb/s sur bus 256-bit et un TBP de 420 W.

 

En parallèle, kopite7kimi a aussi partagé que la RTX 4090 posséderait un cache L2 légèrement réduit, qu'un AD103 complet aurait un cache L2 de 64 Mio, tandis qu'un AD104 (découvert récemment) en aurait un de 48 Mio - des chiffres qui collent avec ceux des fuites de début d'année. En sachant que selon les dernières informations, les RTX 4080 et RTX 4070 auraient respectivement 48 et 36 Mio, on devine donc qu'il y aurait potentiellement de la place pour des versions Ti de ces deux modèles avec des puces complètes.

En plus de cela, le twittos a aussi suggéré que la marque TITAN pourrait faire son grand retour dans la gamme sous une forme ou une autre et qu'une RTX 40 TITAN pourrait ainsi exploiter un AD102 complet ou quasi complet, ce qui semble rejoindre cette rumeur qui portait sur deux versions de la RTX 4090. Alors, TITAN ou « simple » RTX 4090 Ti ? Mystère... En tout cas, les compères publieurs d'informations officieuses ont essayé d'imaginer aux mieux les spécifications d'une telle carte, qui, aux vues de celles-ci, serait un véritable monstre ! 

 

 

Il faut évidemment garder en tête que tout ceci reste très largement hypothétique et parfaitement officieux, quand bien même l'auteur des fuites du jour a une assez bonne réputation. À défaut, ceci suggèrerait tout au plus que NVIDIA serait encore en train de finaliser sa gamme et ses spécifications, potentiellement en reclassant certains modèles, en fonction des besoins estimés face à la future concurrence et des projets pour la suite (modèles Ti, refresh, etc.), mais éventuellement aussi pour mieux s'adapter aux rendements effectifs obtenus à la production. 

 

nvidia titan rtx face

Un poil avant ?

L'"affaire" Intel Meteor Lake et N3 : circulez, y'a rien à voir ?

Un peu plus tard ...

L'A380 décolle timidement chez MSI

Les 25 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur bio embusqué, le Mercredi 10 Août 2022 à 21h45  
Je sais que je suis HS mais je viens voir sur mon gpu-z que ma RTX 3060 (GA104) possède 64 ROP au lieux des 48 ROP. Je suis un chanceux ou simplement un bug de gpu-z ???

J´ai pas verifié à 100% mais j´ai l´impression à la louche que sur le bench de superposition de Unigine le score (+/- 8000) est plus élevé que les autres RTX 3060 ??

Quelqu' un confirme ??
par Un rat goth à l'heure en Provence-Alpes-Côte d'Azur, le Mercredi 10 Août 2022 à 21h43  
par Scrabble le Mardi 09 Août 2022 à 07h23
Bah attend au moins les tests pour être déçu
Bon, déjà, elle aura 16 Go de VRAM au lieu de 12, c'est une bonne avancée
Aucun jeu ne sature une 3080 Ti au niveau ram, 12go c'est largement suffisant à moins de vouloir jouer en 8k.....
par Un ragoteur sans avis du Grand Est, le Mardi 09 Août 2022 à 19h34  
par Un ragoteur blond de Bretagne le Mardi 09 Août 2022 à 16h05
C'est pas plutôt l'inverse ?
Alors chez NVidia, oui, les L1 se trouvent peut-être plutôt après les ROPs, quelque part à l'intérieur des GPC. Mais entre les ROPs et la DRAM, il y a le gros L2, pile ce qu'NVidia a prévu d'augmenter.

AMD avait publié une slide intéressante, montrant l'impact de la taille des caches sur les performances (ici, les occasions évitées de devoir aller quémander auprès cette flemmarde de RAM).
On voit bien qu'au bout d'un certain moment, ça ne sert plus beaucoup de l'augmenter sans fin. De toute évidence, les goulots d'étranglements finissent pas se déplacer ailleurs (BP GDDR, L2, L1, nombre de CU et/ou leur perf individuelles, ou tout simplement, pas assez de taf à faire/cpu limited)
par Un ragoteur blond de Bretagne, le Mardi 09 Août 2022 à 16h05  
C'est pas plutôt l'inverse ?
par Un ragoteur sans avis embusqué le Mardi 09 Août 2022 à 15h49
Oui mais ce qu'il expliquait c'est que l'augmentation du L2 devrait compenser cette baisse sur l'interface GDDR.
Parce qu'entre ta RAM et les ROPs, il y a bien les caches L1 et L2 (et maintenant L3 avec AMD), tous bien plus rapides que la GDDR.
Donc si ils sont suffisamment gros pour pouvoir bufferiser assez de donnée de la RAM quémandées par les ROPs, ça pourrait être suffisant pour compenser les réductions de l'interface, et mal-gré tout permettre une amélioration globale des performances de la mémoire vidéo.
C'est ce qu'a montré AMD avec son Infinity Cache (L3).
La bande passante GDDR est une chose, mais lorsque Scrabble parlait de "performances de la mémoire vidéo", il voyait ça plus largement.

Finalement, que l'ont intervienne sur le L1, le L2, le L3 ou sur la GDDR, cela relève toujours de la même stratégie, ce ne sont que des réglages, suivant où se trouvent les goulots d'étranglements sur son architecture.
Chaque constructeur fait ses choix.
par Un ragoteur sans avis embusqué, le Mardi 09 Août 2022 à 15h49  
par Un ragoteur des lumières de Bretagne le Mardi 09 Août 2022 à 14h20
Multiplie la fréquence ddr effective de la mémoire par la largeur du bus et divise le tout par 8 ( 1 octet = 8bits )
Multiplie le résultat par 2, divise le tout par 1000 et tu obtiens ta bande passante en Go/s

Tu peux essayer avec toutes les cartes, ça marche à tous les coups

ça te va ?
Oui mais ce qu'il expliquait c'est que l'augmentation du L2 devrait compenser cette baisse sur l'interface GDDR.
Parce qu'entre ta RAM et les ROPs, il y a bien les caches L1 et L2 (et maintenant L3 avec AMD), tous bien plus rapides que la GDDR.
Donc si ils sont suffisamment gros pour pouvoir bufferiser assez de donnée de la RAM quémandées par les ROPs, ça pourrait être suffisant pour compenser les réductions de l'interface, et mal-gré tout permettre une amélioration globale des performances de la mémoire vidéo.
C'est ce qu'a montré AMD avec son Infinity Cache (L3).
La bande passante GDDR est une chose, mais lorsque Scrabble parlait de "performances de la mémoire vidéo", il voyait ça plus largement.

Finalement, que l'ont intervienne sur le L1, le L2, le L3 ou sur la GDDR, cela relève toujours de la même stratégie, ce ne sont que des réglages, suivant où se trouvent les goulots d'étranglements sur son architecture.
Chaque constructeur fait ses choix.
par Un ragoteur des lumières de Bretagne, le Mardi 09 Août 2022 à 14h20  
par Un ragoteur sans avis embusqué le Mardi 09 Août 2022 à 10h16
Tu dis non mais tu n'as rien démontré.
Multiplie la fréquence ddr effective de la mémoire par la largeur du bus et divise le tout par 8 ( 1 octet = 8bits )
Multiplie le résultat par 2, divise le tout par 1000 et tu obtiens ta bande passante en Go/s

Tu peux essayer avec toutes les cartes, ça marche à tous les coups

ça te va ?
par Un ragoteur sans avis embusqué, le Mardi 09 Août 2022 à 10h16  
par Un ragoteur des lumières de Bretagne le Lundi 08 Août 2022 à 23h43
Non
La bande passante c'est la fréquence de la mémoire ET la largeur du bus
Mais il y a un 3e facteur dans l'équation. Le nombre de ROPs
S'il n'influe pas sur les valeurs de bande passante " théoriques " en pratique par contre c'est un facteur très important
Tu dis non mais tu n'as rien démontré.
par Scrabble, le Mardi 09 Août 2022 à 07h23  
par Deus le Mardi 09 Août 2022 à 04h57
Puis, quand bien meme la RTX 4080 serait un poil plus performante que la 3080 Ti, c'est quand meme hyper decevant...
Bah attend au moins les tests pour être déçu
Bon, déjà, elle aura 16 Go de VRAM au lieu de 12, c'est une bonne avancée
par Un hardeur des ragots en Île-de-France, le Mardi 09 Août 2022 à 06h29  
par ockiller en Auvergne-Rhône-Alpes le Mardi 09 Août 2022 à 05h44
Il existe une vieille méthode de rendu qui consiste à subdiviser la géométrie jusqu'à ce que les polygones soient plus petit qu'un pixel, puis le shading se faisait par vertex/polygone [...]
Cela fait plaisir d'apprendre des choses intéressantes le matin via les commentaires, merci !
par ockiller en Auvergne-Rhône-Alpes, le Mardi 09 Août 2022 à 05h44  
par Un ragoteur des lumières de Bretagne le Lundi 08 Août 2022 à 23h35
Des micros polygones ?
Dites en plus
Il existe une vieille méthode de rendu qui consiste à subdiviser la géométrie jusqu'à ce que les polygones soient plus petit qu'un pixel, puis le shading se faisait par vertex/polygone (Reyes rendering). C'était beaucoup utilisé par Pixar avant qu'ils ne transitionnent au lancer de rayons plus lent.

Les GPU sont assez inefficaces avec des petits triangles. Les pixels sont toujours générés par 4 (2x2), dès qu'un est touché par un triangle, ça va forcément exécuter le shading pour les 3 autres, même s'ils ne sont pas visibles. Ca occasionne beaucoup de déchet sur les arêtes des triangles, et avec des triangles de ~1 pixels, on n'a que 25% du boulot qui est utile (c'est pire avec du MSAA, chaque échantillon va allumer un pixel quad, donc avec un triangle par échantillon en MSAA 4x, on exécute 16x plus de pixels shaders que nécessaire).

Ajouté à ça les rasterizers des GPU peuvent générer 16 pixels par triangles par cycle (sur nVidia depuis Maxwell), avec des triangles plus petits, on ne les exploite pas à fond, ce qui peut brider le débit en pixels du GPU (quand le pixel shader est suffisemment léger pour ne pas saturer autre chose).

Donc nVidia se serait attaqué à ce problème (pincettes !).
par Deus, le Mardi 09 Août 2022 à 04h57  
par Un ragoteur des lumières de Bretagne le Lundi 08 Août 2022 à 23h43
Non
La bande passante c'est la fréquence de la mémoire ET la largeur du bus
Mais il y a un 3e facteur dans l'équation. Le nombre de ROPs
S'il n'influe pas sur les valeurs de bande passante " théoriques " en pratique par contre c'est un facteur très important
Merci de la precision. Puis, quand bien meme la RTX 4080 serait un poil plus performante que la 3080 Ti, c'est quand meme hyper decevant... Je pense que tout cela n'est pas final.
par Un ragoteur des lumières de Bretagne, le Lundi 08 Août 2022 à 23h43  
par Scrabble le Lundi 08 Août 2022 à 20h37
Tu n'as pas compris mon premier post : Le fait qu'il y ait 64 Mo de cache L2, a pour conséquence d'augmenter fortement les performances de la mémoire vidéo
La bande passante mémoire de 678.4 GB/s, c'est celle de la GDDR6X, mais la bande passante du cache L2 est bien supérieure : Cela compense donc largement le passage d'un bus de 384 bits à un bus de 256 bits
Non
La bande passante c'est la fréquence de la mémoire ET la largeur du bus
Mais il y a un 3e facteur dans l'équation. Le nombre de ROPs
S'il n'influe pas sur les valeurs de bande passante " théoriques " en pratique par contre c'est un facteur très important