COMPTOIR
  
register

Enfin un point positif pour la GeForce RTX 5080, alors que la RTX 5070 déconcerte

Fin septembre, le leaker kopite7kimi a publié les prétendues caractéristiques des GeForce RTX 5090 et RTX 5080. Alors que la première affiche des spécifications démesurées, la seconde fait un peu de la peine : elle marque des évolutions très timides par rapport à la GeForce RTX 4080, lesquelles sont assorties d’une quantité de VRAM désespérément bloquée à 16 Go. Depuis cette publication, de l’air a circulé sous les PCB. Une rumeur a suggéré le lancement ultérieur d’une RTX 5080 mieux dotée en mémoire vidéo dédiée (mais pour cela, il faudrait patienter jusqu'à l'arrivée de puces GDDR7 de 24 Gbit) ; désormais, c’est au tour de WCCFTech d’apporter ses pierres à cet édifice de rumeurs ; l'une d'elles est cachetée « 32 Gbit/s ».

nvidia geforce rtx 5080 gpu 32 gbps gddr7 memory

Une RTX 4080 FE en mode RTX 5080 © WCCFTech

RTX 5080 : 16 Go, mais à 32 Gbit/s ?

D’après notre confrère Hassan Mujtaba, lequel cite des informations glanées auprès de « ses propres sources », NVIDIA privilégiera la qualité à la quantité pour la GeForce RTX 5080 : selon lui, l’entreprise l’équipera bien de 16 Go de GDDR7, mais avec des puces cadencées à 32 Gbit/s et non à 28 Gbit/s comme précédemment suspecté. Cette mémoire plus véloce ferait donc passer la bande passante de 896 Go/s à 1024 Go/s, soit un débit (très) légèrement supérieur à celui de la GeForce RTX 4090 (1008 Go/s). Quant à la RTX 5090, elle resterait sur de la VRAM à 28 Gbit/s.

Pour le reste, pas de changements. L’article de notre confrère confirme le recours au GPU GB203-400 avec 84 processeurs de flux activés, soit 10 752 cœurs CUDA. Par rapport aux 170 SM / 21 760 cœurs de la RTX 5090, cela représente une baisse de 50,6 % ; elle est plutôt de 40,6 % entre la GeForce RTX 4090 et la RTX 4080.

En matière de TBP, l’article de notre confrère étaye les 400 W pour la RTX 5080 et les 600 W pour la RTX 5090. Ces puissances correspondent à des augmentations de respectivement 25 % et 33 % par rapport aux cartes Ada Lovelace de même rang.

La RTX 5070 aussi attendue en janvier, mais espérons une mauvaise blague

L’article source évoque aussi une carte graphique restée discrète jusqu’ici : la GeForce RTX 5070. Selon notre confrère, NVIDIA présentera finalement cette référence au côté de RTX 5080 et RTX 5090 lors du CES 2025, mais la commercialisera plus tardivement. Il ne renseigne pas des caractéristiques aussi détaillées que pour les RTX 50 précitées, mais évoque un GPU GB205 comprenant au mieux 50 SM / 6 400 cœurs CUDA ; un TBP de 250 W ; seulement 12 Go de VRAM exploités via un bus de 192 bits. Autant dire que ce n'est pas fou.

NVIDIA a annoncé récemment que Jensen Huang prononcerait un discours le lundi 6 janvier à 18 h 30 dans le cadre du CES 2025. Il y a fort à parier que le PDG arborera fièrement une veste en cuir sur ses épaules et quelques cartes graphiques dans les mains.

Carte graphiqueRTX 5090RTX 5080RTX 5070RTX 4090RTX 4080RTX 4070
SKU PG144/145 SKU 30 PG144-147 SKU 45 PG147 SKU ? PG139 SKU 330 PG139 SKU 360 PG141 SKU 344
GPU Blackwell
GB202-300
Blackwell
GB203-400
Blackwell
GB205
Ada Lovelace
AD102-300
Ada Lovelace
AD103-300
Ada Lovelace
AD104-250
Processeurs de flux 170 (192 max pour le GPU) 84 (84 max pour le GPU) À déterminer (50 max pour le GPU ?) 128 76 46
Cœurs CUDA 21 760 10 752 À déterminer 16 384 9 728 5 888
VRAM 32 Go GDDR7 16 Go GDDR7 12 Go GDDR7 24 Go GDDR6X 16 Go GDDR6X 12 Go GDDR6X
Vitesse mémoire 28 Gbit/s 32 Gbit/s À déterminer 21 Gbit/s 22,4 Gbit/s 21 Gbit/s
Bus mémoire 512-bit 256-bit 192-bit 384-bit 256-bit 192-bit
Bande passante mémoire 1792 Go/s 1024 Go/s À déterminer 1008 Go/s 717 Go/s 504 Go/s
TGP 600W 400W 250W 450W 320W 200W
Connecteurs 3x DP 2.1a, 1x HDMI 2.1 3x DP 2.1a, 1x HDMI 2.1 3x DP 2.1a, 1x HDMI 2.1 3x DP 1.4a, 1x HDMI 2.1 3x DP 1.4a, 1x HDMI 2.1 3x DP 1.4a, 1x HDMI 2.1
Interface PCIe PCIe 5.0×16 PCIe 5.0×16 PCIe 5.0×16 PCIe 4.0×16 PCIe 4.0×16 PCIe 4.0×16
Date de présentation Janvier 2025 Janvier 2025 Janvier 2025 Septembre 2022 Septembre 2022 Avril 2023

Vous pouvez consulter l'article de WCCFTech (mais vous n'y apprendrez rien de plus) en suivant le lien.
Un poil avant ?

Core Ultra 9 285K : plus efficient que le Core i9-14900K, mais pas meilleur, prévient Intel

Un peu plus tard ...

Les ordinateurs IA ne galvanisent pas les ventes

Les 19 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Un ragoteur blond d'Occitanie, le Lundi 21 Octobre 2024 à 00h34  
En fait, je crois que ca ne sert à rien de spéculer sur les RTX5070 : Même Nvidia ne dois pas savoir exactement les specs, mais a tout intérêt à lancer des rumeurs sur une carte faiblarde :
La RTX5070 concurencera la RX8800xt, donc Nvidia aura tout intérêt à ce qu'elle la surperforme.
Mais comme au poker, ça joue du bluff pour inciter AMD à lancer une carte moins perf. Si AMD pense que Nvidia lance une RTX5700 "pourrie", AMD pourra tenter de jouer sur ses marges en abaissant la puissance.

Dans tous les cas, Nvidia ne connait pas les perf de la RX8800xt, Nvidia prendra sa décision finale quand il connaitra les perf de son concurent.

Et ceux qui pensent que Nvidia ne peut pas changer les perfs de sa carte au dernier moment, il lui suffit juste d'upgrader le BIOS, ca ne prend pas des plombes non plus.
Côté matériel il ne pourra rien changer, donc j'imagine que ce sera soit 16go associé à 192bits, soit 12go associé à 256bits. Je vois plus 12go 128bits pour que lorsqu'il lancera la version ti il pourra ajouter 4Go, pour le noobie ca aura plus un effet "wouahou" que de passer de 192 à 256b)

Voilà, vous connaissez tous les secret du marketing hardware
par lerevolteur83, le Vendredi 11 Octobre 2024 à 21h49  
par Unragoteursansespace des Hauts-de-France, le Jeudi 10 Octobre 2024 à 18h12
Je ne sais pas si c'est une stratégie qui fonctionne vraiment. Les GPU milieu de gamme sont déjà chers, donc essayer de "forcer" les clients à acheter le modèle très cher ça peut aussi résulter en un non-achat, d'autant plus que les RTX 4000 et 3000 tiennent encore bien la route.
Ils savent jouer sur la corde sensible, donner volontairement des caractéristiques peu alléchantes voir avec un gros défaut, ça existe partout : "mais vous savez ma ptite dame, si vous prenez le modèle au dessus vous aurez également tel ou tel option supplémentaire".
par Un #ragoteur connecté des Hauts-de-France, le Vendredi 11 Octobre 2024 à 21h18  
En vrai la RTX 5080 devrait avoir 75% des coeurs CUDA de la RTX 5090. Ca laisserait un gap conséquent qui justifie le passage au très haut de gamme si le besoin de perfs supplémentaires se fait sentir. Mais une différence du simple au double entre le haut de gamme et le très haut de gamme ! C'est indécent, et ça se retrouve même au niveau de la VRAM.
par Un champion du monde embusqué 📱, le Vendredi 11 Octobre 2024 à 16h28  
par Un ragoteur des lumières d'Occitanie, le Vendredi 11 Octobre 2024 à 15h13
5080
+10% cuda cores
+25% Watts
Va falloir vous mettre en tête que depuis les rtx4000 NVIDIA met plus de tensor core que de mesh shader, il commence mm à réduire le nb de mesh shader
C est de moins en moins des carte "graphique" que vous achetez
Le produit d appel de ient de plus en plus ce qui historiquement chez NVIDIA s appelait les "quadro"
par Un ragoteur des lumières d'Occitanie, le Vendredi 11 Octobre 2024 à 15h13  
5080
+10% cuda cores
+25% Watts
par Unragoteursansespace des Hauts-de-France, le Vendredi 11 Octobre 2024 à 07h38  
par mrdoug, le Vendredi 11 Octobre 2024 à 06h29
Complètement faux.
En 1440p en tout cas ce n'est pas du tout le cas.
J'pense que c'est ça qu'il veut dire, il y a plein de gens qui sont encore équipés de moniteurs FullHD.
par mrdoug, le Vendredi 11 Octobre 2024 à 06h29  
par Jemporte, le Jeudi 10 Octobre 2024 à 02h43
On a vu que pour jouer 8Go suffisent.
Complètement faux.
En 1440p en tout cas ce n'est pas du tout le cas. Par exemple l'extension de Diablo 4 prend 14go de ram. La plupart des jeux récents dépassent les 10go sur ma RTX 4080 super.
Le comble c'est quand tu actives le frame generation, ça va prendre encore plus de vram, donc exit les cartes graphiques milieu de gamme avec 8 go alors que le FG est normalement plutôt destiné aux cartes d'entrée de gamme.
par Unragoteursansespace des Hauts-de-France, le Jeudi 10 Octobre 2024 à 18h12  
par lerevolteur83, le Jeudi 10 Octobre 2024 à 14h27
Comme d'hab la stratégie c'est de rendre le milieu de gamme peu attractif pour inciter les joueurs à acheter la gamme xx80.
Je ne sais pas si c'est une stratégie qui fonctionne vraiment. Les GPU milieu de gamme sont déjà chers, donc essayer de "forcer" les clients à acheter le modèle très cher ça peut aussi résulter en un non-achat, d'autant plus que les RTX 4000 et 3000 tiennent encore bien la route.
par Un champion du monde embusqué 📱, le Jeudi 10 Octobre 2024 à 17h21  
par Jemporte, le Jeudi 10 Octobre 2024 à 02h43
On a vu que pour jouer 8Go suffisent. ...
Absolument pas des avis des techno mise en avant en 1440p paie t es 1% avec des drop toutes les Xx secondes en 1440p
Tu va ptet accepter ça sur un jeu type tomb raider vu qu on accepte toujours plus des jeux pas finit, en kit, buggé de partout et toujours plus cher car les clients sont masochiste

Mais dans un jeu de bagnole par exemple tu va vite péter un plomb si ta caisse freeze toute les 20sec

Alors ne parlons mm pas raytracing... C est juste un gars de laissé "RTX" dans le nom de la carte quand elle n a que 8GB
par lerevolteur83, le Jeudi 10 Octobre 2024 à 14h27  
Comme d'hab la stratégie c'est de rendre le milieu de gamme peu attractif pour inciter les joueurs à acheter la gamme xx80. AMD l'a fait sur les ryzen 5000 en ne sortant pas le 5700x par exemple.
Ca laisse un gouffre énorme pour mettre de la Ti/SUPER qui va rebooster les ventes.
Ensuite Nvidia arrive en sauveur pour dire : Hé vous avez été déçus des performances de la 5070, pour vous en exclusivité nous avons la toute nouvelle 4070ti avec +x% de perfs et plus de vram, achète ma merde !!!
par Un ragoteur qui draille des Pays de la Loire, le Jeudi 10 Octobre 2024 à 08h23  
par heurle, le Jeudi 10 Octobre 2024 à 08h09
Le coté positif de tout ça est que les GPU actuels ne sont pas prêts de prendre leur retraite.
Le gap n'etant pas dingue de gen en gen, avant, je sautais une gen, je pense que je vais en passer 2 voir 3 maintenant.
Franchement, je ne suis pas convaincu par le DLSS FSR et autres RT, je ne pense pas que l'IA sera la providence tant attendue pour les joueurs, pour les pros, attendons encore pour voir.
c'est surtout la providence pour les studios de développement qui passent moins de temps sur l'optimisation !

quand a la 5070, 50w de plus pour si peu d'amélioration sur le papier, c'est un peu bizarre quand même
par heurle, le Jeudi 10 Octobre 2024 à 08h09  
Le coté positif de tout ça est que les GPU actuels ne sont pas prêts de prendre leur retraite.
Le gap n'etant pas dingue de gen en gen, avant, je sautais une gen, je pense que je vais en passer 2 voir 3 maintenant.
Franchement, je ne suis pas convaincu par le DLSS FSR et autres RT, je ne pense pas que l'IA sera la providence tant attendue pour les joueurs, pour les pros, attendons encore pour voir.