COMPTOIR
  
register

Deux versions pour la RTX 4090 ?

Il est compliqué de s'y retrouver. Il faut dire que la sphère Twitter dit les choses comme elle les sait, et la vérité du moment n'est plus celle du lendemain, parfois il s'agit juste d'une rumeur qui se mord la queue, Nicolas a essayé et il est tombé du canapé en faisant comme ladite rumeur ! Mais au gré des jours/mois qui passent, les choses ont tendance à se préciser, et c'est ce qui pourrait bien se passer au sujet de la RTX 4090. Au départ, on entendait des consommations de l'ordre de 900 W. puis ce fut 600 W, et enfin 450 W. Récemment, les bruits de couloir ont donné l'AD102, soit le GPU censé animer cette RTX 4090, à 800 W dans sa version la plus complète, ce qui n'est pas raisonnable dans le cadre d'une carte grand public, même si c'est une niche dans ce marché. Comment passer de 450 W de la RTX 3090 Ti à 800 W, ce n'est commercialement pas raisonnable, et ça laisse dubitatif. Dans un cadre semi-pro, ça peut s'entendre si une carte de 800 W met une fessée à deux cartes de 450 W. De plus AMD a déclaré que les cartes pourraient consommer 700 W, mais pas de suite.

 

Alors voilà que l'on retrouve en ce beau soleil d'été une rumeur venant de Chiphell, qui pourrait ne pas être aussi saugrenue que ça. Il y aurait en fait deux versions de la RTX 4090. Une aurait un TDP de 450 W, qui pourrait s'accommoder de blocs de 850 W voire moins, et un TDP de 600 W, pour ceux qui auraient un bloc d'alimentation de 1000 W par exemple. Entre ces deux versions, NVIDIA pourrait graduer les performances et générer artificiellement des gammes à partir du même GPU, mais seulement par l'enveloppe de consommation. Celui lui assurerait également un minimum de pertes sur des dies très gros, histoire de ne pas avoir trop de pertes par wafer. Tout ça n’est que des suppositions, mais c'est à ne pas oublier lorsque les verts feront leur annonce. Si la RTX 4090 est pressentie pour octobre, son lancement type paper launch pourrait très bien intervenir en septembre également. Vivement une éclaircie que la lumière soit une bonne fois pour toutes ! Mais plus on s'approche du terme et plus les choses se précisent... Toujours !

 

nvidia new longeur

Un poil avant ?

AFOX fait enregistrer des tas de noms Lovelace et RDNA 3

Un peu plus tard ...

Les Fantasy chinoises débarquent le 3 août prochain

Les 10 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Jemporte, le Samedi 30 Juillet 2022 à 13h12  
par ohe en Ontario, le Mercredi 27 Juillet 2022 à 23h36
La France est (etait) plutot bien placé sur la production d'électricité, mais dans le monde, les centrales au gaz c'est assez courant, et tu peux le voir dans la hausse des prix en fait.
On a fermé inutilement des centrales, et l'EPR a été mené de main de maître pour faire foirer le projet.
Le mini-réacteur prôné par Macron est une bêtise car nécessite de l'uranium trop fortement enrichi.
Et la moitié des centrales en réparation d'EDF, le sont parce qu'EDF ne les a pas entretenu puisqu'on les lui demandait de les fermer jusqu'en 2025 pour rabaisser notre production nucléaire, on ne comprend pas bien pourquoi...
Conclusion : probables coupures électricité cet hiver, peut-être pas pour les particuliers mais certainement pour l'industrie qui n'en avait pas besoin de ces coupures...
Par ailleurs on a décidé de partager les déboires des allemands et leur gaz 100% dépendant des russes, alors que c'est eux qui exigeaient qu'on ferme nos centrales nucléaires, et par ailleurs faisaient des économie avec le gaz russe sans réfléchir à leur indépendance...

L'Absurdistan c'est le nouveau nom de la France.
par Jemporte, le Samedi 30 Juillet 2022 à 12h55  
par Un adepte de Godwin de Bretagne, le Mercredi 27 Juillet 2022 à 14h59
On t'as reconnu Jeannot

Voyons ce que dit HFR
423 w pour la 9800 GX2 ( bi gpu pou rappel )
371w pour la 8800 ultra
oh mais regarde juste au dessus du tableau. C'est écrit " Ces données sont obtenues à partir des mesures effectuées à la sortie de la prise de courant : il s'agit donc de la consommation totale de l'alimentation de la machine "
test 9800 GX2 HFR
Quand il s'agit de s'enfoncer t"es imbattable
Non c'est pas moi. Pour moi, c'est connecté, signé, contrairement à toi, lâche !
Je savais même pas que ces cartes Nvidia consommaient autant. Je regardais plutôt du côté des Radeon bi-GPU dont certaines avaient été testé par 2...
Mais c'est vrai qu'il y a avait des Titan qui consommaient chez Nvidia, sur architecture Kepler et avant..
par ohe en Ontario, le Mercredi 27 Juillet 2022 à 23h36  
par Darth Moule, le Mercredi 27 Juillet 2022 à 13h39
Même l'époque des belles GTX 400 et autre HD4870x2 on consommait pas autant
un petit lien tout mignon
et pourtant la GTX480 de mémoire, on disait que c'était un gouffre.
heureusement que nos PC ne tournent pas au gaz... on serait mal
La France est (etait) plutot bien placé sur la production d'électricité, mais dans le monde, les centrales au gaz c'est assez courant, et tu peux le voir dans la hausse des prix en fait.
par Un hardeur des ragots en Île-de-France, le Mercredi 27 Juillet 2022 à 17h28  
par Un adepte de Godwin de Bretagne, le Mercredi 27 Juillet 2022 à 14h59
On t'as reconnu Jeannot

Voyons ce que dit HFR
423 w pour la 9800 GX2 ( bi gpu pou rappel )
371w pour la 8800 ultra
oh mais regarde juste au dessus du tableau. C'est écrit " Ces données sont obtenues à partir des mesures effectuées à la sortie de la prise de courant : il s'agit donc de la consommation totale de l'alimentation de la machine "
test 9800 GX2 HFR
Quand il s'agit de s'enfoncer t"es imbattable
Raté c'est pas Jeannot! Oui j'ai vu que c'était la conso de la machine mais après coup! Mon propos était juste de rappeler que des cartes qui avait fait des bons de consommation il y en a eu et pas que dans les Bi GPU comme les cartes avant Kepler sur le bureau de Windows ,ou plus ancien la fx5800.
Je parle pas d'AMD n'ayant jamais trop suivie leur carte et il faut garder en tête que l'on ne peut pas comparer des cartes de 10 ans d'âge avec des RTX sur leur consommation ! Il y a quand même un réel bon technologique! C'est comme comparer des chaussures de ville avec des Nike ! Mais je dis pas que c'est normal je dis juste que c'est transitoire a mon avis.

Je l'avais déjà écrit mais je doute que Microsoft et Sony voit d'un bon oeil l'envolée de la consommation, nul doute que NVIDIA et AMD travaillent sur ce point.
par Un adepte de Godwin de Bretagne, le Mercredi 27 Juillet 2022 à 14h59  
On t'as reconnu Jeannot

Voyons ce que dit HFR
423 w pour la 9800 GX2 ( bi gpu pou rappel )
371w pour la 8800 ultra
oh mais regarde juste au dessus du tableau. C'est écrit " Ces données sont obtenues à partir des mesures effectuées à la sortie de la prise de courant : il s'agit donc de la consommation totale de l'alimentation de la machine "
test 9800 GX2 HFR
Quand il s'agit de s'enfoncer t"es imbattable
par Un hardeur des ragots en Île-de-France, le Mercredi 27 Juillet 2022 à 14h40
La 9800x2 était à un peu plus de 400w en charge la 3870x2 a 399w quand la 8800 ultra était à 371w alors on est au delà c'est vrai mais ce n'est pas la première fois qu'on voit de grosse consommation !

Comparer les cartes de plus de 10 ans d'âge avec celle qui vont sortir c'est un peu too much le niveau de performance est tout autre aujourd'hui !

Moi je le redis on est sur des gens de transition avant d'avoir des cartes qui reviennent à des consommations acceptable !
par Un hardeur des ragots en Île-de-France, le Mercredi 27 Juillet 2022 à 14h40  
La 9800x2 était à un peu plus de 400w en charge la 3870x2 a 399w quand la 8800 ultra était à 371w alors on est au delà c'est vrai mais ce n'est pas la première fois qu'on voit de grosse consommation !

Comparer les cartes de plus de 10 ans d'âge avec celle qui vont sortir c'est un peu too much le niveau de performance est tout autre aujourd'hui !

Moi je le redis on est sur des gens de transition avant d'avoir des cartes qui reviennent à des consommations acceptable !
par Un ragoteur qui pipotronne de Bretagne, le Mercredi 27 Juillet 2022 à 13h59  
En bi gpu on a eu des gros grilles pains comme les 6990 et 7990 (350w) mais la palme revenait à la 295x et ses 550w

Donc en gros on nous annonce des mono gpu qui pompent plus que des crossfire/SLI d'il y a 10 et Jean Vélux nous explique que c'est un progrès
par Darth Moule, le Mercredi 27 Juillet 2022 à 13h39  
Même l'époque des belles GTX 400 et autre HD4870x2 on consommait pas autant
un petit lien tout mignon
et pourtant la GTX480 de mémoire, on disait que c'était un gouffre.
heureusement que nos PC ne tournent pas au gaz... on serait mal
par Un ragoteur qui pipotronne de Bretagne, le Mercredi 27 Juillet 2022 à 13h25  
par Jemporte, le Mercredi 27 Juillet 2022 à 12h18
Petite progression. Rien d'astronomique. Des cartes de 375W de TDP on en avait il y a 10 ans et on en montait même en double voire plus (cossfire ou sli), ce qu'on ne pratique plus.
Non, pas en mono gpu
Encore une fois, vous délirez complètement mon pov Jean Fenêtre

Les premières cartes qui tapaient de genre de TDP c'est les 390x custom et plus tard la vega64 custom
Même la FuryX et son AIO ne consommait pas autant
Et chez Nvidia des TDP > à 300w c'est plutôt récent. Avec les grosses Turing sur le vieillissant 12nm de TSMC

C'est fascinant la quantité de bullshit que vous êtes capable de débiter. Comment vous faites ? La France veut savoir
par Jemporte, le Mercredi 27 Juillet 2022 à 12h18  
Moi, les infos (récentes) que j'ai lu des leakers à droite à gauche, c'est 450W de TDP pour la 4090, 600W pour la Ti mais j'ai aussi lu 800W et aussi 900W en pic (il faut donc avoir une alim robuste qui supporte mais ce n'est pas la conso max dans la durée). les deux ne sont pas incompatibles.

Après AMD a parle de 700W de TDP éventuels pour 2024 (donc prochaine gen). Sur son tableau on pouvait voir des points placés au max aux environs de 400/450WW pour aujourd'hui. Donc 7900XT ou Navi 31 à 450W voire 400W max de TDP.

Petite progression. Rien d'astronomique. Des cartes de 375W de TDP on en avait il y a 10 ans et on en montait même en double voire plus (cossfire ou sli), ce qu'on ne pratique plus.

La grosse info c'est quand même que Nvidia et AMD ne se font plus la course et Nvidia stabilisé son GPU en 5nm et un nombreu d'unités inférieur aux spéculations du début, qui auraient littéralement fait exploser les perfs et obligé AMD a mettre la gomme en terme de watts pour pas trop se faire distancer.