COMPTOIR
  
register

La RTX 4090 estimée sous Time Spy Extreme

Revoilà les prédictions de maitre Bouliche sur les performances des futures cartes graphiques Lovelace. Globalement, on ne sait pas grand-chose, même la finesse de gravure n'est pas déterminée. Si Hopper, le GPU pro est gravé en 4 nm, Lovelace pourrait très bien taper du 5 nm. C'est également la fête du slip quand on évoque les unités de calcul, on suppose qu'elle en aura 16384 FP32, soit plus de 50 % de plus que la RTX 3090 Ti. Quant aux fréquences, on peut penser qu'elles franchiront un cap afin d'offrir un max de perfs. Bref, c'est l'histoire d'un monstre attendu, dont le TDP serait de 450 W, le même que celui de la RTX 3090 Ti, et autres RTX 3080 Ti/3090/3090 Ti custom à base de 3 prises 8 pins.

 

Ce jour, ce sont les performances GPU dans le benchmark Time Spy Extreme. Si vous n'avez pas essayé, le suffixe extrême implique de facto une définition UHD. Pour mémoire, et parce que la comparaison a du sens, la RTX 3090 Ti y tape 11400 points, quand la RTX 3090 est à 10440. Sachez que d'après la sphère Twitter, la RTX 4090 déboiterait les 19000 points, ce qui fait respectivement 66 et 82 % de plus que la RTX 3090 Ti et 3090. Évidemment rien n'est acquis ni certifié, mais quand bien même ce score serait faux, on peut s'attendre à ce genre de gains voire plus, surtout si la carte possède 50% de cuda cores de plus et des fréquences nettement supérieures à 2 Ghz, sans compter les éventuels gains d'IPC. Ce n'est pas déconnant non plus !

 

ada lovelaceMême Ada ne sait pas !

Un poil avant ?

Cabine • be quiet! silent wings 4 et silent wings pro 4

Un peu plus tard ...

Ventes de jeux vidéo : on en a gros !

Les 34 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Jemporte, le Mercredi 20 Juillet 2022 à 09h29  
par Melodic, le Mercredi 20 Juillet 2022 à 09h24
Personnellement je fait du simracing donc 3*1080p et c'est assez consommateur quand meme après c'est un usage vraiment de niche.
Pareil j'utilise aussi régulièrement un hp reverb g2 et c'est quand meme 9.3m de pixels contre 6.2 pour la 4k.
Je dit pas non à de meilleurs perf personnellement
On oublie les casques VR qui sont très demandeurs effectivement et ça vaut pour le monde pro.
par Melodic, le Mercredi 20 Juillet 2022 à 09h24  
par Un ragoteur qui draille en Nouvelle-Aquitaine, le Mardi 19 Juillet 2022 à 16h57
pas la peine d'avoir des CG aussi puissantes et chères,
pour autre chose que le jeux vidéo ok je peux comprendre
Personnellement je fait du simracing donc 3*1080p et c'est assez consommateur quand meme après c'est un usage vraiment de niche.
Pareil j'utilise aussi régulièrement un hp reverb g2 et c'est quand meme 9.3m de pixels contre 6.2 pour la 4k.
Je dit pas non à de meilleurs perf personnellement
par Jemporte, le Mercredi 20 Juillet 2022 à 09h21  
par Un ragoteur qui pipotronne en Communauté Valencienne, le Mercredi 20 Juillet 2022 à 07h15
80% de plus en une génération ça serait déjà étonnant, je vois surtout dans tes propos une grande exagération de l'influence de la finesse de gravure.
C'est pourtant ce que donne le 5nm TSMC vs le 8nm Samsung (et peut-être même pire).
Maintenant il était attendu d'avoir du 4nm.... et là c'était une toute autre affaire puisqu'on faisait plus que doubler. Pour le rappel le 8nm Samsung c'est pas le top de la qualité en tant que 10nm amélioré.

Moi j'attends quand même de voir parce que tout ça ne semble pas totalement décidé. Un 4090 en 4nm et plus d'unités ne me parait pas encore totalement remis aux oubliettes.
par Un ragoteur blond de Bretagne, le Mercredi 20 Juillet 2022 à 07h25  
par Un ragoteur qui pipotronne en Communauté Valencienne, le Mercredi 20 Juillet 2022 à 07h15
80% de plus en une génération ça serait déjà étonnant, je vois surtout dans tes propos une grande exagération de l'influence de la finesse de gravure.
C'était la norme il y a quelques années mais ça fait plusieurs gen qu'on a pas vu un tel gap en rastérisation
Jeanfenêtre se drogue c'est évident
par Un ragoteur qui pipotronne en Communauté Valencienne, le Mercredi 20 Juillet 2022 à 07h15  
80% de plus en une génération ça serait déjà étonnant, je vois surtout dans tes propos une grande exagération de l'influence de la finesse de gravure.
par Jemporte, le Mercredi 20 Juillet 2022 à 00h41
par Jemporte, le Mercredi 20 Juillet 2022 à 05h57  
par Un adepte de Godwin en Californie, le Mercredi 20 Juillet 2022 à 04h49
Ne pas oublier que ce sont encore des ES (Engineering Samples) et que tout n'est pas encore décidé... De plus les drivers ne sont pas encore totalement optimisés donc la 4090 FE pourrait très bien dépasser les 20,000 pts voire plus!
Un autre benchmark est sorti aujourd'hui avec le jeu Control en 4K Ultra + RT & DLSS et la 4090 Ti serait déjà 2x plus puissante que la RTX 3090 (non Ti) car elle obtient ~160fps. Si Nvidia optimisent encore leur performance RT + DLSS ça pourrait faire 2,5x je suis sûr ! Ampere était à +70% vs Turing donc Lovelace devrait être entre 2x et 3x vs Ampere.
Si c'est une 4090 et n'a effectivement que ces specs en 5nm, comme je le dis plus bas, elle va pas être chère. Il y'en a beaucoup qui apprécieront ce downsizing. Mais je prendrai quand même des pincettes. Celui qui tweet a fait pas mal de leaks vraies mais s'est aussi planté à plusieurs reprises. Il a clairement de bons contacts.
J'espère qu'AMD va pas suivre ce mouvement de Nvidia si ça s'avère vrai. Apparemment AMD est prêt pour essayer le coller le plus près du HDG d'abord leaké (monstrueux et en 4nm), même s'il a abaissé le nombre d'unités de calcul par chip. AMD sera limité par la conso gargantuesque que générera ses 3 chips poussés à fond, donc raisonnablement à 2.5x la 6900XT, déraisonnablement à 3x (si on s'approcherait des 700W de TDP ce qui semble pas être le cas).

Donc gravure moins bonne, moins d'unités de calcul chez Nvidia... l'année 2023 sera plus morose.
On va moins suivre les news GPU et davantage l'Ukraine...
par Un adepte de Godwin en Californie, le Mercredi 20 Juillet 2022 à 04h49  
Ne pas oublier que ce sont encore des ES (Engineering Samples) et que tout n'est pas encore décidé... De plus les drivers ne sont pas encore totalement optimisés donc la 4090 FE pourrait très bien dépasser les 20,000 pts voire plus!
Un autre benchmark est sorti aujourd'hui avec le jeu Control en 4K Ultra + RT & DLSS et la 4090 Ti serait déjà 2x plus puissante que la RTX 3090 (non Ti) car elle obtient ~160fps. Si Nvidia optimisent encore leur performance RT + DLSS ça pourrait faire 2,5x je suis sûr ! Ampere était à +70% vs Turing donc Lovelace devrait être entre 2x et 3x vs Ampere.
par Jemporte, le Mercredi 20 Juillet 2022 à 00h41  
par Matthieu S., le Mardi 19 Juillet 2022 à 19h30
Ça fait un bon moment que c'est comme ça
On regarde quand même qui tweet et son taux de véracité.
Là ça correspond à une source connue... mais il s'est déjà trompé dans le détail.
Qu'il nous parle d'une carte qui n'est pas le HDG ou une variante mobile n'est pas impossible.

Pour se faire une idée, si le HDG gaming de Nvidia sort en 5nm et 16384 CUDA cores (soit 40% de plus qu'Ampère), il devrait quand même être à 2.4GHz environ pour 450W de TDP et le chip, à architecture comparable sera sera sensiblement plus petit que le chip de la 3090ti, donc moins cher à fabriquer, en théorie. Il aura de la cache en plus par contre, de quoi ajouter disons 20% de taille (vraiment maxi), soit finalement 50% plus complexe que celui de la 3090ti. Le 5nm ayant une densité de 280% supérieure au 8nm Samsung, ça donnerait un chip de 60% la taille d'un chip de RTX 3090, soit environ 380mm². Pour les 450W de TDP (celui de la 3090ti), j'ai misé sur 80% de meilleure efficience entre le 5nm TSMC et le 8nm Samsung, rapporté à 40% de cores en plus.
Niveau perfs, on a des perfs x1.80 celles de la 3090Ti.
Et bien, pour du HDG gaming Nvidia, j'y crois pas. A moins qu'ils vendent ça 700 euros avec 12Go de GDDR6(X) pour bien optimiser les coûts jeux, histoire d'essayer de rafler le marché, plutôt que de se battre sur le HDG avec AMD.
(Le 4nm avec plus de cores et un TDP supérieur me parait plus vraisemblable pour le HDG.)
Ce qui serait top pour AMD, c'est qu'alors, ils vont pouvoir attaquer le marché Pro entre la 7900 et 7700 supérieures à l'offre Nvidia, et attirer du monde qui se cantonnait à l'architecture Nvidia, Cuda et Optix. Ca serait une énorme cadeau de Jensen à sa cousine.
par Jemporte, le Mercredi 20 Juillet 2022 à 00h25  
par Un rat goth à l'heure en Auvergne-Rhône-Alpes, le Mardi 19 Juillet 2022 à 22h00
Oui la rtx 3080 ti.
Attention, les rendus actuels dans les jeux sont de toute façon un (petit) mélange de RT avec une (gros) mélange de raster.
Le Full RT on en est très loin... mais c'est probablement l'objectif, quand on aura des GPU gravés en 1.5nm et mis en sandwich d'une centaine de couches, à la façon des SSD, ça sera possible.

Et accessoirement les saloperies DLSS n'en sont pas pour la partie RT sinon l'image est bruitée bien avant d'avoir quelque chose de correct en temps de rendu.
Et accessoirement le FSR (et DLSS mais Nvidia mélange le surechantillonage et le débruitage dans la terminologie) et d'autres techno du style permettent de rendre une image en profitant d'une très haute résolution sans devoir rendre des détails non nécessaire, non remarquables ou non perceptible pour le joueur. Et tout ça profite en plus de circuits spécialisés IA, de la carte, non utilisés normalement pour les rendus.
Le max d'efficience en somme, pour la qualité de rendu. Vraiment pas de quoi se plaindre.
par Jemporte, le Mercredi 20 Juillet 2022 à 00h21  
par Un ragoteur qui pipotronne en Communauté Valencienne, le Mardi 19 Juillet 2022 à 22h07
Et a faire du photoréalisme pour le cinéma accessoirement
Effectivement le moteur Optix utilisé pour les rendus 3D améliore la vitesse et/ou la qualité de rendu par lancer de rayons par rapport aux CUDA purs. Et il ne faut pas négliger les coeurs tenseurs pour retravailler l'image (notamment le bruit généré par le rendu RT partiel).
Les moteurs de rendu 3D pro orientés CUDA (par opposition à OpenCL) commencent à peine à en faire usage.
par Un ragoteur qui pipotronne en Communauté Valencienne, le Mardi 19 Juillet 2022 à 22h07  
Et a faire du photoréalisme pour le cinéma accessoirement
par Riseoflegends, le Mardi 19 Juillet 2022 à 17h39
Le RT c'est une technologie inutile qui sert à faire acheter des cartes graphiques trop cher aux pigeons
par Un énarque des ragots en Bourgogne-Franche-Comté, le Mardi 19 Juillet 2022 à 22h02  
par cabou83, le Mardi 19 Juillet 2022 à 17h47
Moi ce qui me choque c'est le "19000pts" genre tout rond ... Aucun GPU n'arrive a faire un score tout rond, le mec sort ça de son chapeau magique et la toile s'emballe.

En tout cas si le modèle ici est bien a 450w alors on est face à un perf/watt de 65% face à la 3090ti (qui a le perf/watt le plus pourri de la gamme 3000 rappelons le) ce qui, on peut imaginer, correspond également au perf/watt de X1.5 annoncé par AMD entre RDNA3 et RDNA2.

Bref attendons de voir mais malgré un up de 100W de la conso, un +80% entre la 3090 et la 4090 me semble pas trop mal, si la 4090 est au même tarif que la 3090.
Pourquoi aurait-elle un rapport perf/watt inférieur à la 3090ti ?
Sinon, en effet, le mec aurait pu dire qu'elle fait un score supérieur à 19001 points. Ça rendrait les choses plus crédibles.