COMPTOIR
  
register

La RTX 4080 16 Go sous Time Spy 1440p : alors ?

Il y a un jour, oui hier donc, NVIDIA publiait ses résultats de ses propres tests sous Overwatch 2, ce qui permettait déjà d'apprécier un premier indice sur les performances entre les cartes, incluant les 3 Lovelace. C'est Time Spy qui a eu les honneurs de la RTX 4080 16 Go, en 1440p. Avant de parler gros chiffres, rappelons que cette carte est animée par un AD103, et possède de la GDDR6X sur bus 256-bit. Elle sera lancée en novembre pour 1199 dollars US, ce qui est chaud quand même eu égard à la RTX 3080 FE.

 

Voici les scores dans un beau graphique, qui va vous permettre de comparer les autres cartes du marché, avec pourcentage de différence pour mieux voir l'impact :

 

 

Par nature, cette suite est favorables aux Radeon, mais elle permet d'avoir un autre indice. Si on considère que la RTX 3090 Ti équivaut à 100 %, la RTX 4080 16 Go est 33% plus rapide, ça monte à 45 % si on prend comme base la RTX 3090. En changeant pour les RX 6950 XT puis 6900 XT, la star du jour est 32 et 41 % plus véloce respectivement, et ce en dehors de toute optimisation liée aux upscaling. De toute manière, le 11 octobre, selon VDCZ, la RTX 4090 FE aura livré ses secrets, les customisées se réservent pour le lendemain. Et nous commencerons enfin à y voir plus clair !

 

gerard languedepute

Un poil avant ?

Alphacool sort une nouvelle gamme d'AIO à prix contenu

Un peu plus tard ...

Des nouvelles du Steam Deck : de la disponibilité, un dock et des mises à jour

Les 41 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Jemporte, le Dimanche 09 Octobre 2022 à 12h16  
par Frazer, le Samedi 08 Octobre 2022 à 22h41
Pour éclaircir mes propos : toute l'industrie de l'image et du divertissement ont toujours visé la 8k comme un standard à atteindre (cinéma, tv, jeux...), j'étais dans les conférences de présentation de ces standard (4k/8k) il y a 10 ans environ : je me souviens aussi qu'ils avaient balance une vanne sur le 720p et 1080p en disant que c'était juste pour lancer le marché et que cette techno était morte née.
...

Ce qu'il faut retenir : le but des industriels c'est la 8k minimum quelque soit le domaine, reste qu'avec les panels micro-led 8k ils pourront faire du 16k, 32k...
Il faut faire la part entre ce qui devient du luxe et ce qui reste acceptable à terme.
Ainsi une personne qui utilise un 35 pouces affichant 1080x2560 avec une RTX 2060 6Go à 75fps vs 1440x3440 avec une RTX 3080 Ti 12Go à 120 fps dans les jeux, vont toutes deux jouer de la même manière au jeu sans une gène réelle de la part de celui avec la config la plus basse.
Si vous voulez payer moins pour une investissement à long terme il faut tout calibrer ensemble.

Le 8K permet d'afficher des photos 32Mpixels. Ca se reproche de la définition du film 24x36 mais on n'y est pas encore (selon les ASA du film ça peut dépasser les 100 millions en équivalent pixel). Avec un écran 60 pouces on va s'approcher du projecteur de diapos et la définition en mode film approche le 70mm. En gros le 8K nous approche de ce qu'on avait il y a 25 ans sur pellicule photo et film. 25 ans pour rester sur peu moins bien qu'avant ? J'ai un doute. Et pour le détail, on a commencé le numérique (cinéma) en 480P alors que le Japon était déjà en 1125i, comme la France qui est revenue au 625 couleur après être passé par son 809 nb.
par Frazer, le Samedi 08 Octobre 2022 à 22h41  
par Scrabble, le Samedi 08 Octobre 2022 à 18h49
La 8K pour les gamers, j'y crois pas, même dans deux ans
La 8K c'est bien pour des téléviseurs géants (pour les riches), peut-être aussi pour des besoins particulier comme l'édition photo/vidéo, mais pour le gaming, on s'arrêtera sans doute au 4K
En revanche, on verra la démocratisation des écrans gamers 4K 240 Hz,
du reste, ça existe déjà
Pour éclaircir mes propos : toute l'industrie de l'image et du divertissement ont toujours visé la 8k comme un standard à atteindre (cinéma, tv, jeux...), j'étais dans les conférences de présentation de ces standard (4k/8k) il y a 10 ans environ : je me souviens aussi qu'ils avaient balance une vanne sur le 720p et 1080p en disant que c'était juste pour lancer le marché et que cette techno était morte née.

Le problème ce sont les freins technique pour la TV et les jeux en 8k :

- La TV est limitée par la bande passante de la TNT (la fibre va régler ça mais faut que les serveurs tiennent la charge) et les sources ne sont pas suffisamment disponibles mais ça arrive doucement.
- Les jeux sur écrans 8k arrivent eux très doucement (certainement moins de 0.01%) à cause du prix des dalles trop élever car pas assez industrialiser mais ça va se décanter. Il reste aussi le problème de la CG, une 4090 va péter les 120 fps en 4k tout "ultra" ce qui fait du 30 en 8k (grosso merdo). L'hypothétique RTX 5090 devrait ramener les fps à 60Hz et va attirer plus de monde sur la 8k donc les prix vont baisser.

Ce qu'il faut retenir : le but des industriels c'est la 8k minimum quelque soit le domaine, reste qu'avec les panels micro-led 8k ils pourront faire du 16k, 32k...
par Riseoflegends, le Samedi 08 Octobre 2022 à 21h48  
par Scrabble, le Samedi 08 Octobre 2022 à 18h49
La 8K pour les gamers, j'y crois pas, même dans deux ans
8k en DLSS évidemment, pas en natif
par Scrabble, le Samedi 08 Octobre 2022 à 18h49  
par Frazer, le Samedi 08 Octobre 2022 à 16h02
La 8 k va se démocratiser un peu plus avec les futurs RTX 5090 et autres CG
La 8K pour les gamers, j'y crois pas, même dans deux ans
La 8K c'est bien pour des téléviseurs géants (pour les riches), peut-être aussi pour des besoins particulier comme l'édition photo/vidéo, mais pour le gaming, on s'arrêtera sans doute au 4K
En revanche, on verra la démocratisation des écrans gamers 4K 240 Hz,
du reste, ça existe déjà
par Un médecin des ragots en Provence-Alpes-Côte d'Azur, le Samedi 08 Octobre 2022 à 17h23  
par Frazer, le Samedi 08 Octobre 2022 à 16h02
Difficile de juger l'usage d'une autre personne quand on ne la connait pas... mais bon a l'époque ma 1080 Ti ramait en 4k à 30 ou 40 fps dans les meilleurs conditions. J'ai du attendre la 3090 pour garantir et même dépasser les 60 fps. La 4090 devrait (on sera fixé bientôt avec les tests officiels) garantir le 4k à environ 120/144 fps.

Et pour finir ça fait environ 6 ans que je ne joue plus en 1080p mais en 4k 60Hz (bientôt 144Hz) ou 2k 165Hz.

La 8 k va se démocratiser un peu plus avec les futurs RTX 5090 et autres CG

PS: nous ne sommes pas ici pour juger l'usage que font les personnes de leurs PC et encore moins la manière dont ils souhaitent dépenser leurs argents...
Quand on dit "que de mon temps ça a toujours été ouvert à tous blablabla" puis qu'on prend son exemple d'une 1080Ti ça colle pas trop
Comme le commun des mortels je me contente du mdg, et à l'époque de la 1080Ti le mdg (1060, rx 480) faisait tourner tout de façon assez large en 1080p 60-80 fps voir plus ce qui était plus que confortable.
Comme pour tout tu veux le top du top tu casses la tirelire
par Frazer, le Samedi 08 Octobre 2022 à 16h02  
par Un médecin des ragots en Provence-Alpes-Côte d'Azur, le Samedi 08 Octobre 2022 à 12h49
A l'époque t'avais pas besoin d'une 1080 Ti pour jouer dans des conditions plus que convenables, tout comme tu n'as pas besoin d'une 4080 aujourd'hui. Si il y a une clientèle pour acheter une CG a 4000 brouzoufs nvidia n'a aucune raison de se priver
Pour du 1080p 60fps medium-high une CG à 250-300e suffit, et ça va probablement baisser avec fin des pénuries + arrivée d'intel
Difficile de juger l'usage d'une autre personne quand on ne la connait pas... mais bon a l'époque ma 1080 Ti ramait en 4k à 30 ou 40 fps dans les meilleurs conditions. J'ai du attendre la 3090 pour garantir et même dépasser les 60 fps. La 4090 devrait (on sera fixé bientôt avec les tests officiels) garantir le 4k à environ 120/144 fps.

Et pour finir ça fait environ 6 ans que je ne joue plus en 1080p mais en 4k 60Hz (bientôt 144Hz) ou 2k 165Hz.

La 8 k va se démocratiser un peu plus avec les futurs RTX 5090 et autres CG

PS: nous ne sommes pas ici pour juger l'usage que font les personnes de leurs PC et encore moins la manière dont ils souhaitent dépenser leurs argents...
par Un médecin des ragots en Provence-Alpes-Côte d'Azur, le Samedi 08 Octobre 2022 à 12h49  
par Frazer, le Samedi 08 Octobre 2022 à 06h54
Le JV a toujours été quasiment ouvert à tous et pour donner un prix j'avais payé ma 1080 Ti neuve 720 €, pour moi c'est donc un crève cœur de voir devenir cela un marché de niche...et j'espère donc que les marketeur à deux balles vont retrouver la raison (sans compter les designs chauffant très discutable).

Privilégié = creusé les différences = colère et injustice donc oui ça me fait ch***
A l'époque t'avais pas besoin d'une 1080 Ti pour jouer dans des conditions plus que convenables, tout comme tu n'as pas besoin d'une 4080 aujourd'hui. Si il y a une clientèle pour acheter une CG a 4000 brouzoufs nvidia n'a aucune raison de se priver
Pour du 1080p 60fps medium-high une CG à 250-300e suffit, et ça va probablement baisser avec fin des pénuries + arrivée d'intel
par Scrabble, le Samedi 08 Octobre 2022 à 11h17  
par Jemporte, le Samedi 08 Octobre 2022 à 11h10
De plus Optix recours aux cores RT et tenseurs et l'architecture RTX 4000 serait plus poussée.
L'architecture des RTX 40X0 introduit le SER :
"Le Shader Execution Reordering (SER) reste l'innovation la plus excitante. Cette technologie améliore l'efficacité d'exécution en réorganisant les charge de travail de shading à la volée pour mieux utiliser les ressources du GPU. Grâce à ce procédé, les performances en Ray-Tracing sont triplées tandis que le framerate en jeu est augmenté jusqu'à 25%"
par Jemporte, le Samedi 08 Octobre 2022 à 11h10  
Sous CUDA (CUDA bench), pas Optix, les perfs sont données seulement 60% supérieures sur la 4090 par rapport à la 3090Ti. C'est un peu bof. Ca demontrerait un petit manque d'efficience tout de même. Ce qui est prévisible quand on augmente le nombre de cores mais pour les rendus 3D, très parallélisables, ça aurait dû très peu se voir. En théorie ça aurait dû s'approcher de 2x. Si le problème se situe au niveau de la bande passante VRAM, le problème devrait être soluble en modifiant la programmation.
Optix, qui a dû être utlisé sous Blender (sur le line donné plus bas) permet probablement des calculs plus complexes donc aura peut-être moins recours à la bande passante. De plus Optix recours aux cores RT et tenseurs et l'architecture RTX 4000 serait plus poussée.
J'attends de voir aussi ce que ça donne sous OpenCL. Rien encore sous Indigobench.
par Un ragoteur sans nom en Bourgogne-Franche-Comté, le Samedi 08 Octobre 2022 à 07h42  
par Ninja7¶, le Samedi 08 Octobre 2022 à 06h55
Et vous avez vu le becnchmark blender c'est hallucinant quand même. un grand lien tout pourri
Fois deux en perf.
Ça doit être grâce au DLSS3 qui ajoute des images intermédiaires, ce qui fait augmenter artificiellement les fps....

Pas taper, c'est un troll du dredi en retard. ( pas moyen d'ajouter un smiley parmi ceux proposés par le comptoir, bug avec la nouvelle interface sur pc )
par Un ragoteur des lumières des Pays de la Loire, le Samedi 08 Octobre 2022 à 07h42  
la plus petite 4080 12go sera juste au dessus de la 3090ti...

peut on espérer une 4070 au niveau de la 3090 et une 4060 au niveau de la 3080 10 go ? si la 4060 a de telles perfs pour une conso n'excédant pas 200w, ce serait top !
par Frazer, le Samedi 08 Octobre 2022 à 07h16  
par Ninja7¶, le Samedi 08 Octobre 2022 à 06h55
Et vous avez vu le becnchmark blender c'est hallucinant quand même. un grand lien tout pourri
Fois deux en perf.
Merci pour le partage.

Je suis un gros consommateur de blender 3D et j'avais pas cette info, bien vue