COMPTOIR
  
register

Comparaison FSR 3.1 vs FSR 4.0 : AMD tient son DLSS

Comme pour les Radeon RX 9000, pour lequelles les dernières indiscrétions compensent un peu leur défection, nous en sommes réduits à glaner des informations çà et là sur le FSR 4.0 en espérant y voir un peu plus clair. Et il va justement vous falloir de bons yeux pour percevoir les subtilités qui différencient cette version de l'ancienne, à savoir le FSR 3.1.

fsr 4 amd ces

La FSR, plus si atroce ?

Les comparaisons via des vidéos YouTube ne sont pas toujours très révélatrices à cause de la compression. On monte encore d’un cran avec une séquence filmée directement sur écran.

Au CES 2025, l'équipe de HardwareUnboxed a capturé une démonstration opposant deux PC AMD faisant fonctionner Ratchet and Clank: Rift Apart. L’ordinateur de gauche montre le jeu d’Insomniac Games et de Nixxes Software en 4K avec la FSR 3.1 en mode Performance ; celui de droite, dans la même définition mais avec la FSR 4.0, toujours en mode Performance.

Ce n'est pas évident de jauger finement d’une telle comparaison dans les conditions susmentionnées, mais on distingue quand-même la supériorité de la nouvelle mouture du FSR sur le plan visuel. C’est également ce que soutient le présentateur, forcément en meilleure position que nous pour juger. À propos de l’impact sur les performances, la fréquence d’images n’est pas affichée, donc rien à ajouter.

On n'est bien sûr pas surpris qu’une nouvelle version soit meilleure que la précédente ; c’est généralement le concept. D’autant plus que si la mise en application exacte du FSR 4.0 reste incertaine, la quasi-certitude est que cette mouture de la technologie de la mise à l’échelle est exclusive aux Radeon RX 9000. Et on reste dans la lapalissade, mais plus vous ciblez un matériel spécifique, plus il est aisé de le perfectionner pour ce dernier.

L’incertitude porte surtout sur la prise en charge partielle du FSR 4.0 par d’autres GPU. AMD envisage-t-elle une approche calquée sur celle de l’XeSS, c’est-à-dire utilisant des algorithmes différents en fonction du matos, ou conservera-t-elle le FSR 3.1 pour les autres architectures ? Nous serons certainement bientôt renseignés. Mais pour la qualité du rendu mis en avant ici, elle correspond à celle d’une FSR 4.0 exploitée à son plein potentiel.

Un poil avant ?

SteamOS prêt à libérer les consoles portables du joug de Windows

Un peu plus tard ...

L’overhead de l’Arc B580 avec un Ryzen 5 5600, quel effet sur les performances ?

Les 13 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par CT-5555Fives en Île-de-France 📱, le Jeudi 06 Février à 17h41  
Bah en vrai on espère tous un fsr4 au niveau du dlss, après ça m'étonnerait que même le futur fsr5 soit au niveau du dlss3
par Jemporte, le Jeudi 16 Janvier à 02h02  
Bon, on va remettre l'eglise au milieu du village.
Alors deja, ne pas confondre le DLSS, qui exploite les Tensor Core, et le FSR de merde qui n'a qu'une partie de son pipeline qui est pris en compte materiellement.
Oui les architectures d'Nvidia sont revotionnaire depuis les RTX. A savoir une partie de la puce dediée a l'encodage (Nvenc), une partie dediée au RayTracing (RT Cores), et enfin une partie dediée a l'IA et au supersampling.
Oui c'est revolutionnaire, dans le sens ou le pipeline dedié au shader et autres n'est pas perturbé par le gouffre a performance que sont le RT, le stream qui consiste a encoder tout en jouant, et le supersampling qui peut reduire le cout en perfs, et donc peut vous eviter d'entendre souffler votre carte pendant des heures.
Alors oui, Nvidia a completment ecrasé AMD sur la tech de ce coté. D'ou le fait qu'AMD abandonne le marché des vrais GPU. Oui c'est justifié, et ce n'est pas du bullshit. Encore faut il en avoir l'utilité, comprendre de quoi il s'agit, et le mettre en pratique. Pour les idiots du village qui achetent des 4070 ti super, pour jouer à Call of Futile, c'est totatelement useless.
Mais il existe des gens qui ont plus de 23 de QI, et qui font les louanges du Studio au cameleon pour cette federation mondiale qu'ils ont reussi à créer autour de CUDA, Torch et autres. La derniere fois que quelque chose de semblable etait arrivé, c'etait à l'arrivé de DirectX[/quote]
C'est pas tout à fait vrai ça. Des unités de calcul bonnes à tout faire partagées entre usages de façon souple et équilibrée, c'est une autre façon de voir, ce que l'architecture, RTX rigide ne permet pas.
Le gros problème chez AMD, c'est le pilote et les outils de développement.
par Un ragoteur qui pipotronne d'Occitanie 📱, le Dimanche 12 Janvier à 14h18  
par Un ragoteur qui pipotronne d'Occitanie¶, le Dimanche 12 Janvier à 14h17
Bon, on va remettre l'eglise au milieu du village.
Alors deja, ne pas confondre le DLSS, qui exploite les Tensor Core, et le FSR de merde qui n'a qu'une partie de son pipeline qui est pris en compte materiellement.
Oui les architectures d'Nvidia sont revotionnaire depuis les RTX. A savoir une partie de la puce dediée a l'encodage (Nvenc), une partie dediée au RayTracing (RT Cores), et enfin une partie dediée a l'IA et au supersampling (Tensor Core).
Oui c'est revolutionnaire, dans le sens ou le pipeline dedié au shader et autres n'est pas perturbé par le gouffre a performance que sont le RT, le stream qui consiste a encoder tout en jouant, et le supersampling qui peut reduire le cout en perfs, et donc peut vous eviter d'entendre souffler votre carte pendant des heures.
Alors oui, Nvidia a completment ecrasé AMD sur la tech de ce coté. D'ou le fait qu'AMD abandonne le marché des vrais GPU. Oui c'est justifié, et ce n'est pas du bullshit. Encore faut il en avoir l'utilité, comprendre de quoi il s'agit, et le mettre en pratique. Pour les idiots du village qui achetent des 4070 ti super, pour jouer à Call of Futile, c'est totatelement useless.
Mais il existe des gens qui ont plus de 23 de QI, et qui font les louanges du Studio au cameleon pour cette federation mondiale qu'ils ont reussi à créer autour de CUDA, Torch et autres. La derniere fois que quelque chose de semblable etait arrivé, c'etait à l'arrivé de DirectX
par Un ragoteur qui pipotronne d'Occitanie 📱, le Dimanche 12 Janvier à 14h17  
par $k d'Occitanie, le Vendredi 10 Janvier à 22h10
Some bullshit
Bon, on va remettre l'eglise au milieu du village.
Alors deja, ne pas confondre le DLSS, qui exploite les Tensor Core, et le FSR de merde qui n'a qu'une partie de son pipeline qui est pris en compte materiellement.
Oui les architectures d'Nvidia sont revotionnaire depuis les RTX. A savoir une partie de la puce dediée a l'encodage (Nvenc), une partie dediée au RayTracing (RT Cores), et enfin une partie dediée a l'IA et au supersampling.
Oui c'est revolutionnaire, dans le sens ou le pipeline dedié au shader et autres n'est pas perturbé par le gouffre a performance que sont le RT, le stream qui consiste a encoder tout en jouant, et le supersampling qui peut reduire le cout en perfs, et donc peut vous eviter d'entendre souffler votre carte pendant des heures.
Alors oui, Nvidia a completment ecrasé AMD sur la tech de ce coté. D'ou le fait qu'AMD abandonne le marché des vrais GPU. Oui c'est justifié, et ce n'est pas du bullshit. Encore faut il en avoir l'utilité, comprendre de quoi il s'agit, et le mettre en pratique. Pour les idiots du village qui achetent des 4070 ti super, pour jouer à Call of Futile, c'est totatelement useless.
Mais il existe des gens qui ont plus de 23 de QI, et qui font les louanges du Studio au cameleon pour cette federation mondiale qu'ils ont reussi à créer autour de CUDA, Torch et autres. La derniere fois que quelque chose de semblable etait arrivé, c'etait à l'arrivé de DirectX
par Un champion du monde embusqué 📱, le Samedi 11 Janvier à 08h27  
On peut au moins reconnaître à NVIDIA qu. Ils optimisé leurs algos
Puré si les studio.de JV pseudo AAA mettait le budget sur l opti plutôt que sur le market et tout faire à nous jouer de la flûte pour du pays to windows, skin d armure à 30balles, texture "pseudo réaliste" juste pour effondré les perf, etc ..

Bah en fait on aurait plus besoin de NVIDIA
Les éditeurs et NVIDIA s auto sucent
et toi client de JV tu regarde ça de loin et tu dis "euhhh et sinon j ai le droit de jouer à un jeu qui coûte pas 150boules pour juste 3000 quêtes FedEx... Ça ressemble juste à DHL/UPS/FedEx simulator votre jeu
Et de l autre coté ... Euuh je peux avoir une carte à 300 balles pour faire FedEx simulator

Je me demande mm pourquoi les éditeurs de JV n envoi pas une facture à FedEx/UPS/DHL pour ces formation payante de futur livreur FedEx/amazon/DHL

Demain les éditeurs vont mm nous proposer un dlc ou une IA jouera à notre place, on dira à l IA je veux plus jouer infiltration ou plus bourrin par exemple
On se vautre dans le canapé et pouf plus besoin de la manette on peut utiliser nos mains pour bouffer des chips
Et on regarde le jeu en mode film

Rigolez pas ça arrive, bon pas en dlc mais sûrement en un truc sous forme d abonnement
Bah oui car quand vous regardé un steamer joué à votre place, bah l éditeur ne vend qu une licence pour plein de viewers la licence "eu gratos" ou acheté par le streamer

Le plus grand manque à gagné demain pour les éditeurs c est pas le marché de l occase... Y aura plus de physique. C est bien des joueurs qui n achèteront plus de jeux qui se transforme en viewers à force d en avoir ras le Luc de jouer à tant de DHL simulator.
Par contre s abonné à un "streamer IA virtuel" qui stream ce que tu veux au moment que tu veux, ça te force à racheter (louer) le jeu.
par $k d'Occitanie, le Vendredi 10 Janvier à 22h10  
par Un hardeur des ragots du Grand Est, le Vendredi 10 Janvier à 09h26
Le FSR4 a l'air vraiment mieux. Le lendemain de la prez de Nvidia ont voit fleurir des leaks de perf de la RX 9070 qui s'annonce finalement excellente au niveau des perfs..... Ne nous prendrait-on pas pour des jambons? AMD aurait donc une super carte entre les mains mais ne la mettrait pas en avant? Stratégie étrange.
Comment tu veux avoir la moindre stratégie quand 80% du WEB suce Nvidia aveuglément.

Quand tu vois que des jean kevin sont des milliers à dire qu'ils activent le Dlss quoi qu'il arrive, sans même savoir si c'est utile ou pas par rapport au frame rate souhaité, comment tu peux prendre au sérieux tous ces gens qui confondent fréquences, résolution, textures, latences, sampling, etc..., ils n'y connaissent rien et ne font que recracher le bullshit Nvidia.

Nvidia qui se garde bien de dire que c'est parce qu'ils stagnent depuis des années en perfs pures qu'ils misent tout sur les solutions softwares et en plus ça permet de rendre très vite obsolète d'une gen à l'autre comme par hasard...
par Une ragoteuse à forte poitrine en Île-de-France, le Vendredi 10 Janvier à 15h04  
par Un hardeur des ragots de Bretagne, le Vendredi 10 Janvier à 10h16
Toi, tu n'as pas connu les cartes avec des bi-gpu. Sinon le Crossfire fonctionnait très bien sûr les jeux l'exploitant correctement. On était proche d'un doublement des performances
Le problème était justement là, "le Crossfire fonctionnait très bien sûr les jeux l'exploitant correctement" fallait faire une optimisation spécifique pour que une minorité du publique ciblé ait de meilleures performances, les éditeurs de jeux sont réticents à faire le boulot correctement (comme toujours) donc ça revenais sur AMD/Nvidia de faire des acrobaties avec les MàJ des pilotes pour faire le café pour quelque chose qui était économiquement pas très rentable.
par Un hardeur des ragots de Bretagne, le Vendredi 10 Janvier à 10h16  
par Un ragoteur qui pipotronne embusqué¶, le Vendredi 10 Janvier à 06h33
Payer 2 fois plus cher ( car 2 gpu ), consommer 2x plus ( imagine 575w X2 avec la 5090 ) tout ça pour 10% de perf en plus, on a vu ce que ça donnait avec les SLI, pas pour rien que ça a disparu
Toi, tu n'as pas connu les cartes avec des bi-gpu. Sinon le Crossfire fonctionnait très bien sûr les jeux l'exploitant correctement. On était proche d'un doublement des performances
par Un hardeur des ragots du Grand Est, le Vendredi 10 Janvier à 09h26  
Le FSR4 a l'air vraiment mieux. Le lendemain de la prez de Nvidia ont voit fleurir des leaks de perf de la RX 9070 qui s'annonce finalement excellente au niveau des perfs..... Ne nous prendrait-on pas pour des jambons? AMD aurait donc une super carte entre les mains mais ne la mettrait pas en avant? Stratégie étrange.
par Un ragoteur qui pipotronne embusqué 📱, le Vendredi 10 Janvier à 06h33  
par YulFi, le Jeudi 09 Janvier à 15h55
Et si à la place de ces algo "poudre aux yeux" générateurs de flou on utilisait plusieurs gpu pour faire les calculs en définition native ? Ce serait pas une super idée ça ?? ... wait ...
par YulFi, le Jeudi 09 Janvier à 15h55
Et si à la place de ces algo "poudre aux yeux" générateurs de flou on utilisait plusieurs gpu pour faire les calculs en définition native ? Ce serait pas une super idée ça ?? ... wait ...
Payer 2 fois plus cher ( car 2 gpu ), consommer 2x plus ( imagine 575w X2 avec la 5090 ) tout ça pour 10% de perf en plus, on a vu ce que ça donnait avec les SLI, pas pour rien que ça a disparu
par ragoteur obsolescent embusqué, le Jeudi 09 Janvier à 19h56  
par ThePapyGeek, le Jeudi 09 Janvier à 19h30
Il faut tout racheter . Ptdrrr
Le plus amusant dans l'histoire c'est que quand Apple, et maintenant nVidia fait ça, et de manière de plus en plus abusive pour les deux lascars, tout le monde applaudit et crie au génie, mais il suffit qu'une autre marque fasse pareil même à plus petite échelle et de manière bien moins poussée, et là elle est décrit comme le pire escroc de la terre et c'est une annonce de la fin du monde.

Et après les gens se plaignent qu'ont les traitent de benêt pour rester gentil. souvent c'est parce qu'ils le méritent. Et ça n'est pas par plaisir de le dire.
par ThePapyGeek, le Jeudi 09 Janvier à 19h30  
Il faut tout racheter . Ptdrrr