COMPTOIR
register

AMD a programmé le FSR, ça arrive bientôt !

Lors du lancement des cartes à base de RDNA 2, AMD avait parlé d'une solution propre dont la philosophie s'apparenterait à celle du DLSS. Le but, c'est d'obtenir un antialiasing efficace visuellement, et qui en plus offre un gain d'images par seconde. Pendant des années, appliquer une telle méthode a toujours coûté en ressources, ce qui a obligé les développeurs à mettre au point des AA par exemple post-process, traduire par post calcul d'image, qui limitaient l'impact négatif des AA classiques comme le MSAA, mais sans en avoir la qualité visuelle. C'était un compromis et ce fut ainsi que le FXAA a connu son heure de gloire. Bref, NVIDIA a jeté le premier un pavé dans la mare, avec le DLSS, où un réseau neuronal est capable de calculer à des définitions et qualités très supérieures une image en définition inférieure pour l'afficher à votre définition en temps réel par la suite. Il en résulte des gains, mais aussi selon les moteurs, un léger flou plus ou moins marqué, mais en net progrès depuis le DLSS 2.0.

 

AMD bossait sur le FSR, acronyme de Fidelity Super Resolution. Il sera lancé finalement le 22 juin prochain, selon 4 niveaux de réglages, comme le DLSS. Il s'agirait en fait d'un algorithme d'upscaling qui moulinerait sur les unités de calcul classiques, au contraire du DLSS qui nécessite des tensor cores. AMD annonce des gains énormes, selon que vous êtes en mode Ultra (le plus qualitatif), Qualité, Equilibré ou Performance (le plus véloce).

 

Cela rappelle forcément le DLSS, mais AMD pose son FSR comme étant ouvert aux solutions vertes au contraire du premier cité par son mode même de fonctionnement. Étant donné que c'est un filtre d'upscaling, avec plusieurs types de rendus, on ne voit pas comment AMD échapperait aux mêmes soucis de flous générés par cette méthode. De plus, étant plus généraliste, il se peut qu'elle soit moins efficace qu'une accélération matérielle prévue à cet effet. Pour autant, nous aurons le loisir de faire des comparatifs visuels, mais la voie ouverte par les verts montre là aussi qu'elle était bonne, puisque les deux géants du secteur arrivent à l'imposer comme quelque chose qui est bénéfique pour l'expérience de jeu. Quand une idée est mauvaise, on ne la suit pas et on n'investit pas à perte. Reste à voir si NVIDIA arrivera à convaincre les développeurs de privilégier le DLSS pour ses propres cartes, ou si ces derniers ne choisiront que le FSR. Vu la proximité des deux upscaling, il y a fort à parier que les deux perdureront, Sony et Microsoft d'un côté, Switch de l'autre, PC pour tous. Il y a la place pour chacune, toutefois, il ne faut pas oublier qu'il reste du boulot aux verts pour en faire quelque chose de parfait, nous verrons si les rouges ont trouvé un meilleur remède, mais les gagnants sont les joueurs sans le moindre doute !

 

Un poil avant ?

Vous avez parlé du Computex ? AMD y lance officiellement ses APU pour PC de bureau !

Un peu plus tard ...

Test • ASRock Z590 Taichi

Les 47 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par Nicolas D., le Jeudi 03 Juin 2021 à 10h17  
par Jeliel le Jeudi 03 Juin 2021 à 09h16
Putain la rage déployée dans les commentaires...
Apres je comprends vous avez tous des millions d'actions chez ces 2 constructeurs, il convient que la valorisation monte !!!!!$$$$$$$

Sinon moi j'attends de voir en l'état ca ne me coute rien, et FSR déployé non plus la techno est gratos.
Mais je dois être trop con pour m'énerver.

Manque un poil de modération la quand même quand je vois des nommés comme Guillaume L etre aussi agressif.
On reste humains hein , parler avec passion, ça arrive à tous ; d'où l'intérêt d'être en loggué pour assumer ses écrits .

Tant que ça ne vire pas à l'attaque personnelle et au non-respect, la modération reste permissive : le comptoir doit rester une espace d'échange ouvert pour tous .
par Jeliel, le Jeudi 03 Juin 2021 à 09h16  
Putain la rage déployée dans les commentaires...
Apres je comprends vous avez tous des millions d'actions chez ces 2 constructeurs, il convient que la valorisation monte !!!!!$$$$$$$

Sinon moi j'attends de voir en l'état ca ne me coute rien, et FSR déployé non plus la techno est gratos.
Mais je dois être trop con pour m'énerver.

Manque un poil de modération la quand même quand je vois des nommés comme Guillaume L etre aussi agressif.
par Guillaume L., le Mercredi 02 Juin 2021 à 20h06  
par Un hardeur des ragots du Centre-Val de Loire le Mercredi 02 Juin 2021 à 15h38
Je sais pas si j'étais inclus dans le tas.
Je dis pas que les Tensor/RT cores sont du gâchis de silicium, ça impliquerai que ça n'a absolument aucune utilité, ce qui est faux.
Je disais juste que pour une personne qui joue que à des jeux qui n'utilisent ni RTX ni DLSS, ça n'apporte rien.
Ah non pas de soucis pour toi, j'avais compris le fond de ta pensée

Il est vrai que tous les intérêts ne sont pas déployés, pour ma part j'attend surtout de voir des trucs comme le Global Illumination ou le Direct Illumination en jeu, qui en bénéficient indirectement - ce n'est pas bloqué aux Tensor Core par contre, juste qu'ils sont plus adaptés à la tâche.

Un autre truc qui serait cool, ça serait l'élaboration d'IA plus efficaces et qui son apprenantes en jeu, mais bon on en est loin encore, et je sens d'avance l'odeur des marais salant que cela prodiguerait
par Unragoteursansespace en Communauté Valencienne, le Mercredi 02 Juin 2021 à 17h14  
Quel intérêt pour du gaming ? Je préfère les technos propriétaires que de la ram inutilisé
par Un énarque des ragots en Bourgogne-Franche-Comté le Mercredi 02 Juin 2021 à 17h08
Oui, il faut taper dans une 3090 pour avoir une carte avec une quantité de mémoire en rapport avec le prix. Mais les 3070 et 3080 sont indigentes à ce niveau.
Quand je pense que certains payent plus de 1000 euros ( voire bien plus de 1500 euros ) pour une carte avec seulement 8 Go ( ou 10 Go de Vram pour la 3080 qui doit frôler les 2000 euros actuellement ), quand une bête RX 480 en proposait déjà autant il y a quelques années... Je suis ébaubi.
par Un énarque des ragots en Bourgogne-Franche-Comté, le Mercredi 02 Juin 2021 à 17h08  
par Unragoteursansespace en Communauté Valencienne le Mercredi 02 Juin 2021 à 16h35
Mouais, actuellement aucunes cartes n'est interessante vu les prix pratiqués dans ce cas la, pour la mémoire dans le haut de gamme les cartes n'en manque pas à mon avis. Personnelement en tout cas c'est surtout l'environnement logiciel qui me ferait préférer mettre un peu plus dans une NVidia qu'une AMD à performance presque similaire, enfin aux prix qui devraient pratiqués normalement..
Oui, il faut taper dans une 3090 pour avoir une carte avec une quantité de mémoire en rapport avec le prix. Mais les 3070 et 3080 sont indigentes à ce niveau.
Quand je pense que certains payent plus de 1000 euros ( voire bien plus de 1500 euros ) pour une carte avec seulement 8 Go ( ou 10 Go de Vram pour la 3080 qui doit frôler les 2000 euros actuellement ), quand une bête RX 480 en proposait déjà autant il y a quelques années... Je suis ébaubi.
par Unragoteursansespace en Communauté Valencienne, le Mercredi 02 Juin 2021 à 16h35  
Mouais, actuellement aucunes cartes n'est interessante vu les prix pratiqués dans ce cas la, pour la mémoire dans le haut de gamme les cartes n'en manque pas à mon avis. Personnelement en tout cas c'est surtout l'environnement logiciel qui me ferait préférer mettre un peu plus dans une NVidia qu'une AMD à performance presque similaire, enfin aux prix qui devraient pratiqués normalement..
par Un énarque des ragots en Bourgogne-Franche-Comté le Mercredi 02 Juin 2021 à 16h27
Moins cher n'a aucun sens. En ce moment, toutes les cartes sont 2.5 à 3 x plus chères que leur msrp ce qui les mets toutes à peu près aux mêmes prix délirants. Je dirais plutôt "une amd avec plus de mémoire vidéo".
Pour ceux que le Ray tracing ne botte pas plus que ça car ils ne jouent pas à des jeux qui le supportent ( ou qu'ils n'aiment pas le rendu ), et pour qui le DLSS n'est pas indispensable ( d'autant plus que le FSR arrive ), l'argument d'avoir une quantité de mémoire vidéo décente et en rapport avec le prix de la carte me paraît pertinent pour choisir une AMD.
par Un énarque des ragots en Bourgogne-Franche-Comté, le Mercredi 02 Juin 2021 à 16h27  
par Unragoteursansespace en Communauté Valencienne le Mercredi 02 Juin 2021 à 15h46
En même temps si tu n'utilises ni le RTX ni le DLSS (ni le NVENC etc..) autant prendre une AMD moins cher non ?
Moins cher n'a aucun sens. En ce moment, toutes les cartes sont 2.5 à 3 x plus chères que leur msrp ce qui les mets toutes à peu près aux mêmes prix délirants. Je dirais plutôt "une amd avec plus de mémoire vidéo".
Pour ceux que le Ray tracing ne botte pas plus que ça car ils ne jouent pas à des jeux qui le supportent ( ou qu'ils n'aiment pas le rendu ), et pour qui le DLSS n'est pas indispensable ( d'autant plus que le FSR arrive ), l'argument d'avoir une quantité de mémoire vidéo décente et en rapport avec le prix de la carte me paraît pertinent pour choisir une AMD.
par Unragoteursansespace en Communauté Valencienne, le Mercredi 02 Juin 2021 à 15h46  
En même temps si tu n'utilises ni le RTX ni le DLSS (ni le NVENC etc..) autant prendre une AMD moins cher non ?
par Un hardeur des ragots du Centre-Val de Loire le Mercredi 02 Juin 2021 à 15h38
Je sais pas si j'étais inclus dans le tas.
Je dis pas que les Tensor/RT cores sont du gâchis de silicium, ça impliquerai que ça n'a absolument aucune utilité, ce qui est faux.
Je disais juste que pour une personne qui joue que à des jeux qui n'utilisent ni RTX ni DLSS, ça n'apporte rien.
Peut-être que dans le futur il y aura des jeux qui exploiteront les Tensor Cores pour une raison quelconque (il me semble que RDNA2, Xbox Series et PS5 ont des unités équivalentes donc ça devrait se généraliser rapidement), et que ça deviendra plus utile aux joueurs en dehors du DLSS, mais à l'heure actuelle ce n'est pas le cas.

Après pour le DLSS en particulier, il me semble avoir entendu que le traitement se faisait en 1.5 ms par image en 4K sur du Turing, donc c'est cool que ça ajoute pas trop de latence mais par contre ça veut dire que les unités de calcul dédiées sont un poil surdimensionnées pour cette opération en particulier (ou alors on dit que c'est prêt à gérer du 4K 600 FPS).

Sinon, en dehors du jeu video, il me semble qu'il y a pleins d'utilisations à en faire de ces Tensor/RT Cores, mais j'ai pas encore entendu parler d'application vraiment grand public. A l'heure actuelle, les gens qui se servent c'est plutôt pour des utilisations pro, et dans ce cas là ils seraient plutôt censés utiliser les gammes Quadro que les GeForce.
par Unragoteursansespace en Communauté Valencienne, le Mercredi 02 Juin 2021 à 15h43  
Il faut voir le résultat et comparer avant d'affirmer que tel ou tel technique est inutile..
par Scrabble le Mercredi 02 Juin 2021 à 12h32
C'est peut-être abusif de parler de transistors gâchés, mais il n'empèche que le DLSS de Nvidia est une solution très complexe et très sophistiquée, là où une simple matrice de sharpening aurait pu faire l'affaire via un produit de convolution, et c'est peut-être ce que AMD va faire
par Un hardeur des ragots du Centre-Val de Loire, le Mercredi 02 Juin 2021 à 15h38  
par Guillaume L. le Mercredi 02 Juin 2021 à 12h28
C'est quoi cette notion de transistors gâchés, il y a vraiment des gens qui sortent ce genre d'arguments, sérieusement ?
Je sais pas si j'étais inclus dans le tas.
Je dis pas que les Tensor/RT cores sont du gâchis de silicium, ça impliquerai que ça n'a absolument aucune utilité, ce qui est faux.
Je disais juste que pour une personne qui joue que à des jeux qui n'utilisent ni RTX ni DLSS, ça n'apporte rien.
Peut-être que dans le futur il y aura des jeux qui exploiteront les Tensor Cores pour une raison quelconque (il me semble que RDNA2, Xbox Series et PS5 ont des unités équivalentes donc ça devrait se généraliser rapidement), et que ça deviendra plus utile aux joueurs en dehors du DLSS, mais à l'heure actuelle ce n'est pas le cas.

Après pour le DLSS en particulier, il me semble avoir entendu que le traitement se faisait en 1.5 ms par image en 4K sur du Turing, donc c'est cool que ça ajoute pas trop de latence mais par contre ça veut dire que les unités de calcul dédiées sont un poil surdimensionnées pour cette opération en particulier (ou alors on dit que c'est prêt à gérer du 4K 600 FPS).

Sinon, en dehors du jeu video, il me semble qu'il y a pleins d'utilisations à en faire de ces Tensor/RT Cores, mais j'ai pas encore entendu parler d'application vraiment grand public. A l'heure actuelle, les gens qui se servent c'est plutôt pour des utilisations pro, et dans ce cas là ils seraient plutôt censés utiliser les gammes Quadro que les GeForce.
par Un ragoteur RGB en Bourgogne-Franche-Comté, le Mercredi 02 Juin 2021 à 14h43  
par Un hardeur des ragots du Centre-Val de Loire le Mercredi 02 Juin 2021 à 12h20
Oui, et alors ?

Admettons ta carte fait 70 FPS en 1080p et 35 FPS en 1440p.
Tu rajoutes FSR qui bouffe de la puissance, la génération du 1080p tombe à 60 FPS.
Sauf que ce 1080p est transformé en 1440p par FSR.
Du coup 1440p 35 FPS natif vs 1440p 60 FPS artificiel, ça s'appelle bien un gain de performance.

Dans le même temps, DLSS avec ses unités dédiées aurait pu faire 1440p 69 FPS, mais faut pas oublier que le silicium claqué dans les Tensor/RT Core, c'est du silicium qui n'est pas utilisé dans la rasterisation (cf le super rapport perf/prix de Pascal vs Turing avec la même finesse de gravure).
Je n'admets rien, et je préfère attendre de vrais tests, parce que des chiffres sortis du chapeau ne sont pas près de me convaincre de quoique ce soit du bien fondé du choix fait, même si je comprends la logique de l'exemple. Rien ne dit que l'impact sera aussi faible lors de l'activation du FSR.

J'espère que vous aurez raison, mais je ne suis plus aussi naïf qu'en 1999, quand je me suis plongé dans le hardware et l'informatique. Autant pour les gros GPU, je me doute que cela aidera un peu, autant pour les autres, je suis sceptique.
Sinon, pour la dernière partie, cela montre l'indiscutable maîtrise de nvidia face à AMD, parce qu'ils arrivent à rivaliser ou à dépasser ce dernier tout en ayant une grande partie de leur puce inutile en rasterisation, si je suis votre logique (à tous ceux qui considèrent qu'il y a du silicium gâché et inutile ). En gros AMD est toujours à la ramasse, CQFD...
Oui c'est un peu du troll car je n'adhère pas à cette vision des tensors cores et autres transistors dédiés.
par Guillaume L., le Mercredi 02 Juin 2021 à 12h45  
par Scrabble le Mercredi 02 Juin 2021 à 12h32
C'est peut-être abusif de parler de transistors gâchés, mais il n'empèche que le DLSS de Nvidia est une solution très complexe et très sophistiquée, là où une simple matrice de sharpening aurait pu faire l'affaire via un produit de convolution, et c'est peut-être ce que AMD va faire
Certes, et je ne dis pas le contraire. Cela ne veut pas dire que ça vaut la peine pour certains d'utiliser des arguments pitoyables pour autant, les Tensor Cores peuvent servir à autre chose qu'un simple DLSS.
Il suffit de voir parfois plus loin que le bout de son nez