COMPTOIR
register

DirectSR : l’API de Microsoft qui doit rallier DLSS, FSR et XeSS

Ces derniers jours, vous avez peut-être vu passer des articles traitant du DirectSR de Microsoft. L’entreprise prévoit de présenter en détail ce que nous pensions être une technologie de mise à l’échelle le 21 mars prochain. Avant cette échéance, et afin d’éviter toute confusion, Microsoft a apporté quelques précisions par le biais d’un article de blog. La société y précise que le DirectSR n’est nullement une techno visant à supplanter celles existantes. Au contraire, il s’agit en fait d’une API pour DirectX qui doit servir à normaliser leur intégration.

xess dlss fsr techpowerup

Une préférence ? © TechPowerUp

Trois solutions concurrentes...

Commençons par un résumé de la situation actuelle en matière de SR. De nos jours, les trois mastodontes que ce sont NVIDIA, AMD et Intel proposent tous leur propre technologie de mise à l’échelle.

NVIDIA a dégainé la première, en 2018, avec son DLSS, à l’occasion du déploiement des GPU sous architecture Turing (GeForce RTX 20 Series). Particularité du Deep Learning Super Sampling : accéléré par l’IA, il est exclusif aux cartes graphiques GeForce dotées de cœurs Tensor. Le DLSS 2.0 a vu le jour en 2020. Deux ans plus tard, le DLSS 3 a accompagné la commercialisation des GeForce RTX 40 Series sous architecture Ada Lovelace et amorcé la guerre de la Frame Generation. Officiellement, nous en sommes au DLSS 3.5, version qui a intégré la ray reconstruction.

dlss 3 5 geforce rtx gpu support

AMD avait répliqué en juin 2021 avec son FidelityFX Super Resolution 1.0 (FSR). Le FSR 2.0 a suivi l’année suivante. Le FSR 3.0 est arrivé en 2023, mais son implémentation reste encore assez marginale. Contrairement au DLSS de NVIDIA, le FSR n’a aucune trace d’IA ; open-source, la technologie est supportée par un large panel de cartes graphiques ; pas exclusivement celles d’AMD.

Enfin, en 2022, Intel s’est lancée à son tour dans la mêlée avec le XeSS, sigle de Xe Super Sampling. C’est une technologie à mi-chemin entre celle d’AMD et de NVIDIA : elle est universelle comme la première, mais exploite un matériel de machine learning dédié et des algorithmes d'IA pleinement exploités par les cœurs XMX (Xe Matrix eXtensions) des GPU Arc Alchemist.

Point commun de toutes ces technologies de mises à l’échelle : les développeurs doivent les implémenter manuellement dans leurs productions ; ce ne sont pas de simples surcouches gérées au niveau des pilotes graphiques. Forcément, intégrer les trois technologies d'upscaling une par une peut vite devenir fastidieux, au-delà des accords commerciaux. En témoigne l’exemple de Starfield : la production de Bethesda – partenaire d’AMD – proposait juste le FSR 2 lors de sa parution en septembre 2023. Le DLSS a été ajouté en novembre ; l’XeSS mais aussi le FSR 3 ont atterri dans la production seulement le mois dernier.

... que le DirectSR va régenter

C’est là que le DirectSR entre en jeu. De plus amples informations seront communiquées à l’occasion de la GDC 2024 (Game Developers Conference) qui se déroula du 18 mars au 23 mars. Mais en l’état, Microsoft présente son API comme le fruit d’une collaboration entre les différents acteurs du secteur (les trois susmentionnés) qui va permettre de faciliter l’intégration des différentes technologies de mise à l’échelle temporelle dans les jeux. Il est ainsi question « de réaliser des SR multi-fournisseurs grâce à un ensemble commun d'entrées et de sorties, permettant d'activer une variété de solutions telles que NVIDIA DLSS Super Resolution, AMD FidelityFX Super Resolution, et Intel XeSS via un seul cheminement de code ».

Ce projet rappelle peut-être à certains d’entre vous le NVIDIA Streamline. Un framework open source qui devait permettre aux développeurs d'implémenter facilement des technologies de super-résolution concurrentes. AMD n’a jamais rejoint cette initiative qui semble désormais lettre morte. Elle devait prendre en charge DirectX 11, DirectX 12 et Vulkan.

streamline nvidia

Streamline © NVIDIA

A priori, avec son DirectSR, Microsoft est parvenue à concrétiser cette ambition. Nous en apprendrons davantage d’ici une vingtaine de jours. Ci-dessous, vous pouvez consulter l’intégralité du texte de présentation publiée par Joshua Tucker dans l'article titré DirectX Innovation on Display at GDC 2024.

« Nous sommes ravis d'annoncer DirectSR, notre nouvelle API conçue en partenariat avec les fournisseurs de matériel GPU pour permettre l'intégration transparente de la Super Résolution (SR) dans la prochaine génération de jeux. La super résolution est une technique de pointe qui augmente la résolution et la qualité visuelle des jeux. DirectSR est le chaînon manquant que les développeurs attendaient pour l'intégration de la SR, en offrant une expérience plus fluide et plus efficace qui s'adapte à tous les types de matériel. Cette API permet de réaliser des SR multi-fournisseurs grâce à un ensemble commun d'entrées et de sorties, permettant à un seul chemin de code d'activer une variété de solutions telles que NVIDIA DLSS Super Resolution, AMD FidelityFX Super Resolution, et Intel XeSS. DirectSR sera bientôt disponible dans le SDK Agility en tant qu'aperçu public, ce qui permettra aux développeurs de le tester et de faire part de leurs commentaires. Ne manquez pas notre DirectX State of the Union à la GDC pour découvrir en avant-première comment DirectSR peut être utilisé dans vos jeux ! »
Un poil avant ?

Test • PCSpecialist Fusion 14

Un peu plus tard ...

Jusqu'à 100 € de cashback sur les Radeon 7000 Asus, bonne affaire en vue

Les 13 ragots
Les ragots sont actuellement
ouverts à tous, c'est open bar !
par wacky, le Mardi 05 Mars 2024 à 21h49  
par Un champion du monde embusqué¶, le Mardi 05 Mars 2024 à 21h26
Pour dire le premier jeu que j ai codé en groupe étudiant à l époque c était avec opengl pour l aspect graphique
On a codé ça sur station de travail unix
À l époque windows pro c était Windows NT 3.51 hein

Faut avoir envie de se faire iech en 2024 pour encore utiliser opengl hors contrainte matériel genre vouloir faire tourner ça sur genre raspberry pi 3
C'est ce que je dis donc on est raccord. J'ai joué un peu avec OpenGL, une galère, une horreur même. Vulkan c'est pas beaucoup plus simple mais au moins c'est cross-plateforme (ou presque).
par Un champion du monde embusqué¶, le Mardi 05 Mars 2024 à 20h59
Unreal engine c est du soft
Des unité pour le mesh shading bah c est du hard
L itération 5.x de unreal engine est sorti bien après les shader model 6.7 donc encore heureux que ce qu il appelais alors "nanite" en marketing ça soit du mesh shading
T'as tout résumé. Unreal Engine c'est la simplicité pour faire tout ce foutu bord'l sans se prendre le choux avec possible/pas possible/manque DLL/oups pas ce matos...
Je ne suis pas Dev, le discours ultra technique pourquoi pas mais çà m'en touche une sans faire bouger l'autre.
Je ne veux pas d'escuse, je ne veux pas savoir qui ou comment ou pourquoi.
Juste qu'on arrête de nous pondre des daubes en 2024 avec de gros pixels tout moche, des textures en carton qui bavent et une optimisation aux fraises où on est content quand çà pousse à 60 images/seconde.

Non (petit coup de gueule du soir, bonsoir), on veux pouvoir choisir la résolution de nos jeux, avoir à minima du 120 FPS en 1440p et du 90 FPS en 4K avec toutes les options, le ray tracing.
par Un champion du monde embusqué, le Mardi 05 Mars 2024 à 21h26  
Pour dire le premier jeu que j ai codé en groupe étudiant à l époque c était avec opengl pour l aspect graphique
On a codé ça sur station de travail unix
À l époque windows pro c était Windows NT 3.51 hein

Faut avoir envie de se faire iech en 2024 pour encore utiliser opengl hors contrainte matériel genre vouloir faire tourner ça sur genre raspberry pi 3
par Un champion du monde embusqué, le Mardi 05 Mars 2024 à 21h21  
par wacky¶, le Mardi 05 Mars 2024 à 12h58
Ça ne change rien, les Dev veulent se simplifier la vie et c'est DirectX qui le leur permet.
Moi aussi je préférerais Vulkan car j'étais un aficionados de Linux pendant plus de 30 ans. Bon j'ai laché l'affaire depuis 2-3 ans.

Vulkan c'est bien pour des projets libres, pas cher et pour l'utilisation sous linux. En dehors de ça ?
Bah le truc c est que vulkan c est une api juste lié au gpu
DirectX, c est aussi direct i/o par exemple pas que Direct3D ou direct2d (pour peu que direct2d soit encore utilisé ? ) Là un prend dans le cadre IA c est surtout directML qui doit être en cours d upgrade pour l aspect NPU d ia avec inférence

Pour ça que j évoquais valve et steamOS
Valve était en capacité de fournir des api "cadré" pour le son, la gestion manette, clavier souris, etc...
Bref ce qui manque à vulkan

Maintenant vulkan dans le monde émulation console de jeu, ça monte en force car ça exploite les gpu (IGP) récent pour des emulateur de vieille console de jeux 3d
Car c est une api pour gérer le gpu plus multiplateforme que DirectX
Bref linux/windows ET Android/chromeOS
Là où opengl c est surtout pour des vieux gpu et ça faisait le café pour genre émuler de la ps1 / saturn
Mais tu prend genre un emulateur ps2/GC/PS3/xbox360/wii... vulkan va carrément mieux prendre en charge les gpu récent et prendre le large versus opengl

De toute façon opengl ça n a jamais vraiment été ou api "jeu vidéo" plus soft pro de traitement d image car à une époque... Bah DirectX n existait mm pas
Donc oui les premier jeu vidéo 3D du temps d un MS Dos par exemple .. t avais opengl, glide (3dfx) , je sais plus quoi à base de voxel...
par Un champion du monde embusqué, le Mardi 05 Mars 2024 à 20h59  
par wacky, le Dimanche 03 Mars 2024 à 14h42
Le Mesh shading, je ne sais pas s'il sera vraiment utilisé un jour. Cà doit ressembler à ce qu'Unreal Engine est capable de faire avec le Load Bias dynamique sur les objets mesh.

Pour le reste le ray tracing suffit à lui seul l'utilisation de DirectX 12
Unreal engine c est du soft
Des unité pour le mesh shading bah c est du hard
Ça implique que l archi du gpu se base mini sur shader model 6.7
Sinon ça ne peut traiter convenablement ou pas du tout mm les nouvelles commande introduite avec 6.7
On prend chez NVIDIA 6.7 c est depuis Turing
Et coté depuis Vega (un doute pour fiji)

L itération 5.x de unreal engine est sorti bien après les shader model 6.7 donc encore heureux que ce qu il appelais alors "nanite" en marketing ça soit du mesh shading

On en est à la ... 5eme preversion de ce que dois être les shader model 6.8
Et windows allant faut aussi bien sur la "badge" WDDM pour windows (le décodage vidéo, les reso maximale supporté, HDR supporté, nb d écrans supporté etc ..)
On en est au WDDM 3.2 pas tout à fait final de souvenir dans le canal insider
par wacky, le Mardi 05 Mars 2024 à 12h58  
par YulFi, le Mardi 05 Mars 2024 à 09h29
Ou vulkan. un petit lien tout mignon
Ça ne change rien, les Dev veulent se simplifier la vie et c'est DirectX qui le leur permet.
Moi aussi je préférerais Vulkan car j'étais un aficionados de Linux pendant plus de 30 ans. Bon j'ai laché l'affaire depuis 2-3 ans.

Vulkan c'est bien pour des projets libres, pas cher et pour l'utilisation sous linux. En dehors de ça ?
par YulFi, le Mardi 05 Mars 2024 à 09h29  
par wacky, le Dimanche 03 Mars 2024 à 14h42
Le Mesh shading, je ne sais pas s'il sera vraiment utilisé un jour. Cà doit ressembler à ce qu'Unreal Engine est capable de faire avec le Load Bias dynamique sur les objets mesh.

Pour le reste le ray tracing suffit à lui seul l'utilisation de DirectX 12
Ou vulkan. un petit lien tout mignon
par YulFi, le Mardi 05 Mars 2024 à 09h26  
Pour OpenGL vs Direc3D c'est surtout que Microsoft fournit un SDK complet avec des outils et une intégration dans visual studio. Pour OpenGL sous windows il n'y a qu'une API qui prend en charge la version 1.1 et c'est démerdez-vous pour le reste. C'est aux fabricants de GPU de faire tout le taf. Et niveau outils de dev/debug vraiment bon c'est le désert.
Pour Vulkan au contraire il y avait un SDK dès le début, c'est appréciable.
par wacky, le Dimanche 03 Mars 2024 à 14h42  
par beguemot, le Dimanche 03 Mars 2024 à 09h59
très bonne nouvelle ça évitera la petite guerre en Intel/AMD/Nvidia, j'ai hâte de voir le résultat
Le Mesh shading, je ne sais pas s'il sera vraiment utilisé un jour. Cà doit ressembler à ce qu'Unreal Engine est capable de faire avec le Load Bias dynamique sur les objets mesh.

Pour le reste le ray tracing suffit à lui seul l'utilisation de DirectX 12
par Un champion du monde embusqué, le Dimanche 03 Mars 2024 à 13h56  
(suite)
En effet tout les cpu qui n ont plus été compatible windows11 ça implique des IGP de daube en moins
Et "windows12" continuera sur cette lancé

Win11 demandait un gpu dx12.0 comprendre "pas directx12ultimate"
Donc n importe quel gpu dx11.1 à dx11.3 pouvait pipoter être "dx12"
Avec "windows 12" tu prend par exemple l archi AMD "Vega" ça va marcher... Marchoté
Mais ça sera du "legacy"
Bref quand "win12" va se pointer faudra coté Intel et AMD et NVIDIA et Qualcomm si on ajoute Windows arm sur 2025
Un vrai IGP intégré dx12ultimate

D ailleurs avec les "accélérateur IA" quasi imposé pour les inférence et le DSR
Je pige mm pas pourquoi on ne parle pas déjà de directx13

Et qu on arrête chez Microsoft cette connerie à la street fighter 2 sur des noms type
Directx12 "ultimate turbo seconde rox kiki Omega plus"
par Un champion du monde embusqué, le Dimanche 03 Mars 2024 à 13h46  
par wacky, le Vendredi 01 Mars 2024 à 16h59
C'est une bonne chose de rationaliser cette technologie.
Il est vrai que ce ne sont que des artifices mais pour utiliser DLSS et un injecteur de FSR3 Frame Génération dans certains jeux, je dois dire qu'avoir quasiment le double de Frames sans trop dénaturer le jeu, c'est quand même très bien.

Avant je préférais OpenGL mais largement dépassé, même son évolution Vulkan est à la traine face à DirectX12.
Donc pour nous, simple consommateurs, merci à Crosoft de se pencher sur cette problématique.

Il serait bien aussi de commencer à voir plus de production Unreal Engine 5, les moteurs exotiques étant loin, très loin des capacités d'un Unreal Engine.
Quand je regarde les graphismes d'un Assassin's creed par exemple, j'aimerais tellement qu'ils utilisent un vrai moteur pour nous donner une expérience, une immersion bien meilleure.
Vulkan à la traîne ???
Alors vraiment pas

La plupart des jeux dit "dx12" ne sont que des jeux dx11 affublé juste du logo dx12 juste car ça active le raytracing hybride OPTIONNEL
La vrai révolution de dx12 ultimate c est le mesh shading
Et à date en jeu commercialisé il ne doit y avoir que Alan wake 2 qui utilise le mesh shading

C est surtout que le premier qui aurait dû pousser vulkan auprès des studio ne l a pas fait
À savoir valve via steamOS
Au lieu de ça ils sont passé par un wrapper de commande DirectX
Et dans le mm temps Microsoft a grave taffé pour que ses api DirectX ou .net existe en version linux

Par contre dans le domaine de l émulation / retrogaming ça traine un peu des pantoufles avec opengl pour une seule raison, raspberry pi et les vieux apu x86
Mais ça devrait commencé à changer avec le gros abandon de moulte cpu par windows 11
par beguemot, le Dimanche 03 Mars 2024 à 09h59  
très bonne nouvelle ça évitera la petite guerre en Intel/AMD/Nvidia, j'ai hâte de voir le résultat
par wacky, le Vendredi 01 Mars 2024 à 16h59  
C'est une bonne chose de rationaliser cette technologie.
Il est vrai que ce ne sont que des artifices mais pour utiliser DLSS et un injecteur de FSR3 Frame Génération dans certains jeux, je dois dire qu'avoir quasiment le double de Frames sans trop dénaturer le jeu, c'est quand même très bien.

Avant je préférais OpenGL mais largement dépassé, même son évolution Vulkan est à la traine face à DirectX12.
Donc pour nous, simple consommateurs, merci à Crosoft de se pencher sur cette problématique.

Il serait bien aussi de commencer à voir plus de production Unreal Engine 5, les moteurs exotiques étant loin, très loin des capacités d'un Unreal Engine.
Quand je regarde les graphismes d'un Assassin's creed par exemple, j'aimerais tellement qu'ils utilisent un vrai moteur pour nous donner une expérience, une immersion bien meilleure.