COMPTOIR
register

Le HDR est limité à 8-bit via HDMI

Comme vous le savez, le HDR est une technologie qui prend place sur de plus en plus d'écrans, bien qu'il soit encore rare sur nos moniteurs. Heise.de s’est penché sur le sujet avec les cartes graphiques des rouges, et ils ont été surpris. Il s'avère que l'HDMI 2.0a n’est pas suffisant pour gérer une définition "4K" à 60Hz avec du HDR 10-bit en structure 4:4:4 (2160p60 / 10bpc). Or un slide d'AMD suggérait pourtant que c'était le cas.

 

amd radeon 2016 hdr on radeon

 

Dans le test qu'ils ont effectué, ils ont utilisé une RX 480 sur le jeu Shadow Warrior 2 en activant le HDR. Résultat, la profondeur des couleurs est réduite à 8-bit avec dithering (aussi nommé tramage, qui est un procédé permettant d'obtenir des dégradés lisses, évitant ainsi les effets de bande, en corrigeant les erreurs logiciellement) avec l’HDMI 2.0a. En faisant quelques recherches sur les spécifications de l’HDMI 2.0, on peut y voir que seul le 4:2:2 (donc le 4:2:0 aussi) passe en 2160p60 / 10 bpc (l’HDMI 2.0a n’est qu’une évolution mineure de l’HDMI 2.0, mais il permet de faire transiter les métadonnées HDR).

 

Beaucoup de bruit pour pas grand-chose finalement (trouver un slide qui date un peu, pointer ce qui semble être une erreur de communication de la part des rouges et on obtient l’article idéal pour faire du clic), de plus, Antal Tungler (Senior Manager of Global Technology Marketing chez AMD) a clarifié cela dans une réponse donnée à TweakTown :

le 4:4:4 10bpc @4K60Hz n'est pas possible en utilisant l'HDMI, mais il est possible et est supporté avec le Displayport.

 

Bref, pour rester dans les limites de la bande passante de l’HDMI 2.0a, il est donc nécessaire d'appliquer un sous-échantillonnage de la chrominance en 4:2:2 ou 4:2:0 (que l'on peut traduire par des pertes d'informations, la résolution de chrominance étant soit divisé par deux en 4:2:2, soit par quatre en 4:2:0, ce qui est plus ou moins visible en fonction des contenus). Les solutions sont alors d'attendre l’arrivée de la prochaine norme HDMI ou d’utiliser le DisplayPort 1.2.

Un poil avant ?

Une GTX 1050Ti Low Profile chez MSi

Un peu plus tard ...

Au tour d'ASRock de passer ses Beebox sur Kaby Lake U, disponibilité immédiate

Les 13 ragots
Les ragots sont actuellement
ragots réservés aux QI élevésouverts aux ragoteurs logués
par Pryest, le Mercredi 23 Novembre 2016 à 23h12  
par Scrabble le Mercredi 23 Novembre 2016 à 20h33
Ne confondez pas le HDR utilisé en photo et les écrans HDR, ça n'a rien à voir. En fait le HDR en photo DIMINUE les contrastes, c'est ni plus ni moins que de la compression de dynamique, et ça devrait plutôt s'appeler du LDR (low dynamic range). A l'inverse un écran HDR permet vraiment de restituer la dynamique de l'image, grâce à une forte luminosité et un fort contraste de l'écran.
Gné ? ça a toujours le même sens.
En photo pas mal de constructeur ont surtout tendance à utiliser très facilement le terme HDR pour le moindre traitements logiciel même sans bracketing permettant de dépasser la limite du capteur, le résultat final est loin d'être mirobolant (c'est très loin de ce qu'on obtient avec du matériel photo ou vidéo pro) mais la gamme dynamique étant étendu, on tamponne HDR.
par Scrabble, le Mercredi 23 Novembre 2016 à 20h33  
Ne confondez pas le HDR utilisé en photo et les écrans HDR, ça n'a rien à voir. En fait le HDR en photo DIMINUE les contrastes, c'est ni plus ni moins que de la compression de dynamique, et ça devrait plutôt s'appeler du LDR (low dynamic range). A l'inverse un écran HDR permet vraiment de restituer la dynamique de l'image, grâce à une forte luminosité et un fort contraste de l'écran.
par Uber gangsta, le Mercredi 23 Novembre 2016 à 10h20  
En même temps, la HDR est une technologie initialement destinée à la TV et au BD, par ricochet pour le cinéma aussi, et aujourd'hui pour le gaming. Dans ce cadre, même le dernier support qu'est le BD UHD aura un traitement de chrominance 4:2:0 et HDR10 à 60ips.
Le HDMI 2.0a a été conçu dans ce sens, pas vraiment pour le jeux vidéo.

J'irai même jusqu'à dire que les dalles edge des moniteurs gaming, à temps de réponse très réduits, sont loin d'être optimales niveau traitement, colorimétrie etc... pour profiter d'un rendu type home cinema.
En UHD, un hdmi 2.0a @ 60 ips en 4:2:2 sur du HDR 10, c'est largement suffisant, sachant que pour du "4K" avec un niveau de détails ultra pour sublimer l'expérience, faut déjà avoir une bonne grosse config de bourrin (ce n'est pas un reproche hein, si vous êtes dans ce cas, je suis sincèrement content pour vous).
par BloodBrother, le Mercredi 23 Novembre 2016 à 09h15  
Bon, en gros cette technologie est alléchante sur le papier mais ca demande à murir encore un peu...
par LePCiste, le Mardi 22 Novembre 2016 à 21h26  
par Pryest le Mardi 22 Novembre 2016 à 15h42
Aaaah, le HDR, techniquement c'est une avancé sympathique mais comme c'est devenu le nouvel argument commercial à la mode on nous le vend à toutes les sauces en gardant bien le consommateur lambda dans le vague.
Déjà en photo suivant la méthode utilisé pour obtenir le cliché en HDR, entre les différentes méthodes pour l'obtenir, les limites de son matériel et les réglages utilisateurs, ça peu donner une bonne variété de résultat.
Pour les écrans ça devrait être plus simple, pour chaque modèle le constructeur devrait nous indiquer les limites de pics de luminosité et de niveaux de noir qu'il nous garantie mais c'est loin d'être le cas sauf avec les modèles ayant la certification UHD Premium (trouvable essentiellement dans les modèles hauts de gamme). En gros du moment que l'électronique accepte les données numériques HDR mais que l'écran ne dépasse la plage dynamique jusque là en vigueur que de peu, légalement, qu'est ce qui l'empêche de qualifier son écran de HDR ?
Je suis sûr qu'une immense majorité des tv 4K ne verront jamais autre chose au cours de leur existence que de la tnt hd (720p/1080i + compression à la truelle) alors je pense que le gros du marché qui rapporte le pognon est TREEEEES loin de se soucier du pic de luminosité que l'hdr peut potentiellement exploiter malheureusement
par Pryest, le Mardi 22 Novembre 2016 à 15h42  
Aaaah, le HDR, techniquement c'est une avancé sympathique mais comme c'est devenu le nouvel argument commercial à la mode on nous le vend à toutes les sauces en gardant bien le consommateur lambda dans le vague.
Déjà en photo entre les différents moyens techniques et/ou logiciel, les limites de son matériel et les réglages utilisateurs, ça peu donner une bonne variété de cliché différents les un des autres qui seront pourtant tous qualifié de HDR.
Pour les écrans ça devrait être plus simple, pour chaque modèle le constructeur devrait nous indiquer les limites de pics de luminosité et de niveaux de noir qu'il nous garantie mais c'est loin d'être le cas sauf avec les modèles ayant la certification UHD Premium (trouvable essentiellement dans les modèles hauts de gamme). En gros du moment que l'électronique accepte les données numériques HDR mais que l'écran ne dépasse la plage dynamique jusque là en vigueur que de peu, légalement, qu'est ce qui l'empêche de qualifier son écran de HDR ?
par Lyff, le Mardi 22 Novembre 2016 à 14h55  
par BloodBrother le Mardi 22 Novembre 2016 à 12h53
Pour que le rendu soit bon, il faut que l'algorithme qui fusionne les images captées en surexposition et sous exposition soit bon. Même si je ne regarde pas les images HDR sur un écran HDR, je m'aperçois bien que tantôt la luminosité est bonne sur les parties d'images ou il y'a le soleil, mai le reste est surexposé...
Pour moi c'est pas bon.

Si on regarde le coucher de soleil depuis l'intérieur d'une grotte dans la vrai vie; autant le soleil nous éblouie mais l'intérieur de la grotte reste Noir.

Je doute qu'un algorithme soit capable de faire un rendu irréprochable.

En fait pour bien faire, il faudrait qu'une photographe retouche les films image par image avec tout le spectre HDR Filmé.
L'HDR sur PC ne fonctionne pas comme du bracketing avec fusion des images, d'ailleurs sur la plupart des bons appareils photos récents la plage dynamique est assez large pour faire de l'HDR sans devoir fusionner plusieurs images.

Les appareils photos d'il y a 10 ans n'avaient pas de plages dynamique assez élevée pour faire de l'HDR donc tu combinais plusieurs photos sous exposées et sur exposées pour en avoir une seule bien exposée.

L'HDR qu'on voit débarquer aujourd'hui c'est des écrans qui envoient du 10bit soit 1024 niveaux d'exposition au lieu de 256, ce qui fait beaucoup plus de nuances pour eviter des sur ou sous expositions.
par BloodBrother, le Mardi 22 Novembre 2016 à 12h53  
Pour que le rendu soit bon, il faut que l'algorithme qui fusionne les images captées en surexposition et sous exposition soit bon. Même si je ne regarde pas les images HDR sur un écran HDR, je m'aperçois bien que tantôt la luminosité est bonne sur les parties d'images ou il y'a le soleil, mai le reste est surexposé...
Pour moi c'est pas bon.

Si on regarde le coucher de soleil depuis l'intérieur d'une grotte dans la vrai vie; autant le soleil nous éblouie mais l'intérieur de la grotte reste Noir.

Je doute qu'un algorithme soit capable de faire un rendu irréprochable.

En fait pour bien faire, il faudrait qu'une photographe retouche les films image par image avec tout le spectre HDR Filmé.

par Lyff, le Mardi 22 Novembre 2016 à 11h24  
Techniquement l'HDR permet de se rapprocher du réel, car la plage d'exposition (on va dire "luminosité" ) sont bien plus grande que sur des écrans classiques. Des blancs aveuglants et des noirs profonds idéalement (dans un futur lointain vous pourrez vous cramer les yeux avec l'apparition d'un soleil sur votre écran), mais c'est débile de passer ça sur du 4:2:2 voir 4:2:0 car on squeeze la plupart des couleurs.

Et forcement quand vous regardez des images HDR sur un écran pas HDR, votre moniteur n'affiche pas la plupart des écart de luminosité, d'où l'apparence d'images très contrastées.
par Salva, le Mardi 22 Novembre 2016 à 10h37  
par BloodBrother le Mardi 22 Novembre 2016 à 10h12
Je ne suis pas un expert en image et photographie, loin de la....mais quand je vois les screens sur le net : AVEC vs SANS HDR, je trouve que si l'image avec HDR est belle et bien plus colorée, elle est moins réaliste par rapport a ce que voit dans la vraie vie.
Tout à fait, les couleurs, contrastes, sont accentués et ne fait pas du tout réel, mais à priori les marketeux ce sont lancé là-dessus suite à la 4k
par Berk124, le Mardi 22 Novembre 2016 à 10h17  
par BloodBrother le Mardi 22 Novembre 2016 à 10h12
Je ne suis pas un expert en image et photographie, loin de la....mais quand je vois les screens sur le net : AVEC vs SANS HDR, je trouve que si l'image avec HDR est belle et bien plus colorée, elle est moins réaliste par rapport a ce que voit dans la vraie vie.
J'imagine que ce screen sur le net tu le regardes avec un écran HDR ?
par BloodBrother, le Mardi 22 Novembre 2016 à 10h12  
Je ne suis pas un expert en image et photographie, loin de la....mais quand je vois les screens sur le net : AVEC vs SANS HDR, je trouve que si l'image avec HDR est belle et bien plus colorée, elle est moins réaliste par rapport a ce que voit dans la vraie vie.